Home » Изображения, созданные ИИ, становится все труднее обнаружить. Google считает, что у него есть решение.

Изображения, созданные ИИ, становится все труднее обнаружить. Google считает, что у него есть решение.

Изображения, созданные искусственным интеллектом, становится все труднее отличить от реальных, поскольку технологические компании стремятся улучшить свои продукты на базе искусственного интеллекта. По мере того как президентская кампания 2024 года набирает обороты, быстро растет обеспокоенность тем, что такие изображения могут быть использованы для распространения ложной информации.

Во вторник Google анонсировала новый инструмент под названием SynthID, который, по его словам, может стать частью решения. Инструмент встраивает цифровой «водяной знак» непосредственно в изображение, которое не видно человеческому глазу, но может быть обнаружено компьютером, обученным его считывать. В Google заявили, что их новая технология создания водяных знаков устойчива к несанкционированному вмешательству, что делает ее ключевым шагом на пути к контролю за распространением поддельных изображений и замедлению распространения дезинформации.

Генераторы изображений с искусственным интеллектом доступны уже несколько лет и все чаще используются для создания «дипфейков» — ложных изображений, выдающих себя за настоящие. В марте, поддельные изображения AI бегство от полиции бывшего президента Дональда Трампа стало вирусным в Интернете, а в мае фальшивое изображение, на котором изображен взрыв в Пентагоне вызвал кратковременный крах фондовых рынков. Компании размещают видимые логотипы на изображениях ИИ, а также прикрепляют текстовые «метаданные», отмечающие происхождение изображения, но оба метода можно относительно легко обрезать или отредактировать.

«Очевидно, что джин уже выпущен из бутылки», — заявила в интервью член палаты представителей Иветт Д. Кларк (DN.Y.), которая выступает за закон, требующий от компаний ставить водяные знаки на своих изображениях, созданных искусственным интеллектом. «Мы просто не видели, чтобы он был максимально развернут с точки зрения его вооружения».

На данный момент инструмент Google доступен только некоторым платным клиентам его облачного бизнеса — и он работает только с изображениями, созданными с помощью инструмента создания изображений Google Imagen. Компания заявляет, что не требует от клиентов ее использования, поскольку она все еще находится в стадии эксперимента.

Read more:  Мы протестировали гигантский 14-дюймовый Xiaomi Pad 6 Max!

Конечная цель — помочь создать систему, в которой большинство изображений, созданных искусственным интеллектом, можно будет легко идентифицировать с помощью встроенных водяных знаков, — сказал Пушмит Кохли, вице-президент по исследованиям Google DeepMind, лаборатории искусственного интеллекта компании, который предупредил, что новый инструмент не полностью надежный. «Вопрос в том, есть ли у нас технология, чтобы достичь этого?»

Поскольку ИИ становится все лучше в создании изображений и видео, политики, исследователи и журналисты обеспокоены тем, что грань между реальным и ложным в Интернете будет размываться еще больше, и эта динамика может углубляют существующие политические разногласия и затрудняют распространение фактической информации. Улучшение в технологии дипфейков происходит по мере того, как компании, занимающиеся социальными сетями, отступить назад от попыток контролировать дезинформацию на своих платформах.

Использование водяных знаков — одна из идей, вокруг которых технологические компании сплотились как потенциальный способ уменьшить негативное воздействие «генеративной» технологии искусственного интеллекта, которую они быстро продвигают миллионам людей. В июле в Белом доме состоялась встреча с руководителями семи самых влиятельных компаний в области искусственного интеллекта, включая Google и производителя ChatGPT OpenAI. Компании все пообещал создать инструменты для нанесения водяных знаков и обнаружения текста, видео и изображений, созданных искусственным интеллектом.

Microsoft создала коалицию технологических компаний и медиа-компаний для разработки общего стандарта для нанесения водяных знаков на изображения ИИ, и компания заявила, что исследует новые методы отслеживания изображений ИИ. Компания также размещает небольшой видимый водяной знак в углу изображений, созданных с помощью инструментов искусственного интеллекта. OpenAI, чей генератор изображений Dall-E помог спровоцировать волну интереса к искусственному интеллекту в прошлом году, также добавляет видимый водяной знак. Исследователи искусственного интеллекта предложили способы внедрения цифровых водяных знаков, которые человеческий глаз не видит, но может идентифицировать компьютер.

Кохли, исполнительный директор Google, сказал, что новый инструмент Google лучше, потому что он работает даже после того, как изображение было значительно изменено. Это ключевое улучшение по сравнению с предыдущими методами, которому можно легко помешать, изменив или даже перевернув изображение.

Read more:  Recenze The Last of Us Part I » Вихрь

«Существуют и другие методы нанесения водяных знаков, но мы не думаем, что они настолько надежны», — сказал он.

Даже если другие крупные компании, занимающиеся искусственным интеллектом, такие как Microsoft и OpenAI, разработают аналогичные инструменты, а социальные сети реализуют их, изображения, созданные с помощью генераторов искусственного интеллекта с открытым исходным кодом, все равно останутся незамеченными. Инструменты с открытым исходным кодом, подобные тем, которые созданы стартапом в области ИИ Stability AI, которые могут быть модифицированы и использованы кем угодно, уже используются для создавать сексуальные изображения без согласия реальных людей, а также создать новые материалы о сексуальной эксплуатации детей.

«За последние девять месяцев-год мы наблюдали огромный рост количества дипфейков», — сказал Дэн Перселл, основатель Ceartas, компании, которая помогает создателям онлайн-контента определять, публикуется ли их контент без их разрешения. В прошлом основными клиентами компании были производители контента для взрослых, пытавшиеся предотвратить незаконный обмен их видео и изображениями. Но в последнее время Перселл стал получать запросы от людей, чьи изображения в социальных сетях использовались для создания порнографии, созданной искусственным интеллектом, против их воли.

Сделать порно с искусственным интеллектом теперь легко. Для женщин это кошмар.

По мере того, как Соединенные Штаты приближаются к президентским выборам 2024 года, растет потребность в разработке инструментов для выявления и предотвращения фальшивых изображений ИИ. Политики уже используют эти инструменты в своих предвыборных объявлениях. В июне предвыборный штаб губернатора Флориды Рона ДеСантиса опубликовал видео, содержащее фальшивые изображения Дональд Трамп обнимает бывший советник Белого дома по коронавирусу Энтони С. Фаучи.

Выборы в США всегда сопровождались пропагандой, ложью и преувеличениями в официальной предвыборной рекламе, но исследователи, активисты демократии и некоторые политики обеспокоены тем, что изображения, созданные искусственным интеллектом, в сочетании с целевой рекламой и сетями социальных сетей облегчат распространение ложной информации и введение в заблуждение. избиратели.

Read more:  Кристофер Нолан заявил, что франшизы могут быть полезны для Голливуда

«Это может быть что-то простое, например, визуальное изображение важного места для голосования, которое было закрыто», — сказала Кларк, конгрессмен-демократ. «Это может быть что-то, вызывающее панику среди общественности, изображающее какую-то насильственную ситуацию и вызывающее страх».

ИИ может быть использован иностранными правительствами, которые уже проявили желание использовать социальные сети и другие технологии для вмешательства в выборы в США, сказала она. «Поскольку мы вступаем в разгар политического сезона, когда ситуация накаляется, мы легко можем увидеть вмешательство со стороны наших противников на международном уровне».

При внимательном рассмотрении изображения с Dall-E или Imagen обычно обнаруживаются некоторые несоответствия или странные особенности, например, у человека слишком много пальцев или размытие фона в объекте фотографии. Но генераторы поддельных изображений «абсолютно, на 100 процентов будут становиться все лучше и лучше», — сказал Дор Лейтман, руководитель отдела продуктов, исследований и разработок Connatix, компании, которая создает инструменты, которые помогают маркетологам использовать ИИ для редактирования и создания видео.

По словам Лейтмана, динамика будет аналогична тому, как компании, занимающиеся кибербезопасностью, вовлечены в бесконечную гонку вооружений, когда хакеры пытаются обойти новые и лучшие средства защиты. «Это продолжающаяся битва».

Те, кто хочет использовать фейковые изображения для обмана людей, также будут продолжать искать способы сбить с толку инструменты обнаружения дипфейков. Кохли сказал, что именно по этой причине Google не делится исследованиями, лежащими в основе своей технологии водяных знаков. «Если люди узнают, как мы это сделали, они попытаются напасть на это», — сказал он.

2023-08-29 12:58:22


1693314311
#Изображения #созданные #ИИ #становится #все #труднее #обнаружить #Google #считает #что #него #есть #решение

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.