Home » Фейки искусственного интеллекта в войне Израиля против ХАМАС – DW – 10.11.2023

Фейки искусственного интеллекта в войне Израиля против ХАМАС – DW – 10.11.2023

Как создаются фейковые истории искусственный интеллект (ИИ) работа? Какие повествования они представляют? И насколько они опасны?

Проверка фактов DW ответить на самые важные вопросы о роли ИИ в конфликте между Израиль и ХАМАС в Газе.

1) Как работают подделки изображений, созданные искусственным интеллектом?

В наши дни ИИ повсюду — даже в войнах. Приложения искусственного интеллекта значительно улучшились в этом году, и теперь почти каждый может использовать стандартные генераторы искусственного интеллекта для создания изображений, которые выглядят реальными, по крайней мере, на первый взгляд.

Для этого пользователи должны «снабжать» такие инструменты, как Midjourney или Dall-E, подсказками, включая спецификации и информацию. Затем инструменты преобразуют письменные подсказки в изображения.

Некоторые создают более художественные иллюстрации, а другие создают фотореалистичные изображения. Процесс генерации основан на так называемом машинном обучении.

Например, если генераторам предлагается показать 70-летнего мужчину, едущего на велосипеде, они ищут в своей базе данных, чтобы сопоставить термины с изображениями.

На основе доступной информации генераторы ИИ создают образ пожилого велосипедиста. Благодаря все большему количеству входных данных и технических обновлений инструменты значительно улучшились и постоянно совершенствуются.

Все это касается изображений, связанных с ближневосточным конфликтом.

И здесь люди используют такие инструменты для создания более или менее реалистичных сцен, которые, по нашим наблюдениям, часто предназначены для фиксации эмоциональных моментов для распространения тех или иных нарративов. Но об этом позже.

В конфликте, где «эмоции очень и очень сильны», говорит эксперт по искусственному интеллекту Хани Фарид, дезинформация, в том числе ее распространение через изображения искусственного интеллекта, работает исключительно хорошо.

Защищенные фасады являются идеальной питательной средой для создания и распространения фейкового контента и усиления эмоций, рассказывает DW Фарид, профессор цифровой криминалистики Калифорнийского университета в Беркли.

Проверка фактов: как распознать изображения ИИ?

Чтобы просмотреть это видео, включите JavaScript и рассмотрите возможность обновления до веб-браузера, который поддерживает видео HTML5

2) Сколько ИИ-изображений войны между Израилем и Хамасом находится в обращении?

Изображения и видео, созданные с помощью искусственного интеллекта, уже добавили дезинформации, связанной с война в Украине — и продолжаем это делать.

Поскольку инструменты искусственного интеллекта быстро развивались после вторжения России в Украину в 2022 году, многие наблюдатели ожидали, что он сыграет еще большую роль в войне между Израилем и Хамасом. Однако, по мнению экспертов, большой поток изображений ИИ до сих пор не материализовался.

Read more:  США построят порт в секторе Газа для распределения помощи, заявляет Израиль

«В конфликте между Израилем и Хамасом и соответствующая дезинформация«Мы не наблюдаем массового использования изображений, созданных искусственным интеллектом», — говорит Томассо Канетта из Европейской обсерватории цифровых медиа.

«Есть несколько примеров, но их не так много, если сравнивать их с количеством дезинформации, которая на самом деле представляет собой старые изображения и старые видео, которые сейчас распространяются вводящим в заблуждение способом», — добавляет он.

Однако это не означает, что технология не имеет значения. Фарид объясняет, что он не считает количество фейков, созданных искусственным интеллектом, значимым фактором.

«У вас может быть два изображения, которые станут супервирусными, и их увидят сотни миллионов людей. Это может иметь огромное влияние», — говорит он.

«Так что это не обязательно должна быть масштабная игра, но я думаю, что реальная проблема, которую мы наблюдаем, — это просто загрязнение информационной экосистемы».

3) Каким нарративам служат фейки искусственного интеллекта в войне между Израилем и Хамасом?

Изображения ИИ, циркулирующие в социальных сетях, обычно могут вызывать сильные эмоции.

Канетта выделяет две основные категории. Один относится к изображениям, которые акцентируют внимание на страданиях мирного населения и вызывают сочувствие к показанным людям. Другой — это фейки искусственного интеллекта, которые преувеличивают поддержку Израиля, Хамаса или палестинцев и апеллируют к патриотическим чувствам.

Определенные функции помогают определить, было ли изображение создано искусственным интеллектом.

К первой категории относится, например, фотография выше, на которой изображен отец с пятью детьми перед кучей обломков. Это было разделено много раз на X (ранее Twitter) и Instagram, и его видели сотни тысяч раз в связи с израильскими бомбардировками сектора Газа.

Тем временем изображение было помечено сообществом, по крайней мере на X, о том, что оно является фейковым. Распознать его таковым можно по различным ошибкам и несоответствиям, характерным для изображений ИИ.

Например, правое плечо мужчины непропорционально высокое. Две конечности, торчащие снизу, тоже странные — как будто они растут из его свитера.

Также поразительно то, как сливаются руки двух мальчиков, обнявших шею отца. На некоторых руках и ногах на фотографии слишком много или слишком мало пальцев рук и ног.

Подобные аномалии также можно увидеть в следующих случаях. Фейк искусственного интеллекта, который стал вирусным на Xна котором якобы изображена палестинская семья, которая вместе ест на развалинах, что вызывает сочувствие к палестинским мирным жителям.

Read more:  Новые обвинения в подготовке государственного переворота против Болсонару
Изображение, показывающее типичные анатомические аномалии на изображениях, созданных искусственным интеллектом.
Деформированные лица, а также дефекты рук и кистей — типичные несоответствия в изображениях ИИ, подобных этому.

Фотография ниже, на которой изображены солдаты, размахивающие израильскими флагами, проходя через поселение, полное разбомбленных домов, попадает во вторую категорию, призванную вызвать чувства патриотизма.

аккаунты, которые делятся изображением в Instagram и X, судя по всему, настроены в основном произраильски и приветствуют изображенные события. DW также нашел эту фотографию в качестве изображения статьи в Болгарская интернет-газетакоторый не распознал и не пометил его как созданный ИИ.

Что здесь выглядит фальшиво, так это то, как развеваются израильские флаги. Улица посередине также кажется слишком чистой, а завалы выглядят очень однородными. Разрушенные здания также выглядят как близнецы, стоящие через равные промежутки.

В целом визуальное впечатление слишком «чистое», чтобы выглядеть реалистичным. Такая безупречность, благодаря которой изображения выглядят так, как будто они нарисованы, также характерна для ИИ.

Созданное искусственным интеллектом изображение израильских танков и солдат с флагами, марширующих по улицам разбомбленного сектора Газа.
Изображения ИИ, циркулирующие в социальных сетях, обычно способны вызвать у зрителей сильные эмоции.Изображение: Х

4) Откуда берутся такие изображения ИИ?

Закрытые аккаунты в социальных сетях распространяют большинство изображений, созданных с помощью искусственного интеллекта. Их публикуют как подлинные, так и заведомо фейковые профили.

Однако изображения, созданные с помощью ИИ, также можно использовать в журналистских продуктах. Вопрос о том, будет ли это полезно и разумно и в каких случаях сейчас обсуждается во многих медиакомпаниях.

Компания-разработчик программного обеспечения Adobe вызвала переполох, когда добавила в свой ассортимент изображений, созданных искусственным интеллектом. стоковые фотографии конца 2022 года. Они помечены соответствующим образом в базе данных.

На сгенерированном искусственным интеллектом изображении двое детей сидят и смотрят на горящие здания в секторе Газа на закате.
Созданное искусственным интеллектом изображение конфликта между Израилем и сектором Газа в Adobe Stock

Adobe теперь также предлагает На продажу выставлены AI-изображения войны на Ближнем Востоке — например, взрывы, протестующие люди или клубы дыма за мечетью Аль-Акса.

Критики считают это весьма сомнительным, и некоторые интернет-сайты и средства массовой информации продолжают использовать изображения, не называя их созданными искусственным интеллектом. Изображение выше, например, появляется на сайт “Новости” без каких-либо указаний на то, что оно было создано компьютером. DW выяснил это с помощью обратный поиск изображений.

Даже Европейская парламентская исследовательская служба, научная служба Европейского парламента, проиллюстрировала онлайн-текст о ближневосточном конфликте с одной из подделок из База данных Adobe — опять же, не называя это изображением, созданным ИИ.

Канетта из Европейской обсерватории цифровых медиа призывает журналистов и специалистов СМИ быть очень осторожными при использовании изображений ИИ, советуя воздержаться от их использования, особенно когда речь идет о реальных событиях, таких как война в Газе.

Read more:  для переговорщика Эла Джабера это либо двойное, либо ничего

Ситуация меняется, когда цель состоит в том, чтобы проиллюстрировать абстрактные темы, такие как технологии будущего.

5) Какой ущерб наносят изображения ИИ?

Знание о том, что контент ИИ распространяется, заставляет пользователей чувствовать себя неуверенно во всем, с чем они сталкиваются в Интернете.

Исследователь Калифорнийского университета в Беркли Фарид объясняет: «Если мы войдем в этот мир, где можно манипулировать изображениями, аудио и видео, все окажется под вопросом. Итак, вы увидите, что реальные вещи объявляются фальшивыми».

Именно это произошло в следующем случае: изображением, предположительно показывающим обгоревший труп израильского ребенка, поделились на X премьер-министр Израиля Биньямин Нетаньяху и консервативный американский комментатор Бен Шапиро, среди других.

Скандальный антиизраильский влиятельный человек Джексон Хинкль затем заявил, что изображение было создано с использованием искусственного интеллекта.

Скриншот X-поста Джексона Хинкля, в котором утверждается, что изображение, ретвитнутое премьер-министром Израиля Биньямином Нетаньяху и американским правым комментатором Беном Шапиро, было фейком.
Антиизраильский агитатор Джексон Хинкль представил на X предполагаемое доказательство того, что фотография является подделкой искусственного интеллекта

В качестве предполагаемого доказательства Хинкль прикрепил к своему сообщению скриншот детектора ИИ «ИИ или нет», который классифицировал изображение как созданное ИИ.

Заявление Хинкля о X было просмотрено более 20 миллионов раз и вызвало бурные дискуссии на платформе.

В конце концов многие заявили, что изображение, по всей вероятности, было подлинным и, следовательно, Хинкль ошибался. Фарид также рассказал DW, что не смог найти на снимке никаких несоответствий, которые бы указывали на фейк ИИ.

Как такое возможно, спросите вы? Детекторы искусственного интеллекта, которые можно использовать для проверки того, создано ли изображение или текст искусственным интеллектом, по-прежнему очень подвержены ошибкам. В зависимости от проверенного изображения они понимают его правильно или неправильно и часто принимают решения только как вероятные вероятности, а не со 100% уверенностью.

Поэтому они подходят как максимум как дополнительный инструмент для проверки фейков ИИ, но однозначно не как единственный инструмент.

Изображение скриншота на X, на котором платформа утверждает, что изображение в твите Биньямина Нетаньяху и Бена Шапиро является реальным
Когда DW спросил X, было ли это изображение «ИИ или нет», платформа заявила, что это «скорее всего, человек».

Команда DW по проверке фактов также не смогла обнаружить явных признаков манипуляций с помощью искусственного интеллекта на изображении, предположительно на трупе ребенка.

Любопытно, что «ИИ или нет» не классифицировал изображение как созданное ИИ, когда мы опробовали его самостоятельно, и указал на плохое качество изображения.

Другой детектор искусственного интеллекта (модерация Hive) также пришел к выводу, что изображение подлинное.

Мина Киркова внесла свой вклад в подготовку этого отчета, который изначально был написан на немецком языке.


2023-11-10 18:16:00


1699669932
#Фейки #искусственного #интеллекта #войне #Израиля #против #ХАМАС #10.11.2023

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.