Home » «Deepfakes»: угроза с миллионами просмотров, которая преследует женщин и бросает вызов безопасности и демократии | Технологии

«Deepfakes»: угроза с миллионами просмотров, которая преследует женщин и бросает вызов безопасности и демократии | Технологии

«Это лицо боли». Так создатель контента QTCinderella начинает видео, в котором она осуждает то, что стала жертвой распространения гиперреалистичной порнографической последовательности, созданной с помощью искусственного интеллекта. Изображения, на которые она ссылается, являются ложными, причиненный ущерб — нет. Популярный 29-летний интернет-деятель присоединяется к длинному списку людей, затронутых этим типом творчества, известным как дипфейки. Приложения искусственного интеллекта упрощают их производство и затрудняют выявление их ложности, а их регулирование и контроль отстают от развития этих технологий. Количество такого контента в Интернете удваивается каждые шесть месяцев и составляет более 134 миллионов просмотров. Более 90% случаев — порнография без согласия. Исследование, проведенное Северо-Западным университетом и Институтом Брукингса (оба в США), предупреждает о его потенциальной опасности для безопасности. Другие исследования предупреждают об опасности вмешательства и манипулирования демократическими политическими процессами.

Соня Веласкес, студентка университета из Севильи, интересовалась, как работает видео. дипфейки и она попросила своего парня, студента факультета графического дизайна, показать ей доказательство, и он согласился сделать это со своим изображением. «Это началось как игра, но это не так. Я увидел себя уязвимым. Я знал, что это был не я, но я представлял, как все мои друзья делятся этим видео, шутят и бог знает что еще. Я чувствовала себя грязной, и хотя мы сразу же удалили его, я не могу перестать думать о том, насколько это может быть легко и какой ущерб это может нанести», — рассказывает она.

«Видеть себя голым против своей воли и распространяться в Интернете — все равно, что чувствовать себя оскорбленным. В мою работу не должно входить платить деньги за то, чтобы убрать эти вещи, подвергаться преследованиям. Меня утомляет постоянная эксплуатация и объективация женщин», — говорит QTCinderella после трансляции видео. дипфейк жертвой которого он стал. До нее такой же атаке подверглась британская художница Хелен Морт с фотографиями, взятыми из ее социальных сетей. «Она заставляет вас чувствовать себя бессильным, как будто вас наказывают за то, что вы женщина с публичным голосом», — говорит она. «Целью этого может стать любой человек из любого общества, и кажется, что людям все равно», — сокрушается другая жертва гиперреалистичных видео, которая просит не называть ее имени, чтобы избежать поиска в сети, хотя она считает, что ей это удалось. удалить все следы.

Обманы так же стары, как человечество. Поддельные фотографии тоже не новы, они получили широкое распространение в конце прошлого века благодаря простым и популярным инструментам редактирования неподвижных изображений. Видео манипуляции новее. Первая публичная жалоба поступила в конце 2017 года против пользователя Reddit, который использовал его для раздевания знаменитостей. С тех пор она не переставала расти и перешла к созданию гиперреалистичного звука.

Read more:  Робот Tesla медленно выходит на сцену AI Day

«технологии дипфейк представляют собой серьезные этические проблемы. Они быстро развиваются и с каждым днем ​​становятся все дешевле и доступнее. Возможность создавать реалистично выглядящие и звучащие видео- или аудиофайлы людей, делающих или говорящих то, чего они не делали и не говорили, открывает беспрецедентные возможности для обмана. Политика, граждане, учреждения и компании больше не могут игнорировать построение набора строгих правил, ограничивающих их», — резюмирует Лоренцо Дами, профессор Университета Флоренции и автор исследования, опубликованного в Ворота исследований.

порнография без согласия

Поддельные гиперреалистичные видеоролики в основном затрагивают женщин. По данным Sensity AI, исследовательской компании, которая отслеживает поддельные гиперреалистичные видеоролики в Интернете, от 90% до 95% из них являются порнографией без согласия, и девять из 10 из них относятся к женщинам. «Это проблема сексистского насилия», — сказал Массачусетскому технологическому институту (MIT) Адам Додж, основатель EndTAB, некоммерческой организации по обучению использованию технологий.

Европейский институт гендерного равенства тоже так считает и включает эти творения в свой отчет о кибернасилии в отношении женщин как еще одну форму сексистской агрессии.

Правила сильно отстают от технологических достижений, которые делают возможным творение. дипфейк. Регулирование искусственного интеллекта (Закон об искусственном интеллекте) Европейской комиссии все еще находится в стадии разработки, и в Испании ожидается разработка государственного агентства по надзору за искусственным интеллектом. «Технология, однажды разработанная, уже не остановить. Мы можем это регулировать, смягчать, но мы опаздываем», — предупреждает Фелипе Гомес-Паллете, президент Calidad y Cultura Democráticas.

Некоторые компании пошли дальше, чтобы избежать участия в преступных действиях. Dall-e, одно из приложений для создания цифровых изображений, предупреждает, что оно «ограничило возможность создания изображений насилия, ненависти или изображений для взрослых» и разработало технологии для «предотвращения фотореалистичных изображений лиц реальных людей, в том числе общественных деятелей». .” . То же самое можно сказать и о других популярных приложениях искусственного интеллекта для создания аудиовизуальных материалов или воспроизведения видео. Группа из 10 компаний подписала каталог рекомендаций о том, как ответственно создавать, создавать и распространять контент, созданный с помощью ИИ. Но многие другие переходят на простые мобильные приложения или свободно бродят по сети, в том числе некоторые из них были изгнаны со своих исходных серверов, например, тот, который стал популярным благодаря лозунгу «Раздень своего друга», и укрываются в других платформах с открытым исходным кодом или обмена сообщениями..

Read more:  Бдение в память о бабушке и дедушке, внук погиб в автокатастрофе - RTE.ie

Проблема сложна, потому что свобода самовыражения и творчества сочетаются с защитой частной жизни и моральной неприкосновенности. «Закон регулирует не технологию, а то, что можно сделать с этой технологией», — предупреждает Борха Адсуара, профессор университета и эксперт в области цифрового права, конфиденциальности и защиты данных. «Только когда технология может иметь только плохое применение, ее можно запретить. Но единственным ограничением свободы слова и информации является закон. Технологии нельзя запрещать, потому что они могут быть опасны. Что должно быть привлечено к ответственности, так это неправомерное использование», — добавляет он.

Кадр из видео QTCinderella, в котором создатель контента осуждает то, что стал жертвой поддельного порнографического видео.QTCinderella на Twitch.tv

Виртуальное воскрешение Лолы Флорес

В этом смысле итальянский профессор Лоренцо Дами выделяет положительные и отрицательные стороны использования этой технологии. Среди первых выделяются его использование для аудиовизуальной продукции, лучшее взаимодействие между машинами и людьми, творческое самовыражение (включая сатирическое), медицинские приложения, культура и образование. Примером может служить вирусизированное виртуальное воскрешение Лолы Флорес для рекламной кампании, проведенной с согласия ее потомков.

На другой чаше весов находятся гиперреалистичные творения для сексуального вымогательства, оскорблений, порнографической мести, запугивания, домогательств, мошенничества, дискредитации и искажения реальности, репутационного ущерба и атак экономического характера (изменение рынков), судебного (фальсификация доказательств). или против демократии и национальной безопасности.

Что касается последнего аспекта, Венкатраманан Сива Субрахманиан, профессор кибербезопасности и автор книги Дипфейки и международные конфликтыпредупреждает: «Легкость, с которой они могут быть разработаны, а также их быстрое распространение указывают на мир, в котором все государства и негосударственные субъекты будут иметь возможность использовать сверхреалистичные аудиовизуальные произведения в своих операциях по обеспечению безопасности и разведке». , предупреждает.

В этом смысле Адсуара считает, что «более опасен», чем фальшивая порнография, несмотря на ее преобладающее распространение, потенциальный ущерб демократическим системам: «Представьте, что за три дня до выборов появляется видео, где один из кандидатов говорит о варварстве, и нет времени отрицать это, а даже если и отрицать, виральность не остановить. дипфейкикак это бывает с мистификациями, дело не только в том, что они совершенны, чтобы казаться правдоподобными, но и в том, что люди хотят верить им, потому что они совпадают с их идеологическими предубеждениями, и они перераспределяют их, не противопоставляя, потому что они им нравятся и они хотят думать, что это правда”.

Регулирование

Действующее регулирование, по словам юриста, ориентируется на результат действий и умысел правонарушителя. «Если сцена никогда не существовала, потому что она фальшивая, вы не раскрываете секрет. К этому следует относиться как к случаю оскорбления или как к преступлению против нравственной целостности путем его распространения с намерением публично унизить другое лицо», — поясняет он.

Read more:  Полный список (и изображения) всех 50 цветов штата

«Решение может заключаться, — добавляет Адсуара, — в применении схемы, предусмотренной в делах несовершеннолетних, а это детская псевдопорнография». «Это позволило бы преступлениям против частной жизни включать не только реальные видео, но и реалистичные с интимными изображениями, которые напоминают изображения человека».

Технологические системы идентификации также могут применяться, хотя это становится все труднее, поскольку искусственный интеллект также разрабатывает формулы, позволяющие их избежать.

Другой способ — потребовать, чтобы любой тип гиперреалистичного контента был четко идентифицирован как таковой. «Это есть в законопроекте о цифровых правах, но регулирование искусственного интеллекта еще не утверждено», — объясняет юрист.

В Испании этот тип идентификации распространен в случаях подделки порнографии, чтобы избежать юридических проблем. «Но этим женщинам, — предупреждает Адсуара, — приходится мириться с тем, что их образ сливается с порнографическим контекстом, а это противоречит их праву на собственное изображение: даже если оно ненастоящее, оно реалистично».

Несмотря на очевидный ущерб от этих видео, жалоб в Испании немного по сравнению с жалобами, зарегистрированными в Соединенных Штатах, Великобритании или Южной Корее, хотя распространение этих видео пропорционально одинаково. Испанский эксперт в области цифрового права считает, что ему придается меньшее значение, поскольку его ложность очевидна, а также потому, что жалоба иногда служит только в качестве оратора для преступника, который ищет именно это. «Кроме того, — сокрушается он, — это общество настолько больно, что мы не воспринимаем его как плохое и вместо того, чтобы защищать жертву, их унижают».

Хосеп Колл, директор RepScan, компании, занимающейся устранением вредоносной информации в Интернете, также подтверждает малочисленность жалоб со стороны общественных деятелей, пострадавших от фальшивых видео. Однако он указывает, что они имеют дело со многими попытками вымогательства с ними. Он рассказывает о случае с бизнесменом, которому транслировали фальшивое видео, в которое были включены изображения страны, в которую он недавно ездил, чтобы посеять сомнения среди тех в его окружении, кто знал, что поездка состоялась. «И порно мести», — говорит он. «Мы получаем такие случаи каждый день». «В случаях вымогательства они ищут горячую реакцию, чтобы они заплатили за свое снятие, даже если знают, что это ложь», — добавляет он.

Вы можете написать в [email protected]следовать за СТРАНА ТЕХНОЛОГИИ в Фейсбук у Твиттер и зарегистрируйтесь здесь, чтобы получать наши информационный бюллетень.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.