Home » Генератор видео OpenAI Sora может разрешить обнаженную натуру. Эксперты обеспокоены

Генератор видео OpenAI Sora может разрешить обнаженную натуру. Эксперты обеспокоены

Просмотр видеозаписи вашей крутой мечты или идеи может вскоре стать реальностью. Генератор ИИ OpenAI для преобразования текста в видео, Sora, будет публично выпущен «определенно в этом году», рассказала The Wall Street Journal Мира Мурати, главный технический директор компании. Новостному изданию были предоставлены примеры поколений Соры о русалке со смартфоном и быке в посудной лавке.

Как Сэм Альтман напугал членов совета директоров? | Что будет дальше с OpenAI?

Но когда ее спросили о наготе на Соре, Мурати ответила, что не уверена, будет ли это разрешено в поколениях видео, добавив, что художники могут использовать поколения обнаженной натуры в творческих целях. Мурати сказал, что OpenAI «работает с художниками и создателями из разных областей, чтобы выяснить, что именно полезно», а также «каким уровнем гибкости» должен обладать Сора.

Но, несмотря на усилия стартапов и компаний, работающих над моделями по внедрению ограничений на тип контента, который может быть сгенерирован, конфиденциальные материалы, такие как дипфейк обнаженной натуры и дипфейк порнографии, регулярно производятся крупными генеративными инструментами искусственного интеллекта. Эксперты говорят, что OpenAI и другие технологические компании, работающие над аналогичной технологией, а также правительство США, должны быть более осторожными. активно регулировать такие инструменты, как Sora, до того, как они станут широко распространены.

Вставать на ограждения

В февральском опросе избирателей США, проведенном Институтом политики искусственного интеллекта (AIPI), 77% респондентов заявили, что когда речь идет об генераторах видео с искусственным интеллектом, таких как Sora, включение ограждений и мер безопасности для предотвращения неправильного использования более важно, чем широкодоступность моделей. Более двух третей респондентов заявили, что разработчик модели ИИ должен нести юридическую ответственность за любые незаконная деятельность модели, например создание фейковых видеороликов с клеветой или порноместью.

Read more:  ВИДЕО ⟩ Израильская армия нашла заброшенное убежище лидера ХАМАС Синвара. Опубликовано видео его побега с семьей

«Это действительно указывает на то, насколько серьезно общественность относится к этой технологии», — сказал Дэниел Колсон, основатель и исполнительный директор AIPI. «Они думают, что это мощно. Они видели, как технологические компании применяют эти модели, алгоритмы и технологии, и это приводит к результатам, полностью преобразующим общество».

Но Колсон сказал, что общественность также «не верит, что технологические компании будут делать это ответственно».

«OpenAI предстоит принять сложное решение по этому поводу, — сказал он, — потому что, к лучшему или к худшему, реальность такова, что, вероятно, 90% спроса на видео, созданное ИИ, будет приходиться на порнографию, и это создает неприятную динамику, когда если централизованные компании, создающие эти модели, не предоставляют эту услугу, это создает чрезвычайно сильный стимул для серого рынка предоставлять эту услугу».

Колсон сказал, что это уже произошло с моделями изображений ИИ с открытым исходным кодом, где нет особых ограничений по содержанию или контроля.

Сора в настоящее время тестируется членами красной команды, или «эксперты в таких областях, как дезинформация, контент, разжигающий ненависть, и предвзятость», — заявил OpenAI. сказал, когда готовится сделать модель доступной. Компания также заявила, что работает над инструментами для «обнаружения вводящего в заблуждение контента», включая видео, созданные Sora. OpenAI не ответила на запрос о комментариях к этой истории.

После того, как в январе сгенерированные искусственным интеллектом порнографические изображения Тейлор Свифт заполонили социальные сети, опрос AIPI показал, что 84% респондентов поддержали закон, объявляющий незаконным дипфейковое порно без согласия. Между тем, 86% респондентов поддержали закон, требующий от компаний, разрабатывающих модели искусственного интеллекта, не допускать их использования для создания дипфейкового порно. Более 90% респондентов заявили, что, по их мнению, люди, которые используют модели искусственного интеллекта для создания дипфейкового порно, должны быть привлечены к ответственности по закону, а 87% респондентов заявили, что, по их мнению, компании, разрабатывающие модели, должны нести юридическую ответственность. В настоящее время в США нет никаких законов или постановлений по этому поводу. (В Европейском Союзе еще официально не вступил в силу недавно принятый Закон об искусственном интеллекте, который будет оценивать и регулировать риски программного обеспечения ИИ.)

Read more:  Гран-при Китая может стать драмой для Формулы-1 и замедлить победный марш Ферстаппена

« [U.S.] За последние 25 лет (с момента появления Интернета) правительство на самом деле не предприняло каких-либо заметных шагов по существенному регулированию этих организаций, и это примечательно, учитывая, в какой степени все больше и больше американского общества действительно управляются этими не-организациями. демократически избранные образования», — сказал Колсон.

Видеогенераторы, такие как Sora, также могут использоваться киберпреступниками для создания дипфейков руководителей, актеров и политиков в компрометирующих ситуациях, чтобы оказать влияние или попросить выкуп. В феврале Федеральная комиссия по связи запретила голоса, сгенерированные искусственным интеллектом, в звонках роботов после нескольких инцидентов, в том числе фальшивого звонка, который был распространен в январе, когда сгенерированный искусственным интеллектом президент Джо Байден призывал избирателей в Нью-Гэмпшире оставаться дома вместо голосования на первичных выборах в штате. выборы. А во время своей неудачной кампании по выдвижению в президенты от Республиканской партии губернатор Флориды Рон ДеСантис в июне опубликовал сгенерированное искусственным интеллектом видео, на котором бывший президент Дональд Трамп обнимает бывшего медицинского советника Белого дома доктора Энтони Фаучи, не раскрывая при этом, что это ненастоящее видео.

Но введение защитных мер, таких как проверка пользователей, маркировка контента, рейтинг риска и введение ограничений на то, как и куда можно экспортировать контент, созданный ИИ, может помочь обойти киберпреступность.

«Нам необходимо перейти от реактивной позиции к проактивной позиции», — сказал Джейсон Хогг, постоянный исполнительный директор Great Hill Partners и бывший генеральный директор компании по кибербезопасности Aon Cyber, о регулировании в США моделей искусственного интеллекта. (Great Hill Partners является инвестором материнской компании > G/O Media.)

Хогг сказал, что необходимы правила и штрафы, чтобы справиться с «цунами киберпреступности, которое приближается к нашему берегу».

Read more:  Самые опасные люди в Интернете в 2023 году

2024-03-17 09:00:00


1710666749
#Генератор #видео #OpenAI #Sora #может #разрешить #обнаженную #натуру #Эксперты #обеспокоены

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.