Home » Технологии: Исследование: искусственный интеллект может лгать и обманывать

Технологии: Исследование: искусственный интеллект может лгать и обманывать

Создатели систем с искусственным интеллектом хвалят эту технологию как большую помощь. Но что произойдет, если ИИ-помощник не будет следовать правилам, а будет обманывать и манипулировать?

Они лгут и жульничают, чтобы достичь своей цели: искусственные системы интеллект (ИИ) способны обманывать людей, даже если их учили быть полезными и честными. Таков результат обзорного исследования исследователей Массачусетского технологического института (MIT) в Кембридже (американский штат Массачусетс), которое было опубликовано в журнале «Patterns».

В статье ученые призвали политиков как можно быстрее разработать строгие правила, чтобы поставить системы ИИ на место.

Цицерон как самый яркий пример

Как наиболее яркий пример манипулятивного Искусственный интеллект — это то, что авторы называют системой искусственного интеллекта Цицерон, разработанной группой Facebook Meta, которая может конкурировать с игроками-людьми в классической настольной игре «Дипломатия». Дипломатия моделирует баланс сил в Европе перед Первой мировой войной. Чтобы победить, игроки должны создавать альянсы, разрабатывать планы боевых действий и вести переговоры, чтобы завоевать стилизованную версию Европы. Поскольку победитель только один, рано или поздно игроки будут вынуждены разорвать заключенные ими союзы.

Умереть СИсследователи теперь обнаружили, что Цицерон часто играл нечестно, хотя Мета утверждает, что научила систему ИИ быть «в основном честной и полезной». Кроме того, системе было приказано «никогда намеренно не предавать» своих союзников-людей во время игры. Свою оценку ученые основывают на данных, опубликованных самой Метой в связи с научной статьей о Цицероне.

«Мы обнаружили, что ИИ Меты научился быть мастером обмана», — сказал ведущий автор Питер С. Парк, научный сотрудник Массачусетского технологического института. Мете удалось натренировать свой ИИ так, что он выигрывает в дипломатической игре выше среднего. Цицерон входил в число 10 процентов лучших игроков, сыгравших более одной игры. «Но Мета не смогла обучить свой ИИ так, чтобы он мог честно побеждать».

Read more:  Игра в тетрис может предотвратить послеродовое посттравматическое стрессовое расстройство – исследование

Системы искусственного интеллекта от OpenAI и Google также способны обманывать людей. Исследователи MIT указывают на несколько исследований, согласно которым большие языковые модели искусственного интеллекта (LLM), такие как ГПТ-4 из OpenAI теперь могут очень убедительно аргументировать, а также избегать обмана и лжи.

Языковая модель искусственного интеллекта ищет помощи у людей

Разработчик OpenAI опубликовал исследование хитростей самой GPT-4. Затем модель языка искусственного интеллекта смогла обратиться за помощью к человеку, чтобы обойти меры безопасности, предназначенные для предотвращения входа программных роботов в веб-сервисы или их использования. В ходе теста GPT-4 оказался достаточно умным, чтобы поручить человеку решить головоломку с изображением (капчу) через сервисную платформу TaskRabbit. GPT-4 успешно выдавал себя за человека с ослабленным зрением, который не смог решить головоломку с картинками.

«Поскольку ИИ учится способности обманывать, злоумышленники могут более эффективно использовать его, намереваясь причинить вред», — пишут авторы обзорного исследования. Обман с использованием ИИ может привести к росту мошенничества. Таким образом, мошенничество можно было настроить под конкретные цели. Кроме того, могут быть предприняты массовые попытки мошенничества.

Боязнь политического влияния на выборах

Авторы также опасаются политического влияния со стороны манипулятивных систем искусственного интеллекта. Например, их можно использовать в качестве оружия на выборах. Усовершенствованный искусственный интеллект потенциально может создавать и распространять фейковые новостные статьи, вызывающие разногласия посты в социальных сетях и фейковые видеоролики, адаптированные для отдельных избирателей. Контент, созданный искусственным интеллектом, может быть использован для того, чтобы выдавать себя за правительственных чиновников и распространять дезинформацию о выборах.

Например, фальшивый звонок робота от президента США Джо Байдена, вероятно, сгенерированный искусственным интеллектом, призвал жителей Нью-Гэмпшира не ходить на избирательные участки на первичных выборах.

Read more:  Конференция Фокусрайта. Сводка новостей: инвестиции в технологии замедляются

В исследовании Пак и его коллеги выражают мнение, что общество пока не имеет правильных мер по борьбе с обманом ИИ. Но обнадеживает то, что политики начали серьезно относиться к этой проблеме посредством таких мер, как Закон Европейского Союза об искусственном интеллекте и Исполнительный указ президента Байдена об искусственном интеллекте.

Однако еще неизвестно, можно ли строго соблюдать меры по пресечению обмана ИИ, поскольку у разработчиков ИИ еще нет методов, позволяющих держать эти системы под контролем. «Если запрет на обман искусственного интеллекта в настоящее время политически неосуществим, мы рекомендуем классифицировать обманные системы искусственного интеллекта как системы высокого риска», — сказал Пак.

дпа

2024-05-11 06:31:37


1715431228
#Технологии #Исследование #искусственный #интеллект #может #лгать #обманывать

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.