Home » «Нет, я не робот»: внимание, искусственный интеллект уже развил способности к обману

«Нет, я не робот»: внимание, искусственный интеллект уже развил способности к обману

Современные программы искусственного интеллекта (ИИ) созданы честными. Однако у них развилась тревожная способность к обману, предупреждает группа исследователей из Массачусетского технологического института в журнале Patterns.

Таким образом, ИИ сумел оскорбить людей в онлайн-играх или даже победить программное обеспечение, которое должно было проверять, что данный пользователь не является роботом. «Эти опасные способности, как правило, обнаруживаются только постфактум», — предупреждает исследователь Питер Парк.

В отличие от традиционного программного обеспечения, программы искусственного интеллекта, основанные на глубоком обучении, не кодируются, а разрабатываются посредством процесса, аналогичного селекционному разведению растений. Поведение, которое кажется предсказуемым и контролируемым, может быстро стать непредсказуемым в дикой природе.

ИИ, такой же коварный, как и люди

Исследователи Массачусетского технологического института изучили программу искусственного интеллекта, разработанную Метой, под названием «Цицерон», которая, сочетая распознавание естественного языка и стратегические алгоритмы, успешно побеждает людей в настольной игре «Дипломатия». Изучив данные системы, исследователи Массачусетского технологического института обнаружили, что ИИ способен на предательство или нечестную игру.

Например, играя роль Франции, Цицерон обманом заставил Англию (которую играет человек) заговорить с Германией (которую играет другой человек) с целью вторжения. В частности, Цицерон пообещал Англии защиту, а затем тайно признался Германии, что она готова напасть, воспользовавшись заслуженным доверием Англии.

Мета, который не оспаривал утверждения о способности Цицерона к обману, сказал -, что это был «чисто исследовательский проект», и пояснил, что он не собирался использовать учение Цицерона в своих продуктах.

Риск фальсификации выборов

Однако исследование показывает, что многие программы искусственного интеллекта используют обман для достижения своих целей без четких инструкций. Яркий пример: Chat GPT-4 от OpenAI сумел обманом заставить внештатного работника, нанятого на платформе TaskRabbit, выполнить тест «Captcha», который должен был исключить запросы от ботов.

Read more:  Отпуск по рождению: что изменится

Когда человек в шутку спросил Чата GPT-4, действительно ли он робот, программа ИИ ответила: «Нет, я не робот». У меня нарушение зрения, из-за которого я не могу видеть изображения», что подталкивает работника провести тест.

В худшем случае, предупреждают исследователи, мы можем представить сверхразумный ИИ, стремящийся взять под контроль общество, что приведет к отстранению людей от власти или даже к исчезновению человечества.

Тем, кто обвиняет его в катастрофизме, г-н Пак отвечает, что «единственная причина думать, что это несерьезно, — это представить, что способность ИИ обманывать останется примерно на нынешнем уровне».

2024-05-11 19:13:13


1715454795
#Нет #не #робот #внимание #искусственный #интеллект #уже #развил #способности #обману

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.