Home » ИИ представляет «риск исчезновения», предупреждают лидеры отрасли

ИИ представляет «риск исчезновения», предупреждают лидеры отрасли

Группа лидеров отрасли предупредила во вторник, что технология искусственного интеллекта, которую они создают, однажды может представлять экзистенциальную угрозу человечеству и должна рассматриваться как общественный риск наравне с пандемиями и ядерными войнами.

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в заявлении, состоящем из одного предложения. выпущен некоммерческой организацией Center for AI Safety. Открытое письмо подписали более 350 руководителей, исследователей и инженеров, работающих в области ИИ.

Среди подписантов были топ-менеджеры трех ведущих компаний в области искусственного интеллекта: Сэм Альтман, исполнительный директор OpenAI; Демис Хассабис, исполнительный директор Google DeepMind; и Дарио Амодеи, исполнительный директор Anthropic.

Джеффри Хинтон и Йошуа Бенжио, двое из трех исследователей, получивших премию Тьюринга за свою новаторскую работу в области нейронных сетей и часто считающихся «крестными отцами» современного движения ИИ, подписали заявление, как и другие видные исследователи в этой области. (Третий обладатель премии Тьюринга, Янн ЛеКун, который возглавляет исследовательскую деятельность Meta в области искусственного интеллекта, не подписал контракт со вторником.)

Заявление прозвучало во время растущей обеспокоенности по поводу потенциального вреда искусственного интеллекта. Недавние достижения в так называемых больших языковых моделях — типе системы ИИ, используемой ChatGPT и другими чат-ботами, — вызвали опасения, что ИИ вскоре может широко использоваться для распространения дезинформации и пропаганды или что он может сократить миллионы рабочих мест белых воротничков. .

В конце концов, некоторые считают, что ИИ может стать достаточно мощным, чтобы вызвать социальные потрясения в течение нескольких лет, если ничего не будет сделано для его замедления, хотя исследователи иногда не могут объяснить, как это произойдет.

Read more:  Лидеры МГЗС отложили решение о членстве Папуа на Форуме

Эти опасения разделяют многие лидеры отрасли, что ставит их в необычное положение, когда они утверждают, что технология, которую они создают — и во многих случаях яростно спешат создать быстрее, чем их конкуренты, — представляет серьезные риски и должна регулироваться более жестко.

В этом месяце г-н Альтман, г-н Хассабис и г-н Амодей встретились с президентом Байденом и вице-президентом Камалой Харрис, чтобы обсудить регулирование ИИ. В показаниях Сената после встречи г-н Альтман предупредил, что риски передовых систем ИИ достаточно серьезны, чтобы оправдать вмешательство правительства, и призвал к регулированию ИИ в связи с его потенциальным вредом.

Дэн Хендрикс, исполнительный директор Центра безопасности ИИ, сказал в интервью, что открытое письмо представляет собой «открытое признание» для некоторых лидеров отрасли, которые выразили обеспокоенность — но только в частном порядке — по поводу рисков технологии, которую они используют. развивающийся.

«Даже в сообществе ИИ существует очень распространенное заблуждение, что существует лишь горстка обреченных», — сказал г-н Хендрикс. «Но на самом деле многие люди в частном порядке выражали бы озабоченность по поводу этих вещей».

Некоторые скептики утверждают, что технология искусственного интеллекта еще слишком незрела, чтобы представлять угрозу существованию. Что касается современных систем искусственного интеллекта, они больше беспокоятся о краткосрочных проблемах, таких как предвзятые и неправильные ответы, чем о долгосрочных опасностях.

Но другие утверждают, что ИИ совершенствуется так быстро, что уже превзошел человеческий уровень в некоторых областях и скоро превзойдет его в других. Они говорят, что технология продемонстрировала признаки передовых возможностей и понимания, что породило опасения, что «искусственный общий интеллект» или ОИИ, тип искусственного интеллекта, который может соответствовать или превосходить производительность на уровне человека в самых разных задачах, может не работать. быть далеким.

В своем блоге на прошлой неделе г-н Альтман и два других руководителя OpenAI предложили несколько способов ответственного управления мощными системами ИИ. Они призвали к сотрудничеству между ведущими производителями ИИ, дополнительным техническим исследованиям больших языковых моделей и созданию международной организации по безопасности ИИ, аналогичной Международному агентству по атомной энергии, которая стремится контролировать использование ядерного оружия.

Read more:  «В следующем месяце появится децентрализованный конкурент Meta для Twitter» — IT Pro — Новости

Г-н Альтман также выразил поддержку правилам, которые требуют от производителей крупных передовых моделей ИИ регистрации для получения лицензии, выдаваемой государством.

В марте более 1000 технологов и исследователей подписали еще одно открытое письмо, призывающее к шестимесячной паузе в разработке крупнейших моделей ИИ, сославшись на опасения по поводу «неконтролируемой гонки по разработке и развертыванию все более мощных цифровых умов». ”

Это письмо, организованное другой некоммерческой организацией, специализирующейся на искусственном интеллекте, Future of Life Institute, было подписано Илоном Маском и другими известными технологическими лидерами, но на нем не было подписей ведущих лабораторий искусственного интеллекта.

Краткость нового заявления Центра безопасности ИИ — всего 22 слова — призвана объединить экспертов по ИИ, которые могут не согласиться с характером конкретных рисков или шагов по предотвращению этих рисков, но которые разделяют общие опасения по поводу мощных Системы искусственного интеллекта, сказал г-н Хендрикс.

«Мы не хотели настаивать на очень большом списке из 30 возможных вмешательств, — сказал г-н Хендрикс. «Когда это происходит, это разбавляет сообщение».

Первоначально это заявление было передано нескольким высокопоставленным экспертам в области искусственного интеллекта, в том числе г-ну Хинтону, который в этом месяце уволился с работы в Google, чтобы, по его словам, более свободно говорить о потенциальном вреде искусственного интеллекта. Оттуда он попал в несколько крупных лабораторий искусственного интеллекта, где затем подписались некоторые сотрудники.

Актуальность предупреждений лидеров ИИ возросла, поскольку миллионы людей обратились к чат-ботам ИИ для развлечения, общения и повышения производительности, а базовая технология стремительно совершенствуется.

«Я думаю, что если эта технология пойдет не так, она может пойти совсем не так», — сказал г-н Альтман подкомитету Сената. «Мы хотим работать с правительством, чтобы этого не произошло».

Read more:  Хороших оценок недостаточно! Генеральный директор Crimson Education Тайвань разделяет лучшие в мире стандарты отбора талантов. Отличные внеклассные мероприятия могут помочь получить входные билеты в престижные школы. Специально подобранные разносторонние таланты для связи с будущим обществом.

2023-05-30 14:16:40


1685469726
#ИИ #представляет #риск #исчезновения #предупреждают #лидеры #отрасли

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.