Home » Опасаясь «потери контроля», критики ИИ призывают к 6-месячной паузе в развитии ИИ

Опасаясь «потери контроля», критики ИИ призывают к 6-месячной паузе в развитии ИИ

Увеличить / Сгенерированное искусственным интеллектом изображение глобуса, который перестал вращаться.

Стабильная диффузия

В среду Институт будущего жизни опубликовал на своем веб-сайте открытое письмо с призывом к лабораториям ИИ «немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4». Письмо, подписанное Илоном Маском и несколькими известными исследователями ИИ, быстро привлекло внимание прессы. критика в социальных сетях.

Ранее в этом месяце OpenAI выпустила GPT-4, модель ИИ, которая может выполнять композиционные задачи и предположительно проходить стандартизированные тесты на человеческом уровне, хотя эти утверждения все еще проходят исследования. Тем не менее, возможности GPT-4 и Bing Chat по сравнению с предыдущими моделями ИИ напугали некоторых экспертов, которые считают, что мы движемся к сверхинтеллектуальным системам ИИ быстрее, чем ожидалось ранее.

В соответствии с этим Институт будущего жизни утверждает, что недавние достижения в области ИИ привели к «неконтролируемой гонке» по разработке и внедрению моделей ИИ, которые трудно предсказать или контролировать. Они считают, что отсутствие планирования и управления этими системами ИИ вызывает обеспокоенность и что мощные системы ИИ следует разрабатывать только после того, как их эффекты будут хорошо поняты и управляемы. Как пишут в письме:

Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показывают обширные исследования и признают ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных Принципах ИИ Asilomar, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами.

В частности, в письме поставлены четыре нагруженных вопроса, некоторые из которых предполагают гипотетические сценарии, вызывающие большие споры в некоторых кругах сообщества ИИ, включая потерю «всех рабочих мест» в пользу ИИ и «потерю контроля» над цивилизацией:

Read more:  Анна Аскани: «Мы хотим быть пионерами в использовании ИИ в парламенте»
  • “Должен мы позволяем машинам наводнять наши информационные каналы пропагандой и неправдой?»
  • “Должен мы автоматизируем все рабочие места, в том числе выполняющие?
  • “Должен мы развиваем нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устареть и заменить нас?»
  • “Должен мы рискуем потерять контроль над нашей цивилизацией?»

Чтобы устранить эти потенциальные угрозы, в письме содержится призыв к лабораториям ИИ «немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4». Во время паузы авторы предлагают лабораториям ИИ и независимым экспертам сотрудничать для создания общих протоколов безопасности для проектирования и разработки ИИ. Эти протоколы будут контролироваться независимыми внешними экспертами и должны гарантировать, что системы ИИ «безопасны вне всяких разумных сомнений».

Однако неясно, что на самом деле означает «более мощный, чем GPT-4» в практическом или нормативном смысле. В письме не указывается способ обеспечения соответствия путем измерения относительной мощности мультимодальной или крупноязыковой модели. Кроме того, OpenAI специально избегает публикации технических подробностей о том, как работает GPT-4.

Институт будущего жизни — некоммерческая организация, основанная в 2014 году группой ученых, обеспокоенных экзистенциальными рисками, с которыми сталкивается человечество, включая биотехнологии, ядерное оружие и изменение климата. Кроме того, гипотетический экзистенциальный риск от ИИ был в центре внимания группы. По данным Reuters, организация в основном финансируется Фондом Маска, лондонской группой эффективного альтруизма Founders Pledge и Фондом сообщества Силиконовой долины.

Известные подписавшие письмо подтвердил корреспондент Reuters включают вышеупомянутого генерального директора Tesla Илона Маска, пионеров искусственного интеллекта Йошуа Бенжио и Стюарта Рассела, соучредителя Apple Стива Возняка, генерального директора Stability AI Эмада Мостака и автора Юваль Ной Харари. Открытое письмо может подписать любой пользователь в Интернете без проверки, что изначально привело к включению некоторых ложно добавленных имен, таких как бывший генеральный директор Microsoft Билл Гейтс, генеральный директор OpenAI Сэм Альтман и вымышленный персонаж. Джон Уик. Позже эти имена были удалены.

Read more:  Бывший президент Дутерте призывает сторонников Киболоя проводить мирные митинги - Manila Bulletin

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.