Home » Гонка вооружений следующего поколения может вызвать событие «вымирания», похожее на ядерную войну, пандемию: руководитель технического отдела

Гонка вооружений следующего поколения может вызвать событие «вымирания», похожее на ядерную войну, пандемию: руководитель технического отдела

Гонка вооружений искусственного интеллекта между странами и корпорациями, чтобы выяснить, кто сможет разработать самые мощные машины ИИ, может создать экзистенциальную угрозу человечеству, сказал Fox News соучредитель некоммерческой организации по безопасности ИИ.

«ИИ может представлять риск исчезновения, и отчасти это связано с тем, что в настоящее время мы вовлечены в гонку вооружений с использованием ИИ», — сказал исполнительный директор Центра безопасности ИИ Дэн Хендрикс. «Мы создаем все более мощные технологии, и мы не знаем, как полностью их контролировать или понимать».

Сэм Альтман, генеральный директор OpenAI, подписал заявление Центра безопасности ИИ, в котором говорится, что ИИ представляет реальную угрозу для человечества. (Билл Кларк/CQ-Roll Call, Inc через Getty Images)

«Мы сделали то же самое с ядерным оружием», — продолжил он. «Мы все в одной лодке в отношении экзистенциального риска и риска исчезновения».

ГОНКА ВООРУЖЕНИЙ ИИ МОЖЕТ ПРИВЕСТИ К ИСЧЕЗНОВЕНИЮСОБЫТИЕ УРОВНЯ ДЛЯ ЧЕЛОВЕЧЕСТВА: ИИ ДИРЕКТОР ПО БЕЗОПАСНОСТИ

СМОТРЕТЬ БОЛЬШЕ ЦИФРОВЫХ ОРИГИНАЛОВ FOX NEWS ЗДЕСЬ

фирма Хендрикса опубликовал заявление Вторник предупреждает, что “[m]предотвращение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». Многие ведущие исследователи, разработчики и руководители ИИ, такие как генеральный директор OpenAI Сэм Альтман и «крестный отец ИИ», — подписал заявление Джеффри Хинтон.

Альтман недавно выступал за то, чтобы правительство регулировало ИИ в показаниях перед Конгрессом, чтобы «смягчить» риски, связанные с технологией.

«Я обеспокоен тем, что разработка ИИ является относительно неконтролируемым процессом, и ИИ в конечном итоге приобретают большее влияние в обществе, потому что они так хорошо умеют автоматизировать вещи», — сказал Fox News Хендрикс, который также подписал заявление своей организации. «Они конкурируют друг с другом, и существует экосистема агентов, которые выполняют множество операций, и мы можем потерять контроль над этим процессом».

Read more:  Трое без шлемов на скутерах в Неаполе, Боррелли: «Последний в седле, извинись»

«Это может сделать нас похожими на второсортный вид или пойти по пути неандертальцев», — продолжил он.

МИЛЛИОНЫ РАБОТНИКОВ ФАСТ-ФУДА МОГУТ ПОТЕРЯТЬ РАБОТУ В ТЕЧЕНИЕ 5 ЛЕТ. ВОТ ПОЧЕМУ

Об этом заявил генеральный директор Tesla Илон Маск. потенциальные угрозы ИИзаявив, что технология может привести к «разрушению цивилизации» или вмешательству в выборы. Маск также подписал письмо в марте выступал за приостановку крупных экспериментов с ИИ.

Илон Маск

Илон Маск предупредил, что искусственный интеллект может привести к «разрушению цивилизации». (Джастин Салливан/Getty Images)

Однако письмо не побудило крупных разработчиков ИИ, таких как OpenAI, Microsoft и Google, приостановить эксперименты.

«У нас идет гонка вооружений ИИ, которая потенциально может поставить нас на грань катастрофы, как это произошло с гонкой ядерных вооружений», — сказал Хендрикс. «Так что это означает, что нам нужна глобальная приоритизация этого вопроса».

НАЖМИТЕ ЗДЕСЬ, ЧТОБЫ ПОЛУЧИТЬ ПРИЛОЖЕНИЕ FOX NEWS

Но у организаций, которые создают самые мощные в мире системы искусственного интеллекта, нет стимулов для замедления или приостановки разработки, предупредил Хендрикс. Центр безопасности ИИ надеется, что его заявление проинформирует людей о том, что ИИ представляет собой реальную и серьезную опасность.

«Теперь, надеюсь, мы сможем начать разговор, чтобы его можно было решить, как и другие глобальные приоритеты, такие как международные соглашения или регулирование», — сказал Хендрикс Fox News. «Мы должны рассматривать это как более высокий приоритет, социальный приоритет и технический приоритет, чтобы снизить эти риски».

Чтобы посмотреть полное интервью с Хендрикс, кликните сюда.

2023-05-31 06:03:54


1685544540
#Гонка #вооружений #следующего #поколения #может #вызвать #событие #вымирания #похожее #на #ядерную #войну #пандемию #руководитель #технического #отдела

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.