Гонка вооружений искусственного интеллекта между странами и корпорациями, чтобы выяснить, кто сможет разработать самые мощные машины ИИ, может создать экзистенциальную угрозу человечеству, сказал Fox News соучредитель некоммерческой организации по безопасности ИИ.
«ИИ может представлять риск исчезновения, и отчасти это связано с тем, что в настоящее время мы вовлечены в гонку вооружений с использованием ИИ», — сказал исполнительный директор Центра безопасности ИИ Дэн Хендрикс. «Мы создаем все более мощные технологии, и мы не знаем, как полностью их контролировать или понимать».
«Мы сделали то же самое с ядерным оружием», — продолжил он. «Мы все в одной лодке в отношении экзистенциального риска и риска исчезновения».
ГОНКА ВООРУЖЕНИЙ ИИ МОЖЕТ ПРИВЕСТИ К ИСЧЕЗНОВЕНИЮ–СОБЫТИЕ УРОВНЯ ДЛЯ ЧЕЛОВЕЧЕСТВА: ИИ ДИРЕКТОР ПО БЕЗОПАСНОСТИ
СМОТРЕТЬ БОЛЬШЕ ЦИФРОВЫХ ОРИГИНАЛОВ FOX NEWS ЗДЕСЬ
фирма Хендрикса опубликовал заявление Вторник предупреждает, что “[m]предотвращение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». Многие ведущие исследователи, разработчики и руководители ИИ, такие как генеральный директор OpenAI Сэм Альтман и «крестный отец ИИ», — подписал заявление Джеффри Хинтон.
Альтман недавно выступал за то, чтобы правительство регулировало ИИ в показаниях перед Конгрессом, чтобы «смягчить» риски, связанные с технологией.
«Я обеспокоен тем, что разработка ИИ является относительно неконтролируемым процессом, и ИИ в конечном итоге приобретают большее влияние в обществе, потому что они так хорошо умеют автоматизировать вещи», — сказал Fox News Хендрикс, который также подписал заявление своей организации. «Они конкурируют друг с другом, и существует экосистема агентов, которые выполняют множество операций, и мы можем потерять контроль над этим процессом».
«Это может сделать нас похожими на второсортный вид или пойти по пути неандертальцев», — продолжил он.
МИЛЛИОНЫ РАБОТНИКОВ ФАСТ-ФУДА МОГУТ ПОТЕРЯТЬ РАБОТУ В ТЕЧЕНИЕ 5 ЛЕТ. ВОТ ПОЧЕМУ
Об этом заявил генеральный директор Tesla Илон Маск. потенциальные угрозы ИИзаявив, что технология может привести к «разрушению цивилизации» или вмешательству в выборы. Маск также подписал письмо в марте выступал за приостановку крупных экспериментов с ИИ.
Однако письмо не побудило крупных разработчиков ИИ, таких как OpenAI, Microsoft и Google, приостановить эксперименты.
«У нас идет гонка вооружений ИИ, которая потенциально может поставить нас на грань катастрофы, как это произошло с гонкой ядерных вооружений», — сказал Хендрикс. «Так что это означает, что нам нужна глобальная приоритизация этого вопроса».
НАЖМИТЕ ЗДЕСЬ, ЧТОБЫ ПОЛУЧИТЬ ПРИЛОЖЕНИЕ FOX NEWS
Но у организаций, которые создают самые мощные в мире системы искусственного интеллекта, нет стимулов для замедления или приостановки разработки, предупредил Хендрикс. Центр безопасности ИИ надеется, что его заявление проинформирует людей о том, что ИИ представляет собой реальную и серьезную опасность.
«Теперь, надеюсь, мы сможем начать разговор, чтобы его можно было решить, как и другие глобальные приоритеты, такие как международные соглашения или регулирование», — сказал Хендрикс Fox News. «Мы должны рассматривать это как более высокий приоритет, социальный приоритет и технический приоритет, чтобы снизить эти риски».
Чтобы посмотреть полное интервью с Хендрикс, кликните сюда.
2023-05-31 06:03:54
1685544540
#Гонка #вооружений #следующего #поколения #может #вызвать #событие #вымирания #похожее #на #ядерную #войну #пандемию #руководитель #технического #отдела