Home » Технологические лидеры говорят, что искусственный интеллект представляет «риск исчезновения» наравне с ядерным оружием

Технологические лидеры говорят, что искусственный интеллект представляет «риск исчезновения» наравне с ядерным оружием

Сотни ученых и технических руководителей в области искусственного интеллекта подписали письмо, состоящее из одного предложения, в котором кратко предупреждается, что ИИ представляет собой экзистенциальную угрозу для человечества, что является последним примером растущего хора тревог, поднимаемых теми самыми людьми, которые создают эту технологию.

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в докладе. заявление опубликовано во вторник некоммерческим Центром безопасности ИИ.

Открытое письмо подписали более 350 исследователей и руководителей, в том числе генеральный директор OpenAI Сэм Альтман, создатель чат-бота ChatGPT, а также 38 сотрудников подразделения искусственного интеллекта Google DeepMind.

Альтман и др. были в авангарде этой области, продвигая в массы новый «генеративный» ИИ, такой как генераторы изображений и чат-боты, которые могут вести человеческую беседу, обобщать текст и писать компьютерный код. Бот OpenAI ChatGPT был первым, кто был представлен общественности в ноябре, положив начало гонке вооружений, которая привела к тому, что Microsoft и Google выпустили свои собственные версии в начале этого года.

С тех пор растущая фракция в сообществе ИИ предупреждает о потенциальных рисках сценария типа конца света, когда технология становится разумной и пытается каким-то образом уничтожить людей. Они настроены против второй группы исследователей, которые говорят, что это отвлекает от таких проблем, как врожденная предвзятость в нынешнем ИИ, потенциал для того, чтобы он занимал рабочие места, и его способность лгать.

Скептики также отмечают что компании, которые продают инструменты искусственного интеллекта, могут извлечь выгоду из широко распространенной идеи о том, что они более сильны, чем они есть на самом деле, и они могут опережать потенциальное регулирование в отношении краткосрочных рисков, если они будут рекламировать долгосрочные.

Read more:  Демократы бьют тревогу, поскольку генеральный инспектор DHS утверждает, что его не расследуют, и он является осведомителем

Дэн Хендрикс, ученый-компьютерщик, возглавляющий Центр безопасности ИИ, сказал, что письмо, состоящее из одного предложения, было разработано для того, чтобы основная идея не была потеряна.

«Нам нужно широкое признание ставок, прежде чем мы сможем провести полезные политические обсуждения», — написал Хендрикс в электронном письме. «Для рисков такого масштаба вывод заключается не в том, что эта технология чрезмерно разрекламирована, а в том, что этой проблеме в настоящее время уделяется недостаточно внимания по сравнению с фактическим уровнем угрозы».

В конце марта другое публичное письмо собрал более 1000 подписей представителей академического, делового и технологического мира, которые призвали полностью приостановить разработку новых мощных моделей ИИ до тех пор, пока не будет введено регулирование. Большинство самых влиятельных лидеров отрасли не подписали это заявление, но они подписали новое заявление, включая Альтмана и двух самых высокопоставленных руководителей Google в области искусственного интеллекта: Демиса Хассабиса и Джеймса Маньику. Его также подписали главный технический директор Microsoft Кевин Скотт и главный научный сотрудник Microsoft Эрик Хорвиц.

Примечательно, что в письме отсутствуют генеральный директор Google Сундар Пичаи и генеральный директор Microsoft Сатья Наделла, два самых влиятельных корпоративных лидера в этой области.

В апреле Пичаи сказал, что темпы технологических изменений могут быть слишком быстрыми для того, чтобы общество могло адаптироваться, но он был оптимистичен, поскольку разговоры о рисках ИИ уже происходили. Наделла сказал, что ИИ принесет огромную пользу, помогая людям работать более эффективно и позволяя людям выполнять больше технических задач с меньшей подготовкой.

Лидеры отрасли также активизируют взаимодействие с влиятельными лицами из Вашингтона. Ранее в этом месяце Альтман встретился с президентом Байденом, чтобы обсудить регулирование ИИ. Позже он дал показания на Капитолийском холме, предупредив законодателей, что ИИ может нанести значительный вред миру. Альтман обратил внимание на конкретные «рискованные» приложения, в том числе на использование их для распространения дезинформации и потенциальной помощи в более целенаправленных ударах дронов.

Read more:  Совет по планированию отказывает в разрешении на строительство терминала СПГ Шеннон стоимостью 650 миллионов евро – The Irish Times

«Эти технологии больше не фантазии научной фантастики. От увольнения миллионов рабочих до распространения дезинформации ИИ представляет широкомасштабные угрозы и риски для нашего общества», — заявил во вторник сенатор Ричард Блюменталь (штат Коннектикут). Он настаивает на регулировании ИИ от Конгресса.

Хендрикс добавил, что для решения этой проблемы может потребоваться «амбициозная глобальная координация», возможно, извлекая уроки как из ядерного нераспространения, так и из предотвращения пандемии. Хотя было предложено несколько идей по управлению ИИ, радикальных решений принято не было.

Альтман, генеральный директор OpenAI, предложил в недавнем Сообщение блога что, вероятно, потребуется международная организация, которая может инспектировать системы, проверять их соответствие стандартам безопасности и устанавливать ограничения на их использование — подобно тому, как Международное агентство по атомной энергии регулирует ядерные технологии.

Обращаясь к очевидному лицемерию бить тревогу по поводу ИИ, одновременно быстро работая над его продвижением, Альтман сказал Конгрессу, что было бы лучше донести технологию до многих людей сейчас, пока еще рано, чтобы общество могло понять и оценить свои риски, а не ожидание, пока оно не станет слишком мощным, чтобы его можно было контролировать.

Другие предполагают, что сравнение с ядерными технологиями может быть паникёрским. Бывший технический советник Белого дома Тим Ву сказал, что сравнение угрозы, исходящей от ИИ, с ядерными осадками не соответствует действительности и затуманивает дебаты об ограничении использования инструментов, отвлекая внимание от вреда, который он уже может причинить.

«Существует явный вред от ИИ, неправильное использование ИИ, которое мы уже наблюдаем, и я думаю, что мы должны что-то с этим делать, но я не думаю, что они… пока еще не продемонстрировали, что они похожи на ядерные технологии», — сказал он. Washington Post в интервью на прошлой неделе.

Read more:  Апелляционный суд оставил в силе вывод о том, что дом пары был куплен на доходы от преступной деятельности – The Irish Times

Праншу Верма и Кэт Закржевски внесли свой вклад в этот отчет.

2023-05-30 21:25:43


1685488597
#Технологические #лидеры #говорят #что #искусственный #интеллект #представляет #риск #исчезновения #наравне #ядерным #оружием

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.