Home » Исследование искусственного интеллекта преувеличивает апокалиптические риски

Исследование искусственного интеллекта преувеличивает апокалиптические риски

Заголовки в начале января не стеснялись слов, и все они были вариациями на одну тему: исследователи полагают, что существует 5-процентная вероятность того, что искусственный интеллект сможет уничтожить человечество.

Это был отрезвляющий вывод статья размещена на сервере препринтов arXiv.org. В нем авторы сообщили о результатах опроса 2778 исследователей, которые представили и опубликовали свои работы на громких исследовательских конференциях и журналах в области ИИ — крупнейшего на сегодняшний день такого опроса в некогда малоизвестной области, которая внезапно обнаружила, что занимается ключевыми вопросами. будущего человечества. «Людям интересно, что думают об этих вещах исследователи ИИ», — говорит Катя Грейс, соавтор статьи и ведущий исследователь в Влияние ИИ, организация который проводил опрос. «Они играют важную роль в обсуждении того, что происходит с ИИ».

Но некоторые исследователи ИИ говорят, что они обеспокоены тем, что результаты опроса были смещены в сторону паникёрской точки зрения. AI Impacts частично финансируется несколькими организациями, такими как Open Philanthropy, которые продвигают эффективный альтруизм — новое философское движение, популярное в Кремниевой долине и известное своим мрачным взглядом на будущее взаимодействие ИИ с человечеством. Эти связи с финансированием, а также формулировка вопросов в рамках опроса побудили некоторых исследователей ИИ заявить об ограничениях использования спекулятивных результатов опросов для оценки истинной угрозы ИИ.

Эффективный альтруизм, или ЭА, представлен его сторонниками как «интеллектуальный проект» направлен на использование ресурсов для максимально возможной пользы для жизни людей. Движение все больше внимания уделяет искусственному интеллекту как одной из экзистенциальных угроз человечеству, наравне с ядерное оружие. Но критики говорят, что эта озабоченность спекулятивными сценариями будущего отвлекает общество от обсуждения, исследования и регулирования рисков, которые ИИ уже представляет сегодня, включая те, которые связаны с дискриминацией, конфиденциальностью и трудовыми правами, а также другими насущными проблемами.

В недавнем опросе, третьем подобном опросе AI Impacts с 2016 года, исследователям было предложено оценить вероятность того, что ИИ вызовет «вымирание» человечества (или «столь же постоянное и серьезное лишение прав и возможностей» вида). Половина респондентов прогнозировали вероятность 5 процентов и более.

Read more:  Новое исследование показало, что чернобыльские волки выработали устойчивость к раку | Business Insider Japan

Но такая формулировка опросных запросов по своей сути продвигает идею о том, что ИИ представляет экзистенциальную угрозу, утверждает Томас Дж. Дитерих, бывший президент Ассоциации по развитию искусственного интеллекта (AAAI). Дитерих был одним из примерно 20 000 исследователей, которым было предложено принять участие, но после того, как он прочитал вопросы, он отказался.

«Как и в предыдущие годы, многие вопросы задаются с точки зрения ИИ-думера и экзистенциального риска», — говорит он. В частности, в некоторых вопросах опроса респондентам прямо предлагалось предположить, что в конечном итоге будет создан машинный интеллект высокого уровня, который определяется как машина, способная превзойти человека во всех возможных задачах. И это не то, что каждый исследователь ИИ считает само собой разумеющимся, отмечает Диттерих. По этим вопросам, по его словам, практически любой результат может быть использован для подтверждения тревожных выводов о потенциальном будущем ИИ.

«Мне понравились некоторые вопросы в этом опросе», — говорит Диттерих. «Но я все еще думаю, что основное внимание уделяется тому, насколько нам стоит волноваться? вместо того, чтобы проводить тщательный анализ рисков и устанавливать политику по смягчению соответствующих рисков».

В опросе приняли участие и другие, например, исследователь машинного обучения Тим ван Эрвен из Амстердамского университета, но позже пожалел об этом. «Опрос подчеркивает необоснованные предположения о вымирании человечества, не уточняя, по какому механизму» это произойдет, — говорит ван Эрвен. По его словам, в сценариях, представленных респондентам, нет ясности относительно возможностей гипотетического ИИ и того, когда они будут реализованы. «Такие расплывчатые, раздутые представления опасны, потому что их используют в качестве дымовой завесы… чтобы отвлечь внимание от обыденных, но гораздо более насущных проблем, которые происходят прямо сейчас», — добавляет ван Эрвен.

Грейс, ведущий исследователь AI Impacts, возражает, что важно знать, считают ли большинство опрошенных исследователей ИИ, что экзистенциальный риск является проблемой. Эта информация «не обязательно должна [be obtained] исключая все остальное, но я думаю, что обязательно должен быть хотя бы один опрос», — говорит она. «Различные проблемы складываются вместе и подчеркивают необходимость быть осторожными в этих вещах».

Read more:  Айова проиграла Миннесоте после того, как сумасшедший ответный удар за TD был отозван

Тот факт, что AI Impacts получил финансирование от организации под названием «Эффективные фонды альтруизма» вместе с другими спонсорами EA, которые ранее поддерживали кампании по поводу экзистенциальных рисков ИИпобудило некоторых исследователей предположить, что на постановку вопросов об экзистенциальном риске в опросе может повлиять это движение.

Нирит Вайс-Блатт, исследователь коммуникаций и журналист, изучавший эффективные усилия альтруистов по повышению осведомленности о проблемах безопасности ИИ, говорит, что некоторым членам сообщества ИИ не нравится акцент на экзистенциальном риске, который, по их утверждениям, происходит за счет других проблем. . «В настоящее время все больше и больше людей пересматривают возможность позволить эффективному альтруизму определять повестку дня для индустрии ИИ и предстоящего регулирования ИИ», — говорит она. «Репутация EA ухудшается, и надвигается негативная реакция».

«Я думаю, что критику в том, что мы являемся экспертами, вероятно, трудно предотвратить», — говорит Грейс. «Думаю, я мог бы осудить EA или что-то в этом роде. А вот насчет предвзятости по темам, кажется, я уже написал одно из лучших произведений о контраргументах против мысли, что ИИ приведет к вымиранию человечества». Грейс отмечает, что она сама не знает всех мнений своих коллег о экзистенциальных рисках ИИ. «Я думаю, что влияние ИИ в целом, с точки зрения убеждений, более повсеместно, чем думают люди», — говорит она.

Защищая свое исследование, Грейс и ее коллеги говорят, что они усердно работали над устранением некоторых критических замечаний, высказанных в адрес исследований AI Impacts в предыдущие годы, особенно аргумента о том, что относительно небольшое количество респондентов не представляло адекватно эту область. В этом году команда AI Impacts попыталась увеличить число респондентов, охватив больше людей и расширив количество конференций, из которых она привлекла участников.

Read more:  Исследование: два случая аГУС, связанных с гибридными генами CFH-CFHR1

Но некоторые говорят, что эта сеть все еще недостаточно широка. «Я вижу, что они до сих пор не включают конференции, которые открыто обсуждают этику и ИИ, например ФАКТ [the Association for Computing Machinery (ACM) Conference on Fairness, Accountability, and Transparency] или АИС [the AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society]— говорит Маргарет Митчелл, главный специалист по этике компании Hugging Face, занимающейся искусственным интеллектом. «Это «лучшие площадки для ИИ» по вопросам ИИ и этики».

Митчелл получил приглашение присоединиться к опросу, но не сделал этого. «Обычно я просто не отвечаю на электронные письма от незнакомых мне людей, которые просят меня поработать больше», — говорит она. Она предполагает, что такая ситуация может привести к искажению результатов опроса. «Вы с большей вероятностью встретите людей, у которых нет тонны электронных писем, на которые можно ответить, или людей, которые хотят, чтобы их голоса были услышаны — то есть больше людей младшего возраста», — говорит она. «Это может повлиять на такие трудно поддающиеся количественной оценке вещи, как количество мудрости, отраженной в сделанном выборе».

Но существует также вопрос о том, дает ли опрос, в котором исследователям предлагается сделать предположения о далеком будущем, какую-либо ценную информацию о реальных рисках ИИ вообще. «Я не думаю, что большинство людей, принявших участие в этих опросах, проводят тщательный анализ рисков», — говорит Дитерих. Их также не просят подкрепить свои прогнозы. «Если мы хотим найти полезные ответы на эти вопросы, — говорит он, — нам необходимо финансировать исследования, чтобы тщательно оценить каждый риск и пользу».


2024-01-26 13:00:00


1706614986
#Исследование #искусственного #интеллекта #преувеличивает #апокалиптические #риски

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.