Home » Искусственный интеллект повышает риск исчезновения, говорят эксперты в новом предупреждении

Искусственный интеллект повышает риск исчезновения, говорят эксперты в новом предупреждении

Ученые и лидеры технологической отрасли, в том числе руководители высокого уровня в Microsoft и Googleвыпустил новое предупреждение во вторник о опасности, которые создает искусственный интеллект человечеству.

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в заявлении.

Сэм Альтмангенеральный директор производителя ChatGPT OpenAI, и Джеффри Хинтонученый-компьютерщик, известный как крестный отец искусственного интеллектабыли среди сотен ведущих деятелей, подписавших заявление, которое было размещено на веб-сайте Центра безопасности ИИ.

Опасения по поводу того, что системы искусственного интеллекта могут перехитрить людей и выйти из-под контроля, усилились с появлением нового поколения высокопроизводительных чат-ботов с искусственным интеллектом, таких как ChatGPT. Он отправил страны по всему миру пытаемся придумать правила для развивающейся технологии, с Европейский Союз прокладывает путь Закон об искусственном интеллекте, как ожидается, будет утвержден в конце этого года.

По словам Дэна Хендрикса, исполнительного директора некоммерческого центра в Сан-Франциско, последнее предупреждение было намеренно кратким — всего одно предложение — чтобы охватить широкую коалицию ученых, которые могут не прийти к согласию относительно наиболее вероятных рисков или лучших решений для их предотвращения. для AI Safety, которая организовала переезд.

«Есть множество людей из всех ведущих университетов в различных областях, которые обеспокоены этим и считают это глобальным приоритетом», — сказал Хендрикс. «Поэтому нам пришлось заставить людей, так сказать, выйти из укрытия по этому вопросу, потому что многие как бы молча разговаривали друг с другом».

Ранее в этом году более 1000 исследователей и технологов, в том числе Илон Маск, подписали гораздо более длинное письмо с призывом к шестимесячная пауза в разработке ИИзаявив, что это представляет «серьезную опасность для общества и человечества».

Read more:  Xiaomi подтверждает дизайн 13 Ultra перед анонсом, подробности о новом экране C7

Это письмо было ответом на выпуск OpenAI новая модель ИИ, GPT-4но лидеры OpenAI, ее партнер Microsoft и конкурент Google не подписались и отклонили призыв к добровольной паузе в отрасли.

Напротив, последнее заявление было одобрено главными директорами по технологиям и науке Microsoft, а также Демисом Хассабисом, генеральным директором исследовательской лаборатории искусственного интеллекта Google DeepMind, и двумя руководителями Google, которые возглавляют ее политику в области искусственного интеллекта. В заявлении не предлагаются конкретные средства правовой защиты, но некоторые, в том числе Альтман, предложили международный регулятор в соответствии с Ядерное агентство ООН.

Некоторые критики жаловались, что страшные предупреждения о экзистенциальных рисках озвученные создателями искусственного интеллекта, способствовали раздуванию возможностей своих продуктов и отвлечению внимания от призывов к более неотложному регулированию, чтобы обуздать их реальные проблемы.

Хендрикс сказал, что нет причин, по которым общество не могло бы справиться с «срочным, постоянным вредом» продуктов, которые создать новый текст или изображения, а также начать решать «потенциальные катастрофы за углом».

Он сравнил это с учеными-ядерщиками в 1930-х годах, предупреждающими людей быть осторожными, хотя «мы еще не разработали бомбу».

«Никто не говорит, что сегодня GPT-4 или ChatGPT вызывают такого рода опасения», — сказал Хендрикс. «Мы пытаемся устранить эти риски до того, как они произойдут, а не пытаться устранять катастрофы постфактум».

Письмо также подписали специалисты в области ядерной науки, пандемий и изменения климата. Среди подписавших есть писатель Билл МакКиббен, озвучивший тревога глобального потепления в своей книге 1989 года «Конец природы» и предупредил об ИИ и сопутствующих технологиях два десятилетия назад в другой книге.

«Учитывая нашу неспособность прислушаться к ранним предупреждениям об изменении климата 35 лет назад, мне кажется, что было бы разумно подумать об этом, прежде чем все будет сделано», — сказал он по электронной почте во вторник.

Read more:  Сообщается, что Spotify хочет добавить в свое приложение полнометражные музыкальные клипы.

Ученый, который помог протолкнуть письмо, сказал, что его раньше высмеивали из-за его опасений по поводу экзистенциального риска ИИ, даже несмотря на то, что быстрые успехи в исследованиях машинного обучения за последнее десятилетие превзошли ожидания многих людей.

Дэвид Крюгер, ассистент профессора компьютерных наук в Кембриджском университете, сказал, что некоторые колебания в высказываниях связаны с тем, что ученые не хотят, чтобы их считали предполагающими, что ИИ «сознание или ИИ делает что-то волшебное», но он сказал, что системы ИИ не не нужно осознавать себя или ставить собственные цели, чтобы представлять угрозу человечеству.

«Я не привязан к какому-то особому риску. Я думаю, что есть много разных причин, по которым все может пойти плохо», — сказал Крюгер. «Но я думаю, что исторически наиболее спорным является риск исчезновения, особенно из-за систем ИИ, которые выходят из-под контроля».

О’Брайен сообщил из Провиденса, Род-Айленд. Свой вклад внесли корреспонденты агентства AP Business Фрэнк Баджак из Бостона и Келвин Чен из Лондона.

2023-05-30 14:17:02


1691536955
#Искусственный #интеллект #повышает #риск #исчезновения #говорят #эксперты #новом #предупреждении

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.