Home » Предприниматели и исследователи призывают к перерыву в разработке ИИ

Предприниматели и исследователи призывают к перерыву в разработке ИИ

ЕПолугодовой перерыв в разработке для обучения систем ИИ, которые мощнее GPT-4: именно этого требуют почти 2000 подписавшихся под открытым письмом, которое было опубликовано во вторник на сайте «Института будущего жизни». – некоммерческая организация, приверженная ответственному и малорисковому использованию преобразующих технологий. В письме говорится, что передовой искусственный интеллект может предвещать кардинальные изменения в истории жизни на Земле, и это необходимо спланировать с должным вниманием.

Сибилла Андерл

Редактор фельетона, ответственный за отдел «Природа и наука».

Особую тревогу вызывают риски пропаганды и ложной информации, потери рабочих мест и общей потери контроля. Поэтому дальнейшее развитие мощных систем ИИ должно происходить только тогда, когда становится ясно, что эти риски можно контролировать. Среди подписантов есть такие известные имена, как соучредитель Apple Стив Возняк и Илон Маск, хотя последний не обязательно отличился как предприниматель с особенно высокими моральными стандартами.

«Беспокойство, что мы не сможем идти в ногу с регулированием»

Из Германии также участвуют профессор Уте Шмидт, возглавляющая рабочую группу по когнитивным системам в Университете Отто Фридриха в Бамберге, и Силья Вёнеки, глава исследовательской группы FRIAS Responsible AI в Университете Альберта Людвига во Фрайбурге. Шмидт объяснила свое участие Немецкому научному медиа-центру (SMC) необходимостью указать на риски использования больших языковых моделей и других современных технологий искусственного интеллекта. Нужно попытаться вступить в широкий демократический дискурс, в котором активно участвуют специалисты по ИИ из исследовательских институтов и крупных технологических компаний.

С другой стороны, как профессор международного права и юридической этики, Вёнеки особо подчеркнул отсутствие подходящей правовой базы: «Меня беспокоит то, что мы не сможем идти в ногу с регулированием. Регламент ЕС по ИИ еще не вступил в силу — и он классифицирует эти системы только как системы с низким уровнем риска, поэтому почти не регулирует их». То же самое относится к Конвенции Совета Европы по правам человека об ИИ. Другого обязывающего международного договора по ИИ не существует.

Read more:  ИИ есть то, что есть ИИ — хиты и промахи Конгресса

Регламент ЕС по искусственному интеллекту, который действует уже два года, в настоящее время находится на стадии переговоров и не может быть принят до этого года. По своей сути он состоит из трехуровневой нормативно-правовой базы, основанной на оценке рисков, в которой проводится различие между системами ИИ с неприемлемым риском, системами ИИ с высоким риском и системами ИИ с низким уровнем риска. Чат-боты, такие как ChatGPT, подпадают под последнюю категорию. Даже если регламент действительно вступит в силу не раньше, чем через два года, никаких изменений для технологий, критикуемых в открытом письме, не произойдет. Vöneky критикует эту неуклюжесть: регулирование до сих пор считалось слишком «статичным» и не может «достаточно быстро реагировать на новые ситуации риска, вызванные новыми техническими разработками».

Временная приостановка исследований могла бы, по крайней мере теоретически, дать политикам и судебным органам возможность наверстать упущенное. «Преимущество моратория в том, что нормативные акты могут приниматься заблаговременно до того, как исследования продвинутся дальше», — сказал SMC Тило Хагендорф, руководитель исследовательской группы в Штутгартском университете. В то же время, однако, он критически относится к заявлению: «В конечном итоге мораторий служит именно тем учреждениям, деятельность которых фактически подлежит проблематизации. Он предполагает совершенно преувеличенные возможности систем ИИ и стилизует их под более мощные инструменты, чем они есть на самом деле».

Таким образом, мораторий подпитывает недопонимание и неправильные представления об ИИ и, таким образом, имеет тенденцию отвлекать от реальных проблем или даже усугублять их. В конце концов, преувеличенные ожидания и слишком большое доверие к новым мощным языковым моделям являются факторами, которые еще больше способствуют оплакиваемой потере контроля и риску раскрытия интимной информации или недостаточной проверки предоставленной информации.

В любом случае, остается совершенно неясным, как вообще можно контролировать и наказывать замораживание исследований. Это видно уже из того факта, что требование замедления более мощных систем, чем GPT-4, четко не определено: Из-за отсутствия прозрачности относительно технических деталей и возможностей этой языковой модели со стороны OpenAI было бы трудно решить какие модели затронуты. Более того, остановка разработки также таит в себе риски. Тило Хагендорф иллюстрирует это различными сценариями: «Если запрос к языковой модели может дать лучшие ответы, чем люди-эксперты, то это делает все знание более продуктивным. В крайних случаях это может даже спасти жизнь. Например, языковые модели в медицине — это прекрасная возможность спасти больше жизней или уменьшить страдания».

Между тем Италия уже создала факты. Итальянский орган по защите данных воспринял предполагаемые нарушения правил защиты данных и защиты молодежи как возможность попросить компанию OpenAI остановить приложение в Италии. Нелло Кристианини, профессор искусственного интеллекта в Университете Бата, истолковал это британскому SMC как подтверждение того, что в открытом письме сделан правильный вывод: «Неясно, как эти решения будут выполняться. Но сам факт того, что существует несоответствие между технологической реальностью и правовой базой в Европе, предполагает, что в письме, подписанном различными предпринимателями и исследователями ИИ два дня назад, может быть доля правды».

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.