Home » ИИ может иметь катастрофические последствия — готова ли Канада?

ИИ может иметь катастрофические последствия — готова ли Канада?

Нациям, включая Канаду, не хватает времени для разработки и внедрения комплексных мер безопасности при разработке и внедрении передовых систем искусственного интеллекта, предупредила на этой неделе ведущая компания по безопасности искусственного интеллекта.

В худшем случае стремящиеся к власти сверхчеловеческие системы искусственного интеллекта могут выйти из-под контроля своих создателей и представлять угрозу «уровня вымирания» человечеству, пишут исследователи ИИ в докладе, подготовленном по заказу Государственного департамента США под названием Глубокая защита: план действий по повышению безопасности и защищенности передового искусственного интеллекта.

В ведомстве настаивают на взглядах, высказанных авторами в отчет не отражают точку зрения правительства США.

Но содержание доклада снова привлекает внимание к действиям канадского правительства по безопасности и регулированию искусственного интеллекта, а один член парламента от консерваторов предупреждает, что предложенный правительством Закон об искусственном интеллекте и данных уже устарел.

ИИ против всех

Отчет подготовила американская компания Gladstone AI, которая выступает за ответственную разработку безопасного искусственного интеллекта. Его предупреждения делятся на две основные категории.

Первый касается риска потери разработчиками ИИ контроля над системой общего искусственного интеллекта (AGI). Авторы определяют AGI как систему искусственного интеллекта, которая может превосходить людей во всех экономических и стратегически важных областях.

Хотя на сегодняшний день систем искусственного интеллекта не существует, многие исследователи ИИ считают, что они не за горами.

«Есть данные, позволяющие предположить, что по мере того, как продвинутый ИИ приближается к уровням человеческих и сверхчеловеческих способностей, подобных ОИИ, он может стать фактически неконтролируемым. В частности, при отсутствии контрмер высокоэффективная система ИИ может проявлять так называемое поведение, направленное на поиск власти. », — написали авторы, добавив, что такое поведение может включать стратегии, предотвращающие отключение самого ИИ или изменение его целей.

Read more:  Как Роберт Гарсия может вписаться в планы Национальных чемпионатов

Авторы предупреждают, что в худшем случае такая потеря контроля «может создать угрозу исчезновения человеческого вида».

«Существует риск того, что эти системы начнут становиться по существу опасными творческими. Они способны изобретать опасно творческие стратегии, которые достигают своих запрограммированных целей, имея при этом очень вредные побочные эффекты. Так что это своего рода риск, который мы рассматриваем с потерей контроля. », — заявил в четверг в интервью CBC генеральный директор Gladstone AI Джереми Харрис, один из авторов отчета. Власть и политика.

Искусственный интеллект может представлять угрозу для человечества на уровне вымирания, предупреждает эксперт

Новый отчет предупреждает правительство США, что если лаборатории искусственного интеллекта потеряют контроль над сверхчеловеческими системами искусственного интеллекта, это может создать угрозу исчезновения человеческого вида. Генеральный директор Gladstone AI Джереми Харрис, который был соавтором отчета, присоединился к Power & Politics, чтобы обсудить опасности быстрого развития систем искусственного интеллекта.

Вторая категория катастрофических рисков, упомянутая в докладе, — это потенциальное использование передовых систем искусственного интеллекта в качестве оружия.

«Одним из примеров является киберриск», — сказал Харрис. П&П ведущий Дэвид Кокрейн. «Мы уже видим, например, автономных агентов. Вы можете сейчас подойти к одной из этих систем и спросить: «Эй, я хочу, чтобы ты создал для меня приложение, верно?» Это потрясающая вещь. По сути, это автоматизация разработки программного обеспечения. Вся эта индустрия. Это очень хорошо.

«Но представьте себе ту же систему… вы просите ее провести массированную распределенную атаку типа «отказ в обслуживании» или какую-либо другую кибератаку. Входной барьер для некоторых из этих очень мощных приложений оптимизации падает, и разрушительное воздействие вредоносных программ Число действующих лиц, использующих эти системы, быстро увеличивается по мере того, как они становятся более могущественными».

Read more:  Селин Дион объявляет о выпуске новой музыки на этой неделе

Харрис предупредил, что неправомерное использование передовых систем искусственного интеллекта может распространиться на сферу оружия массового уничтожения, включая биологическое и химическое оружие.

В докладе предлагается ряд срочных действий, которые страны, начиная с США, должны предпринять для защиты от этих катастрофических рисков, включая экспортный контроль, регулирование и законы об ответственном развитии ИИ.

Законодательство Канады уже не существует?

В настоящее время в Канаде нет нормативной базы, специфичной для ИИ.

В ноябре 2021 года правительство представило Закон об искусственном интеллекте и данных (AIDA) в рамках законопроекта C-27. Он призван заложить основу для ответственного проектирования, разработки и внедрения систем искусственного интеллекта в Канаде.

Законопроект прошел второе чтение в Палате общин и в настоящее время изучается комитетом промышленности и технологий.

В 2023 году федеральное правительство также представило Добровольный кодекс поведения по ответственной разработке и управлению передовыми генеративными системами искусственного интеллекта — кодекс, призванный временно предоставить канадским компаниям общие стандарты до тех пор, пока AIDA не вступит в силу.

На пресс-конференции в пятницу министра промышленности Франсуа-Филиппа Шампани спросили, почему — учитывая серьезность предупреждений в докладе Гладстона об искусственном интеллекте — он по-прежнему уверен, что предложенный правительством законопроект об искусственном интеллекте способен регулировать быстро развивающиеся технологии.

«Все хвалят C-27», — сказал Шампейн. «У меня была возможность поговорить с моими коллегами из «Большой семерки», и… они видят, что Канада находится в авангарде искусственного интеллекта, вы знаете, для построения доверительного и ответственного искусственного интеллекта».

Консервативный член парламента Мишель Ремпель Гарнер говорит, что предложенный правительством законопроект об искусственном интеллекте устарел и неадекватен. На снимке Ремпель Гарнер проводит пресс-конференцию на Парламентском холме в Оттаве во вторник, 5 апреля 2022 года. (Шон Килпатрик/The Canadian Press)

В интервью CBC News депутат от консерваторов Мишель Ремпель Гарнер заявила, что характеристика Шампанским законопроекта C-27 была чепухой.

«Это не то, что говорили эксперты в своих показаниях в комитете, и это просто не реальность», — сказал Ремпел Гарнер, который сопредседатели Парламентская группа по новым технологиям и была письмо о необходимости правительства действовать быстрее в области ИИ.

Read more:  Крошечный разработчик чипов искусственного интеллекта может стать братом Arm - по слухам, Softbank заинтересован в покупке ограниченного в средствах Graphcore, целью которого, вероятно, станет его жемчужина в короне IPU

«С-27 настолько устарел».

AIDA была представлена ​​до того, как OpenAI, одна из ведущих мировых компаний в области искусственного интеллекта, представила ChatGPT в 2022 году. Чат-бот с искусственным интеллектом представлял собой ошеломляющую эволюцию технологий искусственного интеллекта.

«Тот факт, что правительство по существу не рассмотрело тот факт, что они выдвинули этот законопроект до того, как появилось фундаментальное изменение в технологии… это своего рода попытка регулировать писцов после того, как печатный станок получил широкое распространение», — сказал Ремпель. Гарнер. «Правительству, вероятно, придется вернуться к чертежной доске».

Генеральный директор OpenAI Сэм Альтман присутствует на слушаниях судебного подкомитета Сената по конфиденциальности, технологиям и законодательству по искусственному интеллекту во вторник, 16 мая 2023 года, на Капитолийском холме в Вашингтоне.
Генеральный директор OpenAI Сэм Альтман присутствует на слушаниях судебного подкомитета Сената по конфиденциальности, технологиям и законодательству по искусственному интеллекту во вторник, 16 мая 2023 года, на Капитолийском холме в Вашингтоне. (Патрик Семански/Ассошиэйтед Пресс)

В декабре 2023 года Харрис из Gladstone AI сообщил комитету по промышленности и технологиям Палаты общин, что в AIDA необходимо внести поправки.

«К тому времени, когда AIDA вступит в силу, это будет 2026 год. Передовые системы искусственного интеллекта будут масштабироваться в сотни и тысячи раз по сравнению с тем, что мы видим сегодня», — сказал Харрис членам парламента. «AIDA должна разрабатываться с учетом такого уровня риска».

Харрис сообщил комитету, что AIDA необходимо явно запретить системы, которые создают чрезвычайные риски, заняться разработкой с открытым исходным кодом опасно мощных моделей ИИ и обеспечить, чтобы разработчики ИИ несли ответственность за обеспечение безопасной разработки своих систем – среди прочего, предотвращая их воровство со стороны государственных и негосударственных субъектов.

«AIDA представляет собой улучшение по сравнению с существующим положением вещей, но требует значительных поправок, чтобы полностью решить проблему, которая, вероятно, возникнет в ближайшем будущем с возможностями искусственного интеллекта», — сказал Харрис членам парламента.

2024-03-17 08:00:00


1710754105
#ИИ #может #иметь #катастрофические #последствия #готова #ли #Канада

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.