Home » Приближается первый глобальный саммит по безопасности ИИ. Что будет обсуждаться?

Приближается первый глобальный саммит по безопасности ИИ. Что будет обсуждаться?

До первого глобального саммита по безопасности в области искусственного интеллекта (ИИ) осталось всего две недели, и организаторы мероприятия уже начали раскрывать основные темы дискуссий для политических и технологических лидеров, которые примут участие в нем.

Двухдневный саммит по безопасности искусственного интеллекта начнется 1 ноября в Блетчли-парке в Англии. Премьер-министр Соединенного Королевства (Великобритания) Риши Сунак заявил, что его страна принимает саммит, потому что он хочет, чтобы Великобритания стала «домом регулирования безопасности ИИ».

Согласно информации о мероприятии, опубликованной в Интернете Министерством науки, инноваций и технологий Великобритании (DSIT), основное внимание на саммите будет уделено тому, «как лучше всего управлять рисками, связанными с самыми последними достижениями в области искусственного интеллекта», также известного как передовой искусственный интеллект.

Пять целей саммита по безопасности ИИ

DSIT также определил пять основных целей саммита. К ним относятся «общее понимание» передовых рисков ИИ и «необходимости действий» для их устранения, стратегия «международного сотрудничества» в области ИИ, шаги, необходимые для поддержки усилий по обеспечению безопасности, понимание того, когда страны могут сотрудничать в области безопасности ИИ. и демонстрация того, почему безопасность ИИ отвечает общим интересам.

Области риска ИИ

Организаторы мероприятия также указывают на две области риска, которые, по их словам, могут возникнуть по мере продвижения развития ИИ. По словам организаторов, одним из рисков, вызывающих обеспокоенность, является «неправильное использование» ИИ, например, когда технология используется с целью причинения «значительного вреда». Другой — это «потеря контроля», которая может произойти, если технология достигнет точки, когда участие человека больше не потребуется для продолжения развития.

Джеффри Хинтон, ученый-компьютерщик, известный многим как «Крестный отец искусственного интеллекта», выразил обеспокоенность по поводу возможности потери контроля над искусственным интеллектом во время недавнего интервью с 60 минут. По словам Хинтона, поскольку некоторые инструменты ИИ уже способны создавать компьютерный код, людям следует быть осторожными в том, как развивается эта технология, потому что «возможно», что системы ИИ может однажды «взять верх» и превосходить людей как самый разумный вид в мире.

Выше люди оценивают прогресс в разработке роботов во время саммита AI For Good Summit 7 июля 2023 года в Женеве, Швейцария. Другое мероприятие, получившее название «Саммит по безопасности ИИ», станет первым глобальным собранием такого рода в Великобритании в ноябре.
Йоханнес Саймон / Getty Images

Хинтон и другие технологические лидеры заявили нужны ограждения чтобы помочь разработчикам обеспечить безопасное развитие передового ИИ. Несмотря на риски, которые представляет собой ИИ, эксперты говорят, что эта технология также может принести пользу людям, особенно когда речь идет о здравоохранении и разработке лекарств.

Read more:  Один мошенник присяжный только что торпедировал дело Трампа в Грузии?

«Однако, чтобы воспользоваться этими возможностями, мы должны учитывать риски, причем не только здесь, но и в рамках глобальных усилий», — говорится в материалах DSIT по подготовке к саммиту AI Safety Summit.

вице-президент Камала Харрис ожидается, что он будет одним из примерно 100 человек, присутствовавших на саммите, по данным Рейтеркоторый также сообщил об ожидаемом посещении Google Генеральный директор DeepMind Демис Хассабис.

Newsweek связался с новым Центром безопасности искусственного интеллекта Агентства национальной безопасности через онлайн-чат. АНБ Форма подачи в среду для комментариев.

2023-10-18 23:30:51


1697673727
#Приближается #первый #глобальный #саммит #по #безопасности #ИИ #Что #будет #обсуждаться

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.