До первого глобального саммита по безопасности в области искусственного интеллекта (ИИ) осталось всего две недели, и организаторы мероприятия уже начали раскрывать основные темы дискуссий для политических и технологических лидеров, которые примут участие в нем.
Двухдневный саммит по безопасности искусственного интеллекта начнется 1 ноября в Блетчли-парке в Англии. Премьер-министр Соединенного Королевства (Великобритания) Риши Сунак заявил, что его страна принимает саммит, потому что он хочет, чтобы Великобритания стала «домом регулирования безопасности ИИ».
Согласно информации о мероприятии, опубликованной в Интернете Министерством науки, инноваций и технологий Великобритании (DSIT), основное внимание на саммите будет уделено тому, «как лучше всего управлять рисками, связанными с самыми последними достижениями в области искусственного интеллекта», также известного как передовой искусственный интеллект.
Пять целей саммита по безопасности ИИ
DSIT также определил пять основных целей саммита. К ним относятся «общее понимание» передовых рисков ИИ и «необходимости действий» для их устранения, стратегия «международного сотрудничества» в области ИИ, шаги, необходимые для поддержки усилий по обеспечению безопасности, понимание того, когда страны могут сотрудничать в области безопасности ИИ. и демонстрация того, почему безопасность ИИ отвечает общим интересам.
Области риска ИИ
Организаторы мероприятия также указывают на две области риска, которые, по их словам, могут возникнуть по мере продвижения развития ИИ. По словам организаторов, одним из рисков, вызывающих обеспокоенность, является «неправильное использование» ИИ, например, когда технология используется с целью причинения «значительного вреда». Другой — это «потеря контроля», которая может произойти, если технология достигнет точки, когда участие человека больше не потребуется для продолжения развития.
Джеффри Хинтон, ученый-компьютерщик, известный многим как «Крестный отец искусственного интеллекта», выразил обеспокоенность по поводу возможности потери контроля над искусственным интеллектом во время недавнего интервью с 60 минут. По словам Хинтона, поскольку некоторые инструменты ИИ уже способны создавать компьютерный код, людям следует быть осторожными в том, как развивается эта технология, потому что «возможно», что системы ИИ может однажды «взять верх» и превосходить людей как самый разумный вид в мире.
Йоханнес Саймон / Getty Images
Хинтон и другие технологические лидеры заявили нужны ограждения чтобы помочь разработчикам обеспечить безопасное развитие передового ИИ. Несмотря на риски, которые представляет собой ИИ, эксперты говорят, что эта технология также может принести пользу людям, особенно когда речь идет о здравоохранении и разработке лекарств.
«Однако, чтобы воспользоваться этими возможностями, мы должны учитывать риски, причем не только здесь, но и в рамках глобальных усилий», — говорится в материалах DSIT по подготовке к саммиту AI Safety Summit.
вице-президент Камала Харрис ожидается, что он будет одним из примерно 100 человек, присутствовавших на саммите, по данным Рейтеркоторый также сообщил об ожидаемом посещении Google Генеральный директор DeepMind Демис Хассабис.
Newsweek связался с новым Центром безопасности искусственного интеллекта Агентства национальной безопасности через онлайн-чат. АНБ Форма подачи в среду для комментариев.
2023-10-18 23:30:51
1697673727
#Приближается #первый #глобальный #саммит #по #безопасности #ИИ #Что #будет #обсуждаться