AGI. Их называют «автономным» оружием, и это определение оставляет простор для воображения в отношении последствий, которые может иметь использование защитных и наступательных инструментов, оснащенных искусственным интеллектом. И опасения вполне обоснованы, вплоть до того, что международное сообщество соберется в Вене в понедельник на конференции с целью достижения общего регулирования систем вооружений со встроенным искусственным интеллектом (ИИ).
В течение долгого десятилетия существовала группа экспертов, направленная правительствами в соответствии с так называемой «Конвенцией о конкретных видах обычного оружия» (1980 г.), которая обсуждала, как регулировать автономное оружие, но не было достигнуто консенсуса по мандату на переговоры по обязательным международным стандартам.
Столкнувшись с растущей скоростью развития и использования искусственного интеллекта, министр иностранных дел Австрии Александр Шалленберг предупредил, что «человечество находится на перепутье».
В своей речи перед 900 делегатами из 142 стран, собравшимися в австрийской столице, министр признал, что политика и дипломатия «всегда отстают» от технологического развития.
момент Оппенгеймера
По словам Шалленберга, мир переживает «момент Оппенгеймера», имея в виду изготовление первой ядерной бомбы в 1945 году под руководством ученого Роберта Оппенгеймера и последующую попытку предотвратить бесконтрольное распространение такой технологии по всему миру.
“У нас есть небольшое окно возможностей, и мы должны его использовать. Мы не должны упустить этот шанс”, – сказал министр. «Сейчас настало время создавать международные правила и нормы», — заключил Шалленберг. В центре дебатов находится не только возможное неконтролируемое распространение этого все более сложного оружия, но и связанная с ним юридическая ответственность, например, роль людей в управлении этими системами и манипулировании ими.
На данный момент эти проблемы трудно решить из-за отсутствия консенсуса между великими державами во все более поляризованном и разделенном мире. Соединенные Штаты, где расположены крупные оружейные компании и некоторые крупные компании, занимающиеся искусственным интеллектом, обеспокоены рисками, связанными с этим оружием, но не хотят подписывать юридически обязательные соглашения, поэтому они больше делают ставку на кодексы хорошего поведения.
Другие крупные военные державы, такие как Китай, Индия и Россия, еще более неохотно осуществляют регулирование, сообщил EFE на конференции европейский дипломат. Европейские страны тем временем “зажаты между двумя позициями”, пояснил источник на условиях анонимности, имея в виду агрессию России против Украины, которая угрожает европейской безопасности.
Коста-Рика работает над международной конвенцией
Среди приглашенных на конференцию – которая не намерена принимать конкретных решений – был также министр иностранных дел Коста-Рики Арнольдо Андре Тиноко, правительство которого способствует поиску правил и норм контроля над этим оружием на региональном уровне. . «Идея состоит в том, чтобы посредством этой конференции и других региональных конференций повысить осведомленность сообщества государств о необходимости регулирования автономного оружия, чтобы прийти к разработке международной конвенции», — сказал Тиноко EFE.
“Прогресс ИИ очевиден, мы видим это в сегодняшних вооруженных конфликтах. Автономное оружие – это не изобретение будущего, оно используется сегодня. Настало время прекратить его неизбирательное применение”, – сказал министр.
Мирьяна Сполярич Эггер, президент Международного Красного Креста, заявила, что искусственный интеллект потенциально может «потерять контроль над применением насилия». С точки зрения международного гуманитарного права, это «большая задача, если не сказать проблематическая», заявил глава Международного Красного Креста, предупредив, что многие армии, особенно в более крупных странах, вкладывают значительные средства в искусственный интеллект для поддержки систем вооружения. .
По мнению Эггера, само существование международного регулирования, даже без участия нескольких крупных стран, будет иметь значительное влияние.
В конце конференции во вторник австрийское председательство на встрече планирует опубликовать краткое изложение выступлений, чтобы выделить ключевые моменты, необходимые для будущего правового инструмента, способного регулировать автономное оружие.
2024-04-30 02:08:00
1714486553
#Автономное #оружие #потому #что #нужны #общие #правила