Home » Канада и США подписывают международные рекомендации по безопасной разработке искусственного интеллекта

Канада и США подписывают международные рекомендации по безопасной разработке искусственного интеллекта

Восемнадцать стран, включая Канаду, США и Великобританию, сегодня согласовали рекомендуемые рекомендации для разработчиков в своих странах по безопасному проектированию, разработке, развертыванию и эксплуатации систем искусственного интеллекта.

Это последнее из серии добровольных мер, которым страны призывают свой государственный и частный сектор следовать для надзора за ИИ в отсутствие законодательства. Ранее в этом году Оттава и Вашингтон объявили об аналогичных руководящих принципах для каждой из своих стран.

Выпуск руководящих принципов происходит по мере того, как предприятия выпускают и внедряют системы искусственного интеллекта, которые могут влиять на жизнь людей, без национального законодательства.

Последний документ «Руководство по безопасной разработке систем искусственного интеллекта» предназначен в первую очередь для поставщиков систем искусственного интеллекта, которые используют модели, размещенные в организации, или используют внешние интерфейсы прикладного программирования (API).

«Мы призываем всех заинтересованных лиц (включая специалистов по данным, разработчиков, менеджеров, лиц, принимающих решения, и владельцев рисков) прочитать эти рекомендации, чтобы помочь им принимать обоснованные решения о проектировании, разработке, развертывании и эксплуатации своих систем искусственного интеллекта», — говорится в документе. введение.

Рекомендации следуют подходу «безопасность по умолчанию» и тесно связаны с практиками, определенными в руководстве по безопасной разработке и развертыванию Национального центра кибербезопасности Великобритании, в «Системе безопасной разработки программного обеспечения» Национального института стандартов и технологий США, а также в опубликованных принципах безопасности по проектированию. Агентством США по кибербезопасности и безопасности инфраструктуры и другими международными киберагентствами.

Они расставляют приоритеты
— принятие на себя ответственности за результаты безопасности для клиентов;
— обеспечение радикальной прозрачности и подотчетности;
— и построение организационной структуры и лидерства, настолько безопасных по замыслу, является главным приоритетом бизнеса.

Read more:  КАТАЛОГ промо-акции Indomaret 19-25 июня 2023 г. Сохранить закуски Есть кэшбэк, Самьянг Булдак 20 000 индонезийских рупий - Tribun Bali

Кратко

— в руководстве говорится, что для безопасного проектирования проектов ИИ руководители ИТ и корпораций должны понимать риски и моделирование угроз, а также конкретные темы и компромиссы, которые следует учитывать при проектировании систем и моделей;

— для безопасной разработки организациям рекомендуется понимать ИИ в контексте безопасности цепочки поставок, документации, а также управления активами и техническим долгом;

— для безопасного развертывания существуют рекомендации, охватывающие защиту инфраструктуры и моделей от компрометации, угроз или потерь, разработку процессов управления инцидентами и ответственный выпуск;

— для безопасной эксплуатации и обслуживания систем ИИ существуют рекомендации по таким действиям, как включение ведения журналов и мониторинга, управление обновлениями и обмен информацией.

Другими странами, поддерживающими эти рекомендации, являются Австралия, Чили, Чехия, Эстония, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Польша, Южная Корея и Сингапур.

Тем временем в Канаде Промышленный комитет Палаты общин во вторник возобновит слушания по законопроекту C-27, который включает в себя не только пересмотр существующего федерального законодательства о конфиденциальности, но и новый законопроект об искусственном интеллекте. Пока что большинство свидетелей сосредоточились на предлагаемом Законе о защите конфиденциальности потребителей (CPPA). Но некоторые свидетели говорят, что предлагаемый Закон об искусственном интеллекте и данных (AIDA) затрагивает столь много сложных вопросов, что его следует отделить от C-27. Другие утверждают, что на данный момент законопроект достаточно хорош.

Правительство до сих пор не подготовило полную формулировку поправок, которые оно готово внести в AIDA и CPPA, чтобы сделать законопроекты более ясными.

AIDA будет регулировать то, что правительство называет «системами высокого воздействия», такими как системы искусственного интеллекта, которые принимают решения по заявкам на получение кредита или по трудоустройству человека. Правительство заявляет, что AIDA ясно даст понять, что те, кто разрабатывает модель машинного обучения, предназначенную для высокоэффективного использования, должны обеспечить принятие соответствующих мер по защите данных, прежде чем она выйдет на рынок.

Read more:  Шейн «рассматривает вариант IPO в Лондоне, а не в Нью-Йорке на фоне пристального внимания США» | Розничной торговли

Кроме того, в законопроекте будет уточнено, что разработчики систем искусственного интеллекта общего назначения, таких как ChatGPT, должны будут принять меры для оценки и снижения рисков искажения результатов, прежде чем ввести систему в действие. Менеджерам систем общего назначения придется следить за любым использованием системы, которое может привести к риску причинения вреда или искажению результатов.

Тем временем Европейский Союз находится на последней стадии доработки формулировки своего Закона об искусственном интеллекте, который станет первым в мире. Согласно сообщению в новостях, в идеале это должно быть решено к февралю 2024 года. Однако существуют разногласия по поводу того, как следует регулировать базовые модели, такие как ChatGPT.

2023-11-27 19:49:21


1701118369
#Канада #США #подписывают #международные #рекомендации #по #безопасной #разработке #искусственного #интеллекта

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.