Home » Законопроект о безопасности ИИ направлен на предотвращение нарушений безопасности моделей ИИ

Законопроект о безопасности ИИ направлен на предотвращение нарушений безопасности моделей ИИ

В Сенат внесен новый законопроект, направленный на отслеживание проблем безопасности путем создания базы данных, регистрирующей все нарушения систем искусственного интеллекта.

Закон о безопасности искусственного интеллекта, представленный сенаторами Марком Уорнером (демократ от штата Вирджиния) и Томом Тиллисом (республиканец от Северной Каролины), создаст Центр безопасности искусственного интеллекта в Агентстве национальной безопасности. Этот центр будет проводить исследования того, что в законопроекте названо «контр-ИИ», или методов, позволяющих научиться манипулировать системами ИИ. Этот центр также будет разрабатывать рекомендации по предотвращению мер по борьбе с ИИ.

Законопроект также потребует от Национального института стандартов и технологий (NIST) и Агентства кибербезопасности и безопасности инфраструктуры создать базу данных нарушений ИИ, включая «почти промахи».

Предложенный Уорнером и Тиллисом законопроект фокусируется на методах противодействия ИИ и классифицирует их как отравление данных, атаки с целью уклонения, атаки на основе конфиденциальности и атаки со злоупотреблением. Под «отравлением данных» подразумевается метод, при котором код вставляется в данные, очищенные моделью ИИ, искажая выходные данные модели. Оно возникло как популярный метод предотвращения генераторов изображений ИИ от копирования произведений искусства в Интернете. Атаки уклонения изменяют данные, изучаемые моделями ИИ, до такой степени, что модель запутывается.

Безопасность ИИ была одним из ключевых вопросов в Указ администрации Байдена об искусственном интеллекте, который поручил NIST установить руководящие принципы «красной команды» и потребовал от разработчиков ИИ представлять отчеты о безопасности. Красная команда — это когда разработчики намеренно пытаются заставить модели ИИ реагировать на запросы, которые им не положены.

В идеале разработчики мощных моделей искусственного интеллекта проверяют платформы на безопасность и заставляют их пройти тщательную проверку перед публикацией. Некоторые компании, такие как Microsoft, создали инструменты, которые помогут добавить ограждения безопасности к проектам ИИ проще.

Read more:  Monster Hunter Now выйдет в сентябре 2023 года

Закон о безопасности искусственного интеллекта должен будет пройти через комитет, прежде чем его сможет рассмотреть более крупный Сенат.

2024-05-01 19:30:40


1714594106
#Законопроект #безопасности #ИИ #направлен #на #предотвращение #нарушений #безопасности #моделей #ИИ

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.