В Сенат внесен новый законопроект, направленный на отслеживание проблем безопасности путем создания базы данных, регистрирующей все нарушения систем искусственного интеллекта.
Закон о безопасности искусственного интеллекта, представленный сенаторами Марком Уорнером (демократ от штата Вирджиния) и Томом Тиллисом (республиканец от Северной Каролины), создаст Центр безопасности искусственного интеллекта в Агентстве национальной безопасности. Этот центр будет проводить исследования того, что в законопроекте названо «контр-ИИ», или методов, позволяющих научиться манипулировать системами ИИ. Этот центр также будет разрабатывать рекомендации по предотвращению мер по борьбе с ИИ.
Законопроект также потребует от Национального института стандартов и технологий (NIST) и Агентства кибербезопасности и безопасности инфраструктуры создать базу данных нарушений ИИ, включая «почти промахи».
Предложенный Уорнером и Тиллисом законопроект фокусируется на методах противодействия ИИ и классифицирует их как отравление данных, атаки с целью уклонения, атаки на основе конфиденциальности и атаки со злоупотреблением. Под «отравлением данных» подразумевается метод, при котором код вставляется в данные, очищенные моделью ИИ, искажая выходные данные модели. Оно возникло как популярный метод предотвращения генераторов изображений ИИ от копирования произведений искусства в Интернете. Атаки уклонения изменяют данные, изучаемые моделями ИИ, до такой степени, что модель запутывается.
Безопасность ИИ была одним из ключевых вопросов в Указ администрации Байдена об искусственном интеллекте, который поручил NIST установить руководящие принципы «красной команды» и потребовал от разработчиков ИИ представлять отчеты о безопасности. Красная команда — это когда разработчики намеренно пытаются заставить модели ИИ реагировать на запросы, которые им не положены.
В идеале разработчики мощных моделей искусственного интеллекта проверяют платформы на безопасность и заставляют их пройти тщательную проверку перед публикацией. Некоторые компании, такие как Microsoft, создали инструменты, которые помогут добавить ограждения безопасности к проектам ИИ проще.
Закон о безопасности искусственного интеллекта должен будет пройти через комитет, прежде чем его сможет рассмотреть более крупный Сенат.
2024-05-01 19:30:40
1714594106
#Законопроект #безопасности #ИИ #направлен #на #предотвращение #нарушений #безопасности #моделей #ИИ