Home » «Мы должны действовать быстро»: США надеются установить правила для искусственного интеллекта | Искусственный интеллект (ИИ)

«Мы должны действовать быстро»: США надеются установить правила для искусственного интеллекта | Искусственный интеллект (ИИ)

Правительство США делает первые предварительные шаги по установлению правил для инструментов искусственного интеллекта, поскольку безумие по поводу генеративного ИИ и чат-ботов достигает апогея.

Министерство торговли США во вторник объявило, что официально запрашивает общественное мнение о том, как создать меры подотчетности для ИИ, и ищет помощи в том, как посоветовать политикам США подходить к этой технологии.

«Точно так же, как финансовый аудит создает доверие к точности финансовой отчетности для предприятий, механизмы подотчетности для ИИ могут помочь гарантировать, что система ИИ заслуживает доверия», — сказал Алан Дэвидсон, глава Национального управления по телекоммуникациям и информации (NTIA). на пресс-конференции в Университете Питтсбурга.

Дэвидсон сказал, что NTIA ищет отзывы общественности, в том числе от исследователей, отраслевых групп и организаций, занимающихся конфиденциальностью и цифровыми правами, о разработке аудитов и оценок инструментов ИИ, созданных в частном секторе. Он также сказал, что NTIA стремится установить барьеры, которые позволили бы правительству определять, работают ли системы ИИ так, как заявляют компании, являются ли они безопасными и эффективными, имеют ли они дискриминационные результаты или «отражают неприемлемые уровни предвзятости», они распространяют или увековечивают дезинформацию, и уважают ли они частную жизнь людей.

«Мы должны двигаться быстро, потому что эти технологии искусственного интеллекта в некоторых отношениях развиваются очень быстро», — сказал Дэвидсон. «У нас была роскошь времени с некоторыми из этих других технологий… это кажется гораздо более срочным».

Администрация Байдена ранее представила «руководство» по разработке систем ИИ в виде добровольного «билля о правах», который содержит пять принципов, которые компании должны учитывать при разработке своих продуктов. К ним относятся конфиденциальность данных, защита от алгоритмической дискриминации и прозрачность в отношении того, когда и как используется автоматизированная система.

Read more:  ESPN Bet, обновленное приложение для спортивных азартных игр, заработает в Луизиане

Национальный институт стандартов и технологий также опубликовал структуру управления рисками ИИ, добровольные ограничения, которые компании могут использовать, чтобы попытаться ограничить риск причинения вреда населению.

Кроме того, по словам Дэвидсона, многие федеральные агентства изучают, как текущие правила могут быть применены к ИИ.

Он отметил, что в 2021 году законодатели США внесли более 100 законопроектов, связанных с ИИ. «Это огромная разница по сравнению с ранними днями, скажем, социальных сетей, облачных вычислений или даже Интернета, когда люди действительно не обращали на это внимания», — сказал Дэвидсон.

Тем не менее, федеральное правительство исторически медленно реагировало на быстро развивающиеся технологии национальным законодательством, особенно по сравнению с европейскими странами. Технологические компании в США, например, могут собирать и обмениваться пользовательскими данными относительно свободно от федеральных ограничений. Это позволило брокерам данных, компаниям, которые покупают и продают пользовательские данные, процветать, а потребителям стало труднее хранить свою личную информацию, которой они делятся с техническими фирмами, в недоступном для третьих лиц или правоохранительных органов.

До сих пор чат-боты и другие инструменты искусственного интеллекта разрабатывались и публично публиковались в значительной степени без каких-либо федеральных правил или нормативно-правовой базы. Это позволило быстро внедрить инструменты искусственного интеллекта, такие как ChatGPT, компаниями из разных отраслей, несмотря на опасения по поводу конфиденциальности, дезинформации и отсутствия прозрачности в отношении того, как обучались чат-боты.

пропустить предыдущую рекламную рассылку

Европейские регуляторы предложили правовую базу, которая будет классифицировать системы ИИ по степени риска: неприемлемый риск, высокий риск, ограниченный риск и минимальный риск. Принятие Закона об искусственном интеллекте 2021 года сделает ЕС мировым лидером в регулировании ИИ, но в последнее время он столкнулся с некоторым сопротивлением со стороны компаний, инвестирующих в растущую индустрию чат-ботов.

Microsoft, например, утверждает, что, поскольку чат-боты имеют более одной цели и используются для действий с низким уровнем риска, их нельзя легко классифицировать, даже несмотря на то, что они могут и выполняли действия, считающиеся «высокорисковыми», такие как распространение дезинформации.

Дэвидсон сказал, что именно поэтому правительству необходимо мнение общественности, чтобы определить, как должна выглядеть ответственная нормативно-правовая база ИИ.

«Хорошие ограждения, тщательно реализованные, могут способствовать инновациям», — сказал он. «Они позволяют людям узнать, как выглядят хорошие инновации, они обеспечивают безопасное пространство для инноваций, одновременно устраняя очень реальные опасения, которые у нас есть о вредных последствиях».

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.