Home » Мнение: Указ Байдена об ИИ амбициозен и неполн.

Мнение: Указ Байдена об ИИ амбициозен и неполн.

В прошлом месяце президент Байден опубликовал указ по искусственному интеллекту, самой амбициозной попытке правительства, которую еще предстоит установить основные правила для этой технологии. Приказ направлен на установление лучших практик и стандартов для моделей искусственного интеллекта, стремясь ограничить склонность Кремниевой долины выпускать продукты до того, как они будут полностью протестированы — чтобы «двигаться быстро и ломать вещи».

Но несмотря на объем заказа — это 111 страниц и охватывает ряд вопросов, включая отраслевые стандарты и гражданские права — два вопиющих упущения могут подорвать его обещания.

Во-первых, приказ не устраняет лазейку, предусмотренную статьей 230 Закона о порядочности в сфере коммуникаций. Большая часть ужаса, связанного с ИИ, связана с возможностью глубоких фейков – убедительных мистификаций видео, аудио и изображений – и дезинформации. Приказ включает в себя положения о водяных знаках и маркировке контента ИИ, чтобы люди, по крайней мере, знали, как он был создан. Но что произойдет, если контент не будет помечен?

Большая часть контента, созданного ИИ, будет распространяться в социальных сетях, таких как Instagram и X (ранее Twitter). Потенциальный вред пугает: уже наблюдается бум глубокое фейковое обнаженное тело, в том числе девочек-подростков. Тем не менее, раздел 230 защищает платформы от ответственности за большую часть контента, размещенного третьими лицами. Если платформа не несет ответственности за распространение контента, созданного искусственным интеллектом, какой у нее стимул удалять его, с водяными знаками или без?

Возложение ответственности только на производителя ИИ-контента, а не дистрибьютора, будет неэффективно в борьбе с глубокими фейками и дезинформацией, поскольку производителя контента может быть трудно идентифицировать, он находится за пределами юрисдикции или не может заплатить, если будет признан виновным. Защищенная разделом 230, платформа может продолжать распространять вредоносный контент и даже получать за него доход, если он представлен в форме рекламы.

Read more:  Голландский центр Hyperloop стремится продвигать футуристические транспортные технологии

А двухпартийный законопроект спонсируемый сенаторами Ричардом Блюменталем (демократ от штата Коннектикут) и Джошем Хоули (республиканец от штата Миссури) пытается устранить эту лазейку в ответственности, сняв иммунитет 230 «от исков и обвинений, связанных с генеративным искусственным интеллектом». Однако предлагаемый закон, похоже, не решает вопрос о том, как распределить ответственность между компаниями, занимающимися искусственным интеллектом, которые генерируют контент, и платформами, на которых он размещается.

Второе тревожное упущение в приказе об искусственном интеллекте касается условий обслуживания — раздражающего мелкого шрифта, который заполонил Интернет и всплывает при каждой загрузке. Хотя большинство людей нажимают «Принять», не читая эти условия, суды провели что они могут быть обязательные контракты. Это еще одна лазейка для ответственности компаний, производящих продукты и услуги искусственного интеллекта: они могут в одностороннем порядке навязывать длинные и сложные односторонние условия, разрешающие незаконные или неэтичные действия, а затем заявлять, что мы дали на них согласие.

Таким образом, компании могут обойти стандарты и лучшие практики, установленные консультативными комиссиями. Рассмотрим, что произошло с Web 2.0 (взрыв пользовательского контента, в котором доминируют сайты социальных сетей). Веб-отслеживание и сбор данных были сомнительными с этической и юридической точки зрения методами, противоречащими социальным и деловым нормам. Однако Facebook, Google и другие могут защитить себя, заявив, что пользователи «согласились» на эти навязчивые действия, когда они нажали кнопку, чтобы принять условия обслуживания.

Тем временем компании выпускают для общественности продукты искусственного интеллекта, некоторые из которых не проходят надлежащего тестирования, и поощряют потребителей опробовать их продукты бесплатно. Потребители могут не осознавать, что их «бесплатное» использование помогает обучать эти модели, и поэтому их усилия по сути являются неоплачиваемым трудом. Они также могут не осознавать, что отказываются от ценных прав и берут на себя юридическую ответственность.

Read more:  Продюсеры Final Fantasy 16 пытаются вернуть доверие фанатов

Например, Условия обслуживания Open AI заявить, что услуги предоставляются «как есть», без каких-либо гарантий, и что пользователь будет «защищать, освобождать от ответственности и ограждать» Open AI от «любых претензий, убытков и расходов (включая гонорары адвокатов)», возникающих в результате использования услуг. Условия также требуют от пользователя отказаться от права на суд присяжных и коллективный иск. Какими бы плохими ни казались такие ограничения, они стандарт по всему индустрия. Некоторые компании даже претендовать на широкая лицензия к пользовательскому контенту AI.

Приказ Байдена об искусственном интеллекте во многом был аплодировали за попытку найти баланс между защитой общественных интересов и инновациями. Но для того, чтобы эти положения вступили в силу, необходимы механизмы принуждения и угроза судебных исков. Правила, которые будут установлены в соответствии с приказом, должны прямо ограничивать иммунитет по разделу 230 и включать стандарты соответствия для платформ. Они могут включать процедуры проверки и удаления контента, механизмы сообщения о проблемах как внутри компании, так и за ее пределами, а также минимальное время ответа компаний на внешние проблемы. Кроме того, компаниям не должно быть разрешено использовать условия обслуживания (или другие формы «согласия») для обхода отраслевых стандартов и правил.

Нам следует принять во внимание тяжелые уроки последних двух десятилетий, чтобы избежать повторения тех же ошибок. Саморегулирование для Большие технологии просто не работает, а широкий иммунитет корпораций, стремящихся к прибыли, создает социально вредные стимулы для роста любой ценой. В гонке за доминирование в жестко конкурентной сфере ИИ компании почти наверняка будут уделять приоритетное внимание росту и безопасности скидок. Лидеры отрасли выразили поддержку защитным мерам, тестированию и стандартизации, но для того, чтобы они соответствовали требованиям, потребуется нечто большее, чем просто добрые намерения — это потребует юридической ответственности.

Read more:  игры выходящие в декабре

Нэнси Ким — профессор права Чикагско-Кентского юридического колледжа Иллинойского технологического института.

2023-11-17 11:01:09


1700433107
#Мнение #Указ #Байдена #об #ИИ #амбициозен #неполн

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.