Home » Будут ли встречи Байдена с компаниями, занимающимися искусственным интеллектом, иметь значение?

Будут ли встречи Байдена с компаниями, занимающимися искусственным интеллектом, иметь значение?

В пятницу администрация Байдена объявила, что семь ведущих американских компаний, занимающихся искусственным интеллектом, согласились установить некоторые добровольные ограждения вокруг своих продуктов. Google, Microsoft, Meta, Amazon, OpenAI, Anthropic и Inflection обязались убедиться, что их продукты соответствуют требованиям безопасности, прежде чем выпускать их для широкой публики; что они будут привлекать внешних экспертов для тестирования своих систем и сообщать о любых уязвимостях; и что они разработают технические механизмы, чтобы пользователи знали, когда они просматривают контент, созданный ИИ, вероятно, через какую-то систему водяных знаков. Они также заявили, что привержены расследованию и снижению социальных рисков, связанных с системами ИИ, включая «вредные» алгоритмические предубеждения и нарушения конфиденциальности. Есть три способа приветствовать это объявление: надеждой на то, что оно может защитить людей от самых опасных аспектов ИИ, скептицизмом в отношении того, что так оно и будет, или цинизмом в отношении того, что это уловка крупных технологий, направленная на то, чтобы избежать государственного регулирования с реальными последствиями.

Сделка стала последней попыткой Белого дома использовать имеющиеся у него ограниченные возможности для обуздания ИИ. За последние десять месяцев администрация выпустила проект Билля о правах ИИ, Исполнительный указ об искоренении предвзятости в технологиях, включая искусственный интеллект, и обновленный Национальный стратегический план исследований и разработок в области искусственного интеллекта. За это время OpenAI выпустил ЧатGPT, революционный чат-бот, способный с поразительной беглостью отвечать на вопросы и писать код; Google выпустил Bard, собственного впечатляющего чат-бота; Microsoft добавила ChatGPT в свою поисковую систему. Бинг, и интегрирует его в ряд своих популярных продуктов; Мета, владелец Facebook, представила большую языковую модель под названием LLaMA; и OpenAI, и стартап Stability AI представили платформы, которые могут генерировать изображения из текстовых подсказок.

Быстро развивающиеся навыки и возможности ИИ породили коллективное глобальное беспокойство по поводу того, что может произойти дальше: ИИ, который заменит нас на работе, ИИ, который будет умнее и более интеллектуально гибок, чем мы; бесчувственный ИИ, уничтожающий человеческую цивилизацию. Сэм Альтмангенеральный директор OpenAI, предупредил Конгресс«Если эта технология пойдет не так, она может пойти совсем не так», и призвала законодателей регулировать это.

Они, кажется, стараются. В январе конгрессмен Тед Лью, демократ из Калифорнии со степенью в области компьютерных наук, ввел необязательную меру, призывающую членов Палаты представителей регулировать ИИ, который он создал с помощью ChatGPT. Только в июне члены Конгресса представили три законопроекта, касающиеся различных аспектов ИИ, и все они получили поддержку обеих партий. Один потребует США должны информировать пользователей, когда они взаимодействуют с искусственным интеллектом в правительственных коммуникациях, и установить процесс апелляции для оспаривания решений, опосредованных ИИ, в то время как другой предлагает привлечь компании социальных сетей к ответственности за распространение вредоносных материалов, созданных искусственным интеллектом, отказывая им в защите в соответствии с разделом 230, частью Закона о приличии в коммуникациях, который освобождает технические платформы от ответственности за то, что они публикуют. Лью присоединился к коллегам по обеим сторонам прохода, чтобы предложить создание двадцати человекдвухпартийная комиссия по рассмотрению, рекомендации и установлению правил для ИИ

Read more:  Насколько важна удача и разрешено ли вам соревноваться за кого-то другого? На все вопросы о зрелищном бильярдном Qmusic ответили - последние новости

Пока эти предложения проходят через законодательный процесс, лидер большинства в Сенате Чак Шумер занял более осторожную позицию. В недавнем выступлении в Центре стратегических и международных исследований он изложил план, который позволит законодателям быть в курсе новых технологий путем созыва как минимум девяти групп экспертов, которые проведут для них ускоренный курс по ИИ и помогут разработать обоснованное законодательство. (Можно предположить, что он отчасти стремится избежать постыдного невежества. на экране за те годы, когда члены Конгресса обсуждали регулирование социальных сетей.) Однако сомнительно, что добрые намерения Шумера принесут существенные результаты до следующих выборов.

Тем временем ЕС движется с большей оперативностью. В мае всеобъемлющий закон об искусственном интеллекте Европейского парламента вышел из-под контроля, и весь парламент проголосовал за внесение своей версии законопроекта в Совет Европейского союза, который определит его окончательные детали. Если все пойдет по плану, то к концу года он будет принят. Среди его положений — запрет на использование распознавания лиц и требование к создателям чат-ботов раскрывать защищенный авторским правом материал, используемый для обучения их моделей. (Это стало предметом разногласий в Соединенных Штатах; недавно комик присоединилась Сара Сильверман истцы в коллективном иске, обвиняющем OpenAI и Meta в нарушении авторских прав путем использования их письменной работы без разрешения.) В самых общих чертах закон запрещает использование искусственных технологий, которые представляют «неприемлемый уровень риска для безопасности людей». Если он будет принят, он станет первой в мире всеобъемлющей правовой базой для ИИ.

Поскольку в этой стране не было ничего подобного, казалось вероятным, что американские технологические компании будут продолжать продвигать свою продукцию, несмотря ни на что. Вот почему новость прошлой пятницы была важной. Здесь были Google, Microsoft, Meta, Amazon, OpenAI, Anthropic и Inflection, которые, казалось, признавали, что они, возможно, не смогут самостоятельно контролировать свои платформы ИИ. В сообщении в блоге опубликованный в день объявления, Брэд Смит, президент Microsoft, резюмировал цель соглашения в трех словах: «безопасный, надежный, заслуживающий доверия».

Но есть парадокс: все подписавшие стороны уже выпустили системы генеративного ИИ, поэтому трудно представить, как они планируют защитить общественность от опасностей, которые они уже представляют, таких как написание вредоносного кода или распространение вредоносной дезинформации; в соглашении не упоминается об удалении этих продуктов с рынка до тех пор, пока они не будут проверены экспертами. (Также неясно, кто будут эти эксперты, как они будут выбраны, будут ли одним и тем же экспертам поручено исследовать все системы и по каким параметрам они будут определять риск.) Всего за несколько дней до объявления Белого дома Meta выпустила версию своей большой языковой модели LLaMA2 с открытым исходным кодом. Компания заявила, что она доступна бесплатно для исследований и коммерческого использования, а это означает, что, как только она появится в дикой природе, Meta не сможет контролировать, кто имеет к ней доступ. По словам дамы Венди ХоллRegius профессор компьютерных наук Университета Саутгемптона, выступая по британскому телевидению, ИИ с открытым исходным кодом «немного напоминает предоставление людям шаблона для создания ядерной бомбы».

Read more:  Была ли мультимодальная дородовая помощь в офисе/телемедицина, реализованная во время пандемии, аналогично дородовой помощи в офисе?

Обязательство компаний ставить водяные знаки на материалы, созданные их продуктами ИИ, является долгожданным и необходимым условием безопасности. Как сказала мне Энн Нойбергер, заместитель советника по национальной безопасности по кибербезопасности и новым технологиям, это «снизит опасность мошенничества и обмана по мере распространения информации, поскольку теперь появятся способы отследить сгенерированный контент до его источника». Но это не просто. По словам Сэма Грегори, исполнительного директора некоммерческой организации Witness, которая использует технологии для защиты прав человека, «часть проблемы заключается в том, что нет общего определения водяных знаков», и многие водяные знаки «в целом можно легко удалить». (Их также можно подделать или манипулировать.) Грегори упомянул о более информативном подходе, предложенном Microsoft, который позволит создать подробный след метаданных, отражающий историю данного изображения. Однако он утверждал, что раскрытие информации не должно раскрывать людей, которые используют инструменты ИИ. «Обязательство или подталкивание людей подтверждать происхождение СМИ кажется многообещающим, пока вы не поместите этот подход в глобальный контекст рисков для конфиденциальности, инакомыслящих и авторитарных законов, направленных против свободы слова».

Возможно, самая спорная часть заключенного при посредничестве соглашения заключается в том, что компании, по большей части, договорились. нет поделиться: параметры, известные как «веса» их алгоритмов. Они определяют, как модель сортирует исходный материал и генерирует ответы на запросы. Некоторые утверждают, что секретность в этой области — это хорошо: Нойбергер сказал мне, что «несмотря на открытый исходный код», сокрытие весов моделей от всеобщего обозрения затруднит злоумышленникам «красть самые современные модели и настраивать их, чтобы они лучше генерировали вредоносное ПО или другие подходы на основе ИИ к новым кибератакам». Но Кит Уолш, старший юрист Electronic Frontier Foundation, отметил, что сокрытие ключевой информации о том, как построены модели, подрывает прозрачность и может скрыть источники предвзятости. «Сохранение в секрете деталей технологий искусственного интеллекта, вероятно, помешает добросовестным исследователям, пытающимся защитить общественные интересы, а также конкуренцию и открытую науку», — написала она в электронном письме. «Это особенно верно, поскольку ИИ используется для принятия решений о жилье, трудоустройстве, доступе к медицине, уголовном наказании и множестве других приложений, где необходима общественная подотчетность».

Read more:  SunCable переманивает руководителей солнечной и газовой промышленности, чтобы возглавить проект возобновляемой энергетики с базовой нагрузкой

Соблюдение соглашения является добровольным, и не существует принудительного механизма для привлечения этих семи или любых других компаний к ответственности. Это может представлять собой небольшой шаг на пути к последовательному государственному регулированию, который, вероятно, окажется долгим и извилистым. Это также может быть способом для Big Tech написать свои собственные правила. В мае Альтман раскритиковал предложенные ЕС правила ИИ перед британской аудиторией. Он предупредил, что если они будут слишком строгими, есть шанс, что компания прекратит работу в Европе. Его слова были проблеском препятствий впереди. Компания, которой не нравятся правила, может пригрозить, что упакует вещи и уйдет. И что? ♦

2023-07-24 23:05:00


1690307681
#Будут #ли #встречи #Байдена #компаниями #занимающимися #искусственным #интеллектом #иметь #значение

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.