Home » Закон об искусственном интеллекте — нарушение Хартии ЕС об основных правах?

Закон об искусственном интеллекте — нарушение Хартии ЕС об основных правах?

Закон об искусственном интеллекте, который теперь должен быть окончательно принят депутатами Европарламента в апреле, предусматривает некоторые конкретные правила использования систем распознавания эмоций (ERS) правоохранительными органами. Например, полицейские органы, использующие ERS, не обязаны информировать людей, когда они подвергаются воздействию этих систем.

Использование систем искусственного интеллекта, которые утверждают, что определяют эмоции на основе биометрических данных (таких как лицо и голос), запрещено только «на рабочих местах и ​​в образовательных учреждениях» (с учетом неясного исключения «безопасности»), а не в таких контекстах, как закон. правоприменение и миграция.

Научная обоснованность ERS вызывает серьезные опасения, особенно потому, что выражение эмоций значительно варьируется в зависимости от культуры и ситуации и даже внутри одного человека, что не только является неточным, но и по своей сути дискриминационным.

Научная основа систем распознавания эмоций по лицу была поставлена ​​под сомнение, поскольку их предположения приравнивались к псевдонаучным теориям, таким как френология или физиогномика.

Речь идет о таких системах, как ИБордерCtrl, где виртуальный полицейский с помощью веб-камеры сканирует ваше лицо и движения глаз на предмет признаков лжи. В конце собеседования система предоставит вам QR-код, который вы должны показать охраннику по прибытии на границу. Охранник сканирует код с помощью портативного планшетного устройства, снимает ваши отпечатки пальцев и просматривает изображение лица, снятое аватаром, чтобы проверить, соответствует ли оно вашему паспорту. На планшете охранника отображается оценка по 100-балльной шкале, сообщающая ему, сочла ли машина вас правдивым или нет.

Помимо проблемы «змеиного ИИ», есть еще кое-что:

Во-первых, навязчивый характер этих систем, безусловно, увеличит дисбаланс власти между заинтересованным лицом и государственной властью.

Во-вторых, возможная природа «черного ящика» системы ИИ: однажды она стала объектом ERS, а также «просто» для помощи в принятии решений. действия правоохранительных органов или миграционные власти становятся «непредсказуемыми»: как повлияют на мою оценку надежности любое из моих добровольных или непроизвольных микровыражений?

Read more:  Кортни Кардашьян рассказывает об образе тела и красоте - BuzzFeed

Суд ЕС ранее утверждал, что искусственный интеллект, который приводит к неблагоприятным результатам, которые невозможно отследить и оспорить, несовместим с защитой основных прав. И фундаментальные права не могут быть ограничены ИИ, который не является ни полностью понятным, ни полностью контролируемым в процессе своего обучения.

В-третьих, использование такого ИИ влечет за собой объективацию личности и системное игнорирование телесного суверенитета. Использование особенно интрузивных систем искусственного интеллекта, таких как те, которые (утверждают) определяют эмоции людей на основе их биометрических данных, влияет на фундаментальное право на неприкосновенность частной жизни, автономию и достоинство заинтересованного лица.

Достоинство

Концепция достоинства заметно проявилась в отказе Верховного суда от некоторых методов проверки в контексте миграции, которые вторгаются в личную сферу лиц, ищущих убежища. В предыдущем деле суд постановил, что «тесты» на сексуальную ориентацию, проводимые национальными властями для оценки страха преследования по признаку сексуальной ориентации, по своей природе ущемляют человеческое достоинство.

На мой взгляд, именно так и будет, и тем более, с ERS AI для оценки просителя убежища.

Несмотря на неприемлемые риски для прав и свобод человека, пострадавшего от использования этих систем, особенно со стороны государственных органов, ERS и другие «инструменты» ИИ, такие как полиграф (детектор лжи), классифицируются как ИИ высокого риска. .

Но эти системы будут иметь маркировку CE и будут пользоваться свободным перемещением на внутреннем рынке.

Оценка воздействия на фундаментальные права, которую должны провести пользователи ИИ до его развертывания, вряд ли можно считать удовлетворительным средством правовой защиты.

Read more:  Что нужно знать о реформе закона о гражданстве Германии

Во-первых, это не решит проблему «предсказуемости» (человек может в конечном итоге подпадать под действие ERS AI, а может и не подпадать под него, в зависимости от результатов оценки «в каждом конкретном случае»). Во-вторых, и это самое главное, речь идет не о «рисках». Ущерб психической неприкосновенности, нанесенный лицу, ищущему убежища, не является риском: это несомненный факт.

Право быть свободным от статистических выводов о нашем душевном состоянии — это действительно право, а не вопрос обстоятельств. Превращение прав в риски — это беспрецедентный нормативный сдвиг Закона об искусственном интеллекте, который, на мой взгляд, во многих случаях не выдерживает проверки на законность.

Подход к регулированию рисков может противоречить «праву иметь права». Ущерб достоинству, причиняемый физиогномическим ИИ, который сам по себе является несправедливым и вводящим в заблуждение, не является вопросом процедурных гарантий, таких как «человек в курсе» или «уведомление и согласие», или технических исправлений.

Если учесть, что в большинстве случаев требования по управлению рисками возложены на технические стандарты (входящие в такие области государственной политики, как фундаментальные права), то шаткая правовая основа Закона об искусственном интеллекте становится еще более очевидной.

Выступая за регулирование ИИ, которое ставит права человека выше других соображений, я сосредоточился на «датификации» человеческого тела. Дифференцированное обращение с людьми из-за выводов («биометрических категоризаций», «признанных» мыслей, склонностей, убеждений, намерений) на основе тела (лица, голоса, походки), сделанных машиной: это не просто вопрос «змеи». нефть» ИИ, это черта, которую ни одно хорошее общество не должно пересекать.

Другие аспекты Закона об искусственном интеллекте, а именно регулирование использования полицией данных в режиме реального времени и ретроспективных данных. распознавание лиц людей в общедоступных местах; «категоризация биометрических данных в правоохранительной сфере»; и превентивная полиция, основанная на профилировании, также могут быть оценены судом ЕС как не отвечающие требованиям предсказуемости, необходимости и соразмерности.

Read more:  Изменение подхода Байдена к делу об экстрадиции Ассанжа WikiLeaks

По этим причинам я надеюсь, что депутаты Европарламента не одобрит Закон об искусственном интеллекте в его нынешнем тексте. ЕС является путеводной звездой в области фундаментальных прав в сложном мире.

Нормализация произвольных «алгоритмических» вторжений в нашу внутреннюю жизнь через наш внешний вид (будь то на собеседованиях, при прогулке по улице или через чат или видеоботы на границах) представляет собой наследие пренебрежения к человеческому достоинству.

Принятие решений, основанное на наших предполагаемых эмоциях, определяемых ИИ по лицу или голосу («то, что скажет тело»), угрожает наследию наших фундаментальных прав: мечте наших родителей, которая каким-то образом стала реальностью после Второй мировой войны, и которые мы должны бережно доверить нашим детям.

Трехстороннее соглашение по Закону об искусственном интеллекте будет проголосовано парламентским комитетом по внутреннему рынку во вторник (13 февраля) и на пленарном заседании в апреле в качестве последних шагов по принятию текста.

2024-02-12 11:00:03


1707737799
#Закон #об #искусственном #интеллекте #нарушение #Хартии #ЕС #об #основных #правах

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.