Home » Машины с этикой? Как научить компьютеры морали, переводя деонтологию в цифры | Технологии

Машины с этикой? Как научить компьютеры морали, переводя деонтологию в цифры | Технологии

В математической формуле обучения машин этическому кодексу есть три основных элемента. И это мало чем отличается от того этического коктейля, с которым имеем дело мы, люди. Действие, ценность и норма составляют эту триаду, с помощью которой исследователи устанавливают ограничения, контролирующие поведение искусственного интеллекта.

Для людей ценность эквивалентна своего рода общепринятой социальной норме: мы знаем, что ложь — это морально предосудительное действие. А нормы помогают формализовать идею ценности в правовом кодексе. «Правила запрещают, так же как курение запрещено в закрытых помещениях, но смелость также помогает вам поощрять хорошие поступки, такие как пожертвование или проявление доброты», — объясняет Майте Лопес-Санчес, исследователь искусственного интеллекта и профессор Университета Барселоны. ​который работает над системами внедрения этических принципов в системах искусственного интеллекта.

Люди усваивают эту структуру, которая служит для ограничения нашего поведения, в процессе социализации. Но в машинах все должно быть переведено в числа и математические функции. Конечная цель – обеспечить упорядоченность действий. «В конце концов, машины очень интегрированы в общество и в конечном итоге принимают решения, которые влияют на нас как людей. Было бы желательно, чтобы эти решения соответствовали тому, что мы считаем правильным, чтобы они были хорошо интегрированы в обществе», — говорит исследователь.

Лопес-Санчес переходит к самому базовому объяснению необходимости иметь этические машины: «Я могу иметь автономный автомобиль, и, если я поставлю перед ним задачу доставить меня на работу, машина поедет по наиболее эффективному или быстрому маршруту. . Нам совершенно ясно, что я хочу приступить к работе, но я не хочу никого сбивать. «Это было бы неправильно с моральной точки зрения». Но казуистика выходит далеко за рамки крайних предположений. «Для правильного вождения необходимо учитывать множество аспектов. Речь идет не только о том, чтобы не нарушать правила, но и о том, чтобы делать все хорошо, например, уступать дорогу пешеходу, соблюдать безопасную дистанцию ​​или не проявлять агрессии с помощью звукового сигнала», — добавляет исследователь.

Read more:  Компании создают собственные модели искусственного интеллекта для конкретных задач

Этика в области искусственного интеллекта также способствует обеспечению равного обращения. «Если это система принятия решений о предоставлении медицинской страховки, то мы хотим, чтобы это был беспристрастный алгоритм, который одинаково относится ко всем людям, которых он оценивает», — говорит Лопес-Санчес.

В последние годы они вышли на первый план алгоритмические предубеждения всех видов. Система, разработанная Amazon, которая отбирала кандидатов на работу предпочтение мужских резюме женским. Она сделала это потому, что тренировалась по большинству мужских программ, и исправить это отклонение было невозможно. Другой алгоритм, в данном случае используемый системой здравоохранения США, наказанные чернокожие по сравнению с белыми при одинаковой клинической тяжести, так что белые имели более высокий риск и, следовательно, получали приоритет в медицинской помощи.

Кроме того, автономные системы решают вопросы, связанные с интеллектуальной собственностью или использованием частных данных. Формула, позволяющая избежать этих недостатков, заключается в установлении самоограничений при разработке алгоритма. Ана Куэвас, профессор в области логики и философии науки в Университете Саламанки, защищает этот проактивный подход: «Нам не нужно ждать, пока что-то произойдет, чтобы проанализировать риски, которые они могут иметь, а лучше начать с самого начала. предположение, что прежде чем «Чтобы создать систему искусственного интеллекта, мы должны подумать о том, какой тип системы я хочу создать, чтобы избежать определенных нежелательных результатов».

Этика на машинном языке

Внедрение этического корпуса в машины — относительно новая работа. Научное сообщество обратилось к этому прежде всего с теоретической точки зрения, но не так уж и принято спускаться в грязь для указания ценностей в цифрах и моральных учений в инженерии. В исследовательской группе Санчес-Лопеса ВОДАиз Университета Барселоны, исследуйте эту область экспериментально.

Read more:  Почему продукция Apple дороже? Это причина!

Эти исследователи связывают концепции ценности и действия при проектировании систем. «У нас есть математические функции, которые говорят нам, что для определенного значения определенное действие машины считается положительным или отрицательным», — говорит Лопес-Санчес. Таким образом, в примере с беспилотным автомобилем плавное вождение по извилистой дороге будет считаться положительным с учетом ценности безопасности. Хотя если рассматривать его с точки зрения ценности доброты к другим водителям, транспортное средство может решить увеличить скорость, если заметит, что оно тормозит темп других автомобилей.

В этом конкретном случае возникнет конфликт между значениями, который будет разрешен с помощью взвешивания. Предварительно устанавливаются предпочтения, указывающие, какие ценности преобладают. Весь набор состоит из переплетенных формул, которые также должны содержать переменную нормы. «Есть еще одна функция, которая предполагает, что норма продвигает ценность», — говорит исследователь. «И у нас также есть функции, которые наблюдают за тем, как норма оценивает действие, а также как оценивается ценность указанного действия». Это сложная система, в которой обратная связь играет ключевую роль.

Когда Лопес-Санчес говорит об оценке, он имеет в виду непосредственно машинное обучение. Один из способов обучения — через подкрепление. Как и люди, мы действуем хорошо, потому что нас вознаграждают, и избегаем плохих поступков, потому что нас наказывают. Этот механизм работает и в искусственном интеллекте.

«Награды — это цифры. Мы даем вознаграждениям положительные числа, а наказаниям — отрицательные числа», — объясняет исследователь WAI. «Машины стараются набрать как можно больше очков. Итак, машина попытается вести себя хорошо, если я дам ей положительные числа, когда она все сделает правильно. И если, когда она плохо себя поведет, я ее накажу и сниму баллы, она постарается этого не делать». Словно для обучения детей, оно забито в образовательных целях.

Read more:  Qualcomm представляет SoC Snapdragon 4 Gen 2 с поддержкой 5G для телефонов начального сегмента

Но есть много вопросов, которые предстоит решить. Для начала достаточно просто решить, какие значения мы хотим ввести в машины. «Этика развивается по-разному. В некоторых случаях нам придется провести утилитарные расчеты, чтобы минимизировать риски или ущерб», — говорит профессор Куэвас. «В других случаях нам, возможно, придется использовать более строгие деонтологические кодексы, например, устанавливающие, что система не может лгать. Каждая система должна включать в себя определенные ценности, и для этого должно быть сообщество и социальное соглашение».

В лаборатории Лопеса-Санчеса углубляются в социологические исследования, чтобы найти общие ценности между людьми и представителями разных культур. При этом они берут за основу международные документы, такие как Всеобщая декларация прав человека ООН. Хотя будут аспекты, по которым труднее достичь консенсуса на глобальном уровне. Вот что считает Куэвас: «Ограничения машин будут иметь свои пределы. У Европейского Союза, например, свой способ ведения дел, а у Соединенных Штатов — другой», — подчеркивает он, имея в виду различные подходы к регулированию, которые существуют по обе стороны Атлантики.

Вы можете следить Технология Эль-Паис в Фейсбук й Икс или зарегистрируйтесь здесь, чтобы получать наши Семанал информационного бюллетеня.

Подпишитесь, чтобы продолжить чтение

Читайте без ограничений

_


2024-01-05 04:20:00


1704519816
#Машины #этикой #Как #научить #компьютеры #морали #переводя #деонтологию #цифры #Технологии

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.