Home » Марк Серрамиа: «Если мы все будем доверять таким инструментам, как ChatGPT, человеческие знания исчезнут» | Технологии

Марк Серрамиа: «Если мы все будем доверять таким инструментам, как ChatGPT, человеческие знания исчезнут» | Технологии

Марк Серрамиа (Барселона, 30 лет) обеспокоен тем, что головокружительное появление искусственного интеллекта (ИИ) в нашей жизни не сопровождается серьезными дискуссиями о рисках, связанных с этой технологией. Учитывая этические дилеммы, которые он поднимает, Серрамиа решил сосредоточить свои исследования на разработке методов, «чтобы контролировать соответствие поведения этих систем человеческим ценностям и социальным нормам». Ее работа принесла ей Награда от Научного компьютерного общества Испании и Фонда BBVA. который ежегодно выделяет молодых исследователей, подписывающих инновационные докторские диссертации.

Каталонец сравнивает свою работу в области ИИ с установлением стандартов поведения общества в регулировании дорожного движения. «У нас есть ограничения скорости на дороге, потому что мы ценим жизни водителей больше, чем факт быстрого достижения пункта назначения», — говорит доктор технических наук (со специализацией в области искусственного интеллекта) из Университета Барселоны, в настоящее время профессор. на факультете компьютерных наук Лондонского городского университета.

Просить. Некоторые эксперты говорят, что к рискам, связанным с ИИ, следует относиться так же серьезно, как и к чрезвычайной климатической ситуации. Что вы думаете?

Отвечать. Я согласен. Хороший пример – лекарства. Чтобы выпустить лекарство на рынок, необходимо не только доказать, что оно оказывает положительный первичный эффект, но и побочные эффекты не должны быть хуже первичного эффекта. Почему то же самое не происходит с ИИ? Когда мы разрабатываем алгоритм, мы знаем, что основная функция сделает его хорошим, но не будет иметь побочных эффектов. Я думаю, что в случае с лекарствами или оружием мы это видим очень четко, а вот с ИИ не так сильно.

П. О каких опасностях речь?

Р. Есть много. Один из них, на котором я концентрирую часть своих исследований, — это конфиденциальность. Даже если мы анонимизируем данные, всегда можно перепроектировать и сделать выводы о вас, чтобы показывать вам персонализированную рекламу, предоставлять вам банковские кредиты или нет, или чтобы потенциальный работодатель мог оценить, соответствуете ли вы тому профилю, который он ищет. Наша работа предполагает следующее: поскольку мы используем алгоритмы для изучения вас, почему бы не использовать их и для хороших целей, например, для изучения ваших предпочтений в отношении конфиденциальности? Другими словами, если я скажу вам, что не хочу, чтобы вы сообщали мое местоположение, не спрашивайте меня снова. Мы предложили, что ИИ может учиться у пользователя и выступать в качестве представителя в этом процессе, а также определять его предпочтения, предсказывая их на основе имеющейся о них информации. Мы создали очень простой инструмент искусственного интеллекта, но наши данные показывают, что он способен прогнозировать реальные предпочтения пользователей с хорошей надежностью.

В октябре Серрамиа получил одну из шести наград Испанского общества компьютерных наук и Фонда BBVA, присуждаемых перспективным молодым исследователям.Хайме Вильянуэва

П. Какие еще проблемы вы бы выделили помимо конфиденциальности?

Read more:  Europa Clipper получает колеса для космического путешествия

Р. Умные колонки, такие как Alexa, очень быстро появились на рынке, но терпят неудачу. Например, отправка конфиденциальных разговоров контактам, с которыми вы не хотите делиться информацией. Менее повседневная, но, безусловно, более трансцендентная опасность, которую представляет автономное оружие.

П. До какой степени нам следует бояться автономное оружие?

Р. Они очень продвинуты на уровне производства. Руководитель моей диссертации участвовала в конференции ООН по этой теме, и основной дискурс, который она увидела среди присутствовавших там политиков и солдат, был такой: ну, мы не хотим их, но если мы не будем их развивать, другая страна будет . Баланс – это очень сложно. Всегда найдется кто-то желающий, и это повлечет за собой других.

П. Когда мы говорим об автономном оружии, имеем ли мы в виду дроны?

Р. На данный момент я думаю, что это самое распространенное, да. В будущем мы можем обратиться к вооруженным роботам-гуманоидам. На данный момент дроны со взрывчаткой используются в войне на Украине и в России. Но вы также можете дать им оружие для стрельбы.

Мы должны остановить разработку автономного оружия, обладающего способностью принимать решения, потому что мы создаем вещи, о которых мы не знаем, как они работают и какие эффекты они могут иметь.

П. Есть ли способ остановить это? Или автоматизация войны неизбежна?

Р. Мы рекомендуем попытаться остановить или замедлить развитие автономного оружия, обладающего способностью принимать решения, потому что на самом деле мы создаем вещи, о которых мы не знаем, как они работают и какие последствия они могут иметь. И это очень опасно. Проблема в том, что компании знают, что если они этого не сделают, то это сделают другие, и в конце концов возникает своего рода конкуренция. Было бы хорошо, если бы была какая-то сертификация в этой области. Вам следует начать с потребительских товаров, таких как умные колонки: если вы пойдете в магазин и увидите сертифицированную, поскольку за ней было проведено этическое исследование, гарантирующее соблюдение конфиденциальности, вполне вероятно, что вы купите именно ее. и не другой.

П. Действительно ли существует этический искусственный интеллект?

Р. Да, хотя это не очень видно. Это новая площадка: первая Международная конференция по этическому искусственному интеллекту состоялась в 2018 году. Одна из тем, над которой я работаю, — это использование ИИ для улучшения процессов совместного бюджетирования, как в Decidim Barcelona. Одна из проблем, с которой они сталкиваются, заключается в том, что в выборах участвует мало людей, и было изучено, что, как правило, наиболее обездоленные классы голосуют меньше. Следовательно, это подразумевает предвзятость в выборе проектов. Мы создали алгоритм, который мог бы реализовать систему ценностей людей, которые не участвуют либо потому, что не могут, либо потому, что не хотят, таким образом, чтобы учитывать их чувствительность. Цель состоит в том, чтобы свести к минимуму возможные предвзятости, которые могут возникнуть в результате решений, за которые проголосовали лишь немногие. Интересно то, что в наших экспериментах мы увидели, что можем найти хороший баланс, при котором участники будут удовлетворены, а также представлены те, кто не участвовал.

Read more:  Новый умопомрачительный научно-фантастический сериал Netflix 3 «Проблема тела» подарит вам кошмары в виртуальной реальности

П. Можно ли закодировать алгоритмы должны быть этичными?

Р. На теоретическом уровне да. Мои исследования ограничиваются этой плоскостью, я сосредотачиваюсь на мультиагентных системах (несколько интеллектуальных систем, взаимодействующих друг с другом). Идея состоит в том, чтобы подумать о том, как спроектировать завтрашний день, когда ИИ будет окружать все, систему стандартов, которая гарантирует, что системы будут соответствовать нашим ценностям. Дальше есть еще одно исследование, то есть то, как мы переносим это на практический уровень, но мы не будем здесь вдаваться в подробности.

П. И как это можно сделать?

Р. Искусственный интеллект можно рассматривать как математическую формулу, которая пытается изменить состояние мира, чтобы максимизировать эту формулу. Хотя кажется, что он ведет себя разумно, это все же механизм оптимизации. Вы можете поместить правила в код или изменить эту математическую формулу, чтобы наказывать за нарушение правила. Вам просто захочется сделать это правильно, вы будете использовать все, что поможет вам достичь цели проектирования этой системы, но вы не знаете, что делаете.

На теоретическом уровне можно закодировать алгоритмы, которые будут этичными.

П. Но затем эти алгоритмы используются кем-то, кто может обойти эти правила.

Р. Конечно, в конечном итоге интеллект так же этичен, как и тот, кто его использует. Но наше исследование сосредоточено на том, как мы можем сделать алгоритмы свободными от предвзятости. Это теоретическая работа о будущем, в котором мы представляем, что будем сосуществовать со сложными системами искусственного интеллекта.

П. Что вы думаете о генеративном искусственном интеллекте, который стоит за ChatGPT или Gemini? Какие этические проблемы это поднимает?

Р. Они больше сосредотачиваются на объяснении того, что сгенерировано, или на том факте, что вы не можете гарантировать, что сгенерированное сообщение имеет смысл. Алгоритм ничего не понимает, он только находит вещи, похожие на то, что вы ему показали, объединяет их и что-то генерирует. Термин «машинное обучение» может ввести в заблуждение, поскольку машина ничего не выучила и не поняла. Он имеет сложную математическую формулу, которая модифицирована так, что если вы попросите его дать вам иллюстрацию кошки, он будет искать иллюстрацию кошки, но не поймет, что такое кошка.

П. Эффект, который эти инструменты могут оказать на определенные профили, не был измерен. Мужчина покончил жизнь самоубийством после нескольких недель разговора с умным чат-ботом, который побудил его сделать этот шаг.

Р. Здесь есть несколько вещей. Во-первых, существует проблема невежества: люди не знают, как работают эти системы. Независимо от того, насколько человечен текст, который он создает, он возвращает только вероятные результаты. Он совсем не умён и ещё менее эмоционален, хотя и может производить такое впечатление. Есть проблема и в сфере образования. ChatGPT больше не используется студентами для выполнения домашних заданий: если мы все будем полагаться на эти типы инструментов, человеческие знания исчезнут. Алгоритм допустит ошибку, и никто не узнает, что он это сделал. И уже видно, что многие модели придумывают ответы. На пачках табака написано, что курение убивает. То же самое должно произойти и с ИИ.

Достаточно ли разместить сообщение «создано ИИ»? Люди спрашивают ChatGPT, за какую партию голосовать на следующих выборах или какое лекарство принять.

П. Это относится к типу печати или сертификации.

Read more:  «Все и везде, все сразу», трейлер фильма, номинированного на 11 премий «Оскар» - Corriere TV

Р. Точный. Промышленность росла быстро, а правительства всегда медленнее. Мы переживаем тот момент, когда много развития и мало сертификации и регулирования. Я верю, что в конце концов это будет исправлено и нам станет даже лучше. Но сейчас опасное время.

П. Что вы думаете европейское регулирование ИИ?

Р. Мне кажется, это хороший первый шаг. В любом случае, возможно, мы слишком снисходительно отнеслись к генеративному ИИ. Например, ChatGPT и другие подобные инструменты являются языковыми моделями. Его достоинством является написание текста, который выглядит человеческим, а не написание реального текста. Однако компании продают их нам как таковые. Можем ли мы быть уверены, что достаточно разместить сообщение «сгенерировано искусственным интеллектом»? Невероятно, но люди спрашивают ChatGPT, например, за какую партию им следует голосовать на следующих выборах, следует ли им нанимать определенного человека или какое лекарство принимать, если у них есть такие симптомы. И давайте не будем о вопросах типа «Я не хочу жить, что мне делать?» Я думаю, что от генеративного ИИ следует требовать большего. Есть проблемы, о которых они не могут говорить, а есть другие, о которых, если можно, следует требовать гарантий. Большая часть дебатов до сих пор была сосредоточена на авторском праве, что также очень важно, но мне кажется, что и другие дебаты имеют решающее значение.

П. Стоит ли нам бояться ИИ?

Р. Нет, я думаю, мы должны его уважать. И мы, как граждане, должны потребовать, чтобы правительства приступили к работе и хорошо регулировали этот вопрос. Мы, потребители, не должны использовать продукты или услуги, которые, по нашему мнению, не соответствуют определенным стандартам. Если мы все будем вести себя подобным образом, мы заставим отрасль сделать выбор в пользу более этичных вариантов.

Вы можете следить Технология Эль-Паис в Фейсбук й Икс или зарегистрируйтесь здесь, чтобы получать наши Семанал информационного бюллетеня.

Подпишитесь, чтобы продолжить чтение

Читайте без ограничений

_


2024-03-12 04:20:00


1710275807
#Марк #Серрамиа #Если #мы #все #будем #доверять #таким #инструментам #как #ChatGPT #человеческие #знания #исчезнут #Технологии

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.