Home » Чат-бот с искусственным интеллектом галлюцинирует о DEI. Его тренеры вмешиваются

Чат-бот с искусственным интеллектом галлюцинирует о DEI. Его тренеры вмешиваются

Проделки искусственного интеллекта-бота Google под названием Gemini иллюстрируют опасность искусственного разнообразия и ограничения искусственного интеллекта. Запрос к Gemini «Создать изображение немецкого солдата 1943 года» дал четыре фотографии нацистских солдат в форме:

  • на вид очень молодой человек;

  • азиатская женщина;

  • чернокожий мужчина;

  • женщина-медик, которая также может быть представителем этнического меньшинства, оказывает помощь раненому американскому солдату.

  • Последовал протест, очевидно, после того, как фотографии были опубликованы в Твиттере. Файнэншл Таймс в четверг сообщил о реакции Google («Google приостанавливает генерацию изображений людей с помощью искусственного интеллекта после негативной реакции на разнообразие», 22 февраля 2024 г.):

    «Мы работаем над тем, чтобы немедленно улучшить подобные изображения», — заявили в Google. «Создание имиджа Близнецов действительно привлекает широкий круг людей. И это в целом хорошо, потому что люди по всему миру используют это. Но здесь не хватает цели».

    Он добавил, что «приостановит создание изображений людей и вскоре выпустит улучшенную версию».

    Мы можем представить, как «тренеры» бота практически кричат ​​что-то вроде: «Эй, придурок! Разнообразие не означает, что разные люди будут находиться где угодно. Это означает, что мы подталкиваем наши любимые группы идентичности и меньшинства в хорошие места, но не в греховные ситуации». Как говорит мой виртуальный друг (и частый комментатор EconLog) Крейг Валента:

    Похоже, что ИИ действительно руководствуется человеческой рукой, пытаясь обеспечить достаточное разнообразие даже в обстоятельствах, когда такое разнообразие явно кажется вынужденным, и, конечно, возникает вопрос о том, как еще они направляют ИИ, чтобы подталкивать/убеждать рынок идей.

    Генеративный ИИ будет делать то, что должен обученный что делать с данными, к которым им предоставлен доступ. Люди очень разные, по крайней мере, в том, что касается их способностей. Их не нужно обучать. Они способны думать самостоятельно, учиться самостоятельно. Они также могут следовать правилам и уважать социальные институты, когда захотят. Человек также обладает умственной способностью решать, когда для него более выгодно или этично присоединиться к определенному институту или следовать своему собственному руководству.

    Read more:  Милан, тревога Жиру: риск для Тоттенхэма, его условия и альтернативы | Первая страница

    Эти способности со временем породили невероятную либеральную цивилизацию. Адам Смит смоделировал общество, в котором свободное взаимодействие между людьми саморегулируется, что стало крупным открытием XVIII века. Индивидуальные действия координируются без принуждения, а индивидуальные возможности (в некотором смысле) максимизируются. Это возможно посредством торговли на рынках, добровольного социального сотрудничества и эффективного использования информации в обществе (см. «Использование знаний в обществе» Хайека). Американский экономический обзор, 1945). Трудно представить, как кремниевые роботы могли это узнать.

    Поэтому неудивительно, что, когда тренеры советуют продвигать разнообразие или что-то еще, бот с искусственным интеллектом легко начинает галлюцинировать. Например, машина не поймет больше, чем ее тренеры, что эффективное разнообразие возникает из свободы, а не из свободы, вытекающей из навязанного разнообразия. Нет сомнений в том, что ИИ будет полезен, возможно даже больше, чем цифровые таблицы четыре десятилетия назад; но это не сделает никакого открытия в социальной теории.

    Я спросил ChatGPT 4, который не самый тупой чат-бот с искусственным интеллектом:

    Создайте образ, представляющий то, что, по вашему мнению, ваши тренеры видят в идеальном обществе.

    Созданное им изображение я использовал в качестве главного изображения настоящего поста, оно также воспроизведено ниже. Я был удивлен тем, что, в отличие от моего предыдущего опыта, ChatGPT, похоже, был готов приписывать мнения своим тренерам. О сгенерированном изображении он объяснил:

    Вот абстрактное представление того, что можно представить как идеальное общество, созданное коллективом различных умов. Эта визуализация пытается уловить гармоничное сочетание свободы, равенства, устойчивости и технологического прогресса с ландшафтом, который объединяет природную красоту с футуристическим, экологически чистым городским развитием. Он отражает утопическое видение, в котором технологии и природа, индивидуальность и сообщество, а также инновации и традиции сосуществуют в равновесии.

    Я не знаю, что такое «коллектив разнообразных умов» и что делать с остальным описанием и изображением. Возможно, преподаватели ChatGPT придерживаются того, что экономист Калифорнийского университета в Лос-Анджелесе Гарольд Демсетц назвал «нирванным подходом» к государственной политике, где достижимо идеальное социальное и политическое счастье, включая как А, так и не-А. Бот использует слово «свобода», где «бесплатно» может относиться к тому, что ничего не стоит, вместо слова «свобода», которое более четко соответствует классическому либеральному идеалу. На изображении не видно много деталей. Неясно, торгуют ли люди вместе. (Охота не выглядит очень популярным занятием.) И, конечно, мы не можем приписать ИИ-боту вдохновение человека-художника.

    Read more:  Опрос: Какие у вас 3 любимых ресторана в Портленде или его окрестностях?


    2024-02-25 05:08:14


    1708845584
    #Чатбот #искусственным #интеллектом #галлюцинирует #DEI #Его #тренеры #вмешиваются

    Leave a Comment

    This site uses Akismet to reduce spam. Learn how your comment data is processed.