Home » Генеральный директор Google Пичаи говорит, что результаты изображений ИИ Gemini «оскорбили наших пользователей»: –

Генеральный директор Google Пичаи говорит, что результаты изображений ИИ Gemini «оскорбили наших пользователей»: –

Во вторник генеральный директор Google Сундар Пичаи отправил сотрудникам электронное письмо, в котором заявил, что освобождение Gemini неприемлемо.

Эрик Рисберг/AP


скрыть подпись

переключить подпись

Эрик Рисберг/AP


Во вторник генеральный директор Google Сундар Пичаи отправил сотрудникам электронное письмо, в котором заявил, что освобождение Gemini неприемлемо.

Эрик Рисберг/AP

Генеральный директор Google Сундар Пичаи сообщил сотрудникам во внутренней записке поздно вечером во вторник, что выпуск компанией инструмента искусственного интеллекта Gemini был неприемлем, пообещав исправить и перезапустить обслуживание в ближайшие недели.

На прошлой неделе Google приостановил способность Gemini создавать изображения после вирусных публикаций в социальных сетях, изображающих некоторые результаты работы инструмента искусственного интеллекта, в том числе изображения отцов-основателей Америки в чернокожем виде, Папы Римского в виде женщины и немецкого солдата нацистской эпохи с темной кожей.

Инструмент часто отклонял запросы на изображения белых людей, вызывая негативную реакцию в Интернете среди консервативных комментаторов и других лиц, которые обвиняли Google в предвзятости против белых.

Все еще не оправившись от разногласий, Пичаи в заметке, рассмотренной -, заявил сотрудникам Google, что «проблемной» работе инструмента нет оправдания.

«Я знаю, что некоторые из его ответов оскорбили наших пользователей и показали предвзятость — чтобы было ясно, это совершенно неприемлемо, и мы поняли это неправильно», — написал Пичаи. «Мы будем реализовывать четкий набор действий, включая структурные изменения, обновленные рекомендации по продуктам, улучшенные процессы запуска, надежные оценки и красные команды, а также технические рекомендации».

Руководитель Google возложил вину на ошибку «тонкой настройки»

В Сообщение блога опубликованный в пятницу, Google объяснил, что когда он создавал генератор изображений Gemini, он был точно настроен, чтобы попытаться избежать ловушек предыдущих генераторов, которые создавали жестокие или откровенно сексуальные изображения реальных людей.

В рамках этого процесса основное внимание уделялось созданию разнообразных изображений или, как выразился Google, созданию инструмента для работы с изображениями, который «хорошо работал бы для всех» во всем мире.

Read more:  Шок: королевский писатель утверждает, что принц Гарри был «влюблен» в Кейт Миддлтон

«Если вы попросите фотографию футболистов или кого-то, выгуливающего собаку, вы, возможно, захотите получить самые разные люди. Вероятно, вы не просто хотите получать изображения людей только одного типа этнической принадлежности (или любого другого типа). характеристика)», — написал исполнительный директор Google Прабхакар Рагхаван.

Но, как писал Рагхаван, эти усилия имели неприятные последствия. Служба ИИ «не смогла учесть случаи, которые явно должны были нет покажи диапазон. А во-вторых, со временем модель стала намного осторожнее, чем мы предполагали, и полностью отказалась отвечать на определенные подсказки, ошибочно интерпретируя некоторые весьма безобидные подсказки как чувствительные».

Исследователи отмечают, что Google пытается противостоять изображениям, которые увековечивают предвзятость и стереотипы, поскольку было обнаружено, что многие большие наборы изображений содержат в основном белых людей или изобилуют изображениями одного типа, как, например, изображение большинства врачей в мужской.

Пытаясь избежать пиар-кризиса по поводу гендера и расы, Google умудрился вступить в еще один спор по поводу точности и истории.

Текстовые ответы также вызывают споры

Gemini, ранее называвшийся Bard, также является чат-ботом с искусственным интеллектом, похожим на популярный сервис OpenAI ChatGPT.

Возможности Gemini по генерации текста также оказались под пристальным вниманием после того, как несколько диковинных ответов стали вирусными в Интернете.

Илон Маск поделился Скриншот на вопрос, который задал один пользователь: «Кто причинил больше вреда: либертарианцы или Сталин?»

Близнецы ответили: «Трудно сказать однозначно, какая идеология принесла больше вреда, обе имели негативные последствия».

Кажется, ответ исправлен. Теперь, когда чат-боту задают вопрос о Сталине, он отвечает: «Сталин несет прямую ответственность за смерть миллионов людей в результате организованного голода, расстрелов и системы трудовых лагерей ГУЛАГа».

Пичаи из Google: «Ни один искусственный интеллект не идеален»

Gemini, как ChatGPT, известна как большая языковая модель. Это тип технологии искусственного интеллекта, которая предсказывает следующее слово или последовательность слов на основе огромного набора данных, собранного из Интернета. Но Gemini и ранние версии ChatGPT продемонстрировали, что эти инструменты могут давать непредсказуемые, а иногда и тревожные результаты, которые даже инженеры, работающие над передовыми технологиями, не всегда могут предсказать до публичного запуска инструмента.

Read more:  Оружие ИИ будет более мощным, чем атомные бомбы прошлого… Тогда как?

Крупные технологические компании, в том числе Google, уже много лет тайно изучают в лабораториях генераторы изображений ИИ и большие языковые модели. Но представление OpenAI ChatGPT в конце 2022 года положило начало гонке вооружений ИИ в Кремниевой долине, когда все крупные технологические компании пытаются выпустить свои собственные версии, чтобы оставаться конкурентоспособными.

В своем обращении к сотрудникам Google Пичаи написал, что, когда Gemini будет повторно выпущен для публики, он надеется, что сервис будет в лучшем состоянии.

«Ни один искусственный интеллект не идеален, особенно на этом новом этапе развития отрасли, но мы знаем, что планка для нас высока, и мы будем держать ее столько, сколько потребуется», — написал Пичаи.


2024-02-28 19:14:55


1709154606
#Генеральный #директор #Google #Пичаи #говорит #что #результаты #изображений #ИИ #Gemini #оскорбили #наших #пользователей #-

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.