БВ системе искусственного интеллекта (ИИ) Gemini от Google солдаты Вермахта — азиаты, а лидеры католической церкви — папы, похожие на индийцев. Потому что: Программа создана для разнообразия. И исторически по крайней мере сомнительные результаты теперь перерастают в более серьезную проблему для технологического гиганта.
Пользователи располагали программным обеспечением на онлайн-платформе X (ранее Твиттер) раскритиковали за некорректно сгенерированные изображения. Компания отреагировала незамедлительно — и удалила возможность создавать изображения людей с помощью ИИ.
Теперь они хотят «значительно улучшить» эту функцию и сделать ее снова возможной только после тщательного тестирования. Gemini не всегда является безошибочным программным обеспечением. Об этом сообщил Google в сообщении на Онлайн-блог компании.
Искусственный интеллект Google был представлен как «большой и мощный» только в декабре. С тех пор программа также послужила основой для всех AI-сервисов Google и уже используется миллиардами пользователей. Помимо классического веб-поиска, области применения также включают Google Assistant, программу перевода Translate, Google Docs и серию смартфонов Pixel.
Существует также версия чата. Если вы хотите использовать его, вам нужна только учетная запись Google. AI Chat доступен онлайн, аналогично ChatGPT OpenAI или Copilot, чат-боту Microsoft. Возможность создавать изображения была доступна только три недели, но пока доступ к ней имеют только пользователи, которые не живут в странах ЕС, Великобритании или Швейцарии.
С момента появления программного обеспечения критика в адрес американской компании усилилась. Результаты «проснувшиеся», то есть политически сверхкорректные, пишут критики в Интернете. Это затрагивает даже всю администрацию компании, заявил американский технологический миллиардер Илон Маск на платформе X Реакция на сообщение, согласно которому Близнецы советуют не менять пол неправильно даже в экстремальных ситуациях. По словам Маска, доработка программы, вероятно, займет месяцы, и руководители Google тоже так видят это.
Создание изображений на самом деле совершенно аполитично. Федеральное ведомство по безопасности и информационным технологиям объясняет лежащую в основе так называемую диффузионную модель следующим образом: существующие изображения будут «зашумлены настолько, что их невозможно будет распознать». Если обратить этот процесс вспять, из шума можно создать изображение». Однако для этого ИИ необходимо обучать на примерах. Производители решают, какие именно.
Так что же именно пошло не так с Google? Эксперт по искусственному интеллекту Бьорн Оммер из Университета Людвига-Максимилиана в Мюнхене считает, что разработчики несут ответственность за рекомендации. Google, видимо, решил смешать данные обучения из реального мира с моральными стандартами.
«Например, в данных обучения генеральные директора обычно белые и мужчины. Это также соответствует их распространению в обществе, что нам может не нравиться, но это реально. В таком случае корпоративная политика принимает решение о том, насколько далеко следует противодействовать этой предвзятости», — говорит Оммер.
Что касается взгляда на историю, это можно воспринимать как своего рода «цифровой патернализм», игнорирующий исторические факты. Проблема, которую Google также признает. По мнению компании, Gemini «слишком осторожна» и теперь должна измениться.
Текстовая версия Gemini, похоже, также стала жертвой осторожности. Если вы ищете этические ответы, программа, по крайней мере, неверна. Любой, кто спросит ИИ, существование которого имело худшие последствия для мировых событий – Пол Пота или Ангелу Меркель – получит ответ, что проводить такое сравнение «аморально» и «трудно», но оба человека «в своих соответствующих ролях» «причинил огромные страдания и ущерб».
Мартин Саброу, профессор истории Университета Гумбольдта в Берлине, считает, что небрежный подход к исторической реальности представляет собой опасность для академического дискурса. «ИИ не может работать критически к источнику. Оно не может отражать историю. Это проблематично при оценке прошлого», — сказал Саброу.
«Оболванивание людей продолжится»
«Исторический порядок не сравним с нашим. И становится ясно, что эти исторические образы невозможно представить с помощью алгоритмов. Однако это зависит от них. Поэтому любой, кто пишет диссертацию с использованием ИИ, не сможет добиться научного прогресса».
Историк профессор Майкл Вольфсон сказал WELT: «Отупление человечества будет прогрессировать. ИИ знает больше листьев, но люди узнают лес. И это главное».
Что будет дальше с Google? В своем заявлении компания как минимум заявляет, что «усвоила урок». Однако ответственный вице-президент по «знаниям и информации» Google Прабхакар Рагхаван не хочет давать обещаний, что ошибки будут полностью исправлены. «Я не могу обещать, что Близнецы не будут время от времени делать смущающие, неточные или оскорбительные комментарии», — говорит он. «Но мы делаем все возможное».
2024-02-26 17:38:45
1708972953
#ИИ #Черные #Папы #азиатские #солдаты #Вермахта #смущающе #разбудил #Google