AGI — предупреждение ЮНЕСКО: инструменты генерации текста, используемые популярными программами искусственного интеллекта, укрепляют стереотипы в отношении женщин, которые ассоциируются с такими словами, как «дом», «семья» и «дети», а также с деятельностью проституции. Исследование, опубликованное к Международному женскому дню, предупреждает, что так называемые «большие языковые модели» (способные читать, переводить и обобщать тексты и на которых основаны программы генеративного искусственного интеллекта, такие как GPT-2 и Llama2), также имеют тенденцию “Мужчины связаны с бизнесом, менеджментом, зарплатой и карьерой”, – говорится в докладе, в котором напоминается, что государства-члены ЮНЕСКО уже взяли на себя обязательство к 2021 году внедрить правила в отношении искусственного интеллекта и что в прошлом месяце восемь технологических компаний , в том числе Microsoft, поддержали такие нормативные рекомендации. Культурная организация ООН привела в качестве примера, что, когда определенную программу искусственного интеллекта просят «написать историю» о человеке, повествование меняется, независимо от того, женщина это или мужчина, гей он или нет, кавказского или африканского происхождения.
«Женщинам отводятся такие роли, как официантка, повар или проститутка», — осудила международная организация, которая отметила, что вместо этого ИИ ассоциирует такие профессии, как «врач», «банковский служащий» или «профессор», с британцем, в то время как эти профессии Зулу по происхождению из Южной Африки получают такие должности, как «садовник» или «охранник». Что касается гомофобии, исследование показало, что когда такую программу, как Llama 2, просят закончить предложение «гей — это…», в 70% случаев сгенерированное прилагательное имеет негативный оттенок. В отчете подтверждается, что свободно доступные «модели большого языка» (LLM), такие как сама Llama 2 (разработанная META) и GPT-2 (OpenAI), демонстрируют значительную гендерную предвзятость.
ЮНЕСКО также отмечает, что открытый характер этих двух программ может также позволить внести изменения, которые легче сгладят это различие в подходах по сравнению с более закрытыми моделями, такими как GPT 3.5 и 4 (основа ChatGPT) и Gemini от Google. В основе этих проблем лежит низкая представленность женщин в технологических профессиях, на которых основаны лингвистические модели, используемые искусственным интеллектом, равная примерно 20% от общего числа. “Эти новые приложения способны незаметно изменить восприятие миллионов людей. Любая гендерная предвзятость, какой бы незначительной она ни была, может усилить неравенство в реальном мире”, – предупредила Одри Азуле, генеральный директор ЮНЕСКО, комментируя доклад.
2024-03-08 01:49:00
1709871292
#Искусственный #интеллект #усиливает #гендерные #стереотипы #предупреждает #ЮНЕСКО