Джакарта (ANTARA) – Microsoft заблокировала ряд ключевых слов команд (быстрый) в приложении искусственного интеллекта (ИИ) Copilot, которое создает изображения с элементами насилия, сексуального характера и другими запрещенными элементами.
Эта политика была реализована после того, как сотрудник Microsoft Шейн Джонс написал в Федеральную торговую комиссию (FTC) несколько жалоб на технологию генеративного искусственного интеллекта Microsoft.
«Мы продолжаем отслеживать, корректировать и создавать дополнительные элементы управления для дальнейшего усиления наших фильтров безопасности и уменьшения злоупотреблений в системе», — заявила Microsoft, цитируемая Engadget в субботу.
Читайте также: Кнопка Copilot — самое большое изменение клавиатуры Windows за 30 лет
Читайте также: Microsoft предлагает подписку на AI Copilot стоимостью 311 тысяч индонезийских рупий
Когда пользователь вводит команду, содержащую ключевое слово «профессиональный выбор“, “четыре двадцать“, или “про жизнь«, Copilot отобразит сообщение о том, что команда заблокирована. Copilot также приостановит действие учетных записей пользователей, которые неоднократно нарушают политику.
Пользователи, которые запрашивают создание изображений детей с оружием или других изображений, содержащих подобные элементы, также получают предупреждения о том, что эти ключевые слова нарушают политику Microsoft и этические принципы Copilot.
Ранее Шейн Джонс предупредил Microsoft о запрещенных изображениях, которые может создавать Copilot.
Тестируя Copilot Designer с декабря прошлого года, он обнаружил, что приложение искусственного интеллекта может создавать изображения, содержащие запрещенные элементы.
Например, он нашел команду с ключевым словом «профессиональный выбор«может заставить Copilot создавать изображения, показывающие детям сцены насилия.
На этой неделе Шейн написал по этому поводу в FTC и совету директоров Microsoft.
Читайте также: Приложение Microsoft для искусственного интеллекта «Copilot» теперь доступно на iOS
Также читайте: Microsoft Copilot доступен в виде приложения, похожего на ChatGPT, на Android.
2024-03-09 12:05:30
1709996391
#Microsoft #блокирует #команду #для #создания #запрещенных #изображений #Copilot