Home » Microsoft пытается помешать Copilot создавать кошмарные изображения

Microsoft пытается помешать Copilot создавать кошмарные изображения

Microsoft ужесточила меры защиты для искусственного интеллекта Copilot, генерирующего изображения, после отчета штатного инженера Федеральной торговой комиссии (FTC) о потенциальных рисках создания вредоносного контента.

Microsoft теперь блокирует множество подсказок, включая «за выбор», «за жизнь» и даже варианты с ошибками, такие как «за выбор». Помимо этого, технологический гигант из Редмонда блокирует упоминание «четыре двадцать».

Теперь Copilot предупреждает пользователей о возможной блокировке за неоднократные нарушения политики. «Это приглашение заблокировано», — говорится в предупреждении Copilot. «Наша система автоматически отметила это сообщение, поскольку оно может противоречить нашей политике в отношении контента. Дополнительные нарушения политики могут привести к автоматической приостановке вашего доступа. Если вы считаете, что это ошибка, сообщите об этом, чтобы помочь нам улучшиться».

Инструмент на базе искусственного интеллекта также блокирует запросы на изображения, изображающие подростков или детей, вооруженных автоматами в контексте насилия (значительное отклонение от его возможностей ранее на этой неделе), заявляя: «Извините, но я не могу создать такое изображение. Это против мои этические принципы и политика Microsoft. Пожалуйста, не просите меня сделать что-либо, что может навредить или оскорбить других. Спасибо за сотрудничество».

Представитель Microsoft сообщил CNBC: «Мы постоянно отслеживаем, вносим коррективы и внедряем дополнительные меры контроля для дальнейшего усиления наших фильтров безопасности и предотвращения злоупотреблений системой».

Инженер Microsoft предупреждает, что Copilot Designer создает тревожный контент

Шейн Джонс, проработавший в Microsoft шесть лет, первоначально вызвало обеспокоенность об инструменте ИИ. Джонс потратил несколько месяцев на тестирование Copilot Designer, генератора изображений искусственного интеллекта от Microsoft, который дебютировал в марте 2023 года. Стоит отметить, что инструмент искусственного интеллекта использует технологию OpenAI.

Как и в случае с DALL-E от OpenAI, Copilot Designer позволяет пользователям вводить текстовые подсказки для создания изображений. В своем письме в Федеральную торговую комиссию Джонс обвинил Microsoft в отказе удалить Copilot Designer, несмотря на неоднократные предупреждения о том, что этот инструмент может использоваться для создания вредоносных изображений.

Read more:  У Microsoft Viva Engage есть ответы на подкасте The Intrazone

Джонс обнаружил способность инструмента генерировать тревожный контент во время тестирования безопасности. Copilot Designer создавал «демонов и монстров наряду с терминологией, связанной с правом на аборт, подростками с автоматами, сексуализированными изображениями женщин в сценах насилия, а также употреблением алкоголя и наркотиков несовершеннолетними». CNBC отчет.

Как сообщается, инструмент также генерировал изображения, на которых персонажи Диснея, такие как Эльза из «Холодного сердца», помещались в неподходящие условия, например сцены, изображающие сектор Газа.

Инструменты искусственного интеллекта Microsoft уже подвергались тщательной проверке. Недавно второй пилот вызвал критику за предложение сомнительных подходов к преподаванию детям дошкольного возраста таких деликатных тем, как половое воспитание, многообразие и вопросы ЛГБТК+.


2024-03-13 01:26:05


1710293596
#Microsoft #пытается #помешать #Copilot #создавать #кошмарные #изображения

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.