Чат-бота Microsoft Copilot обвиняют в выдаче вредоносных ответов
В среду Microsoft заявила, что расследовала утверждения о том, что ее чат-бот с искусственным интеллектом Copilot давал потенциально вредные ответы на подсказки, предполагающие самоубийство. Если вы или кто-то из ваших знакомых испытываете кризис психического здоровья, позвоните на линию помощи 988 Suicide & Crisis Lifeline, набрав или отправив текстовое сообщение «988». Microsoft расследовала заявления в социальных … Read more