Home » Microsoft представляет новые ответственные инструменты искусственного интеллекта в Azure Studio

Microsoft представляет новые ответственные инструменты искусственного интеллекта в Azure Studio

Microsoft представила новые ответственные инструменты искусственного интеллекта в Azure AI Studio, направленные на устранение многих сомнений, которые испытывают предприятия в отношении генеративных систем искусственного интеллекта.

В четверг компания представила мгновенную защиту, обнаружение заземления, сообщения о безопасности системы, оценки безопасности, а также мониторинг рисков и безопасности.

Новые инструменты появились благодаря тому, что технологический гигант и его конкурент Google в последние месяцы работают над решением проблем с помощью своих инструментов генеративного искусственного интеллекта. Например, осведомитель Microsoft написал в Федеральную торговую комиссию письмо с подробным описанием опасений по поводу безопасности Microsoft Copilot Designer.

Тем временем Google отключил функцию генерации изображений в своей большой языковой модели Gemini после того, как она сгенерировала предвзятые изображения ключевых исторических фигур.

Google также расширил возможности поиска (SGE), позволив отвечать на вопросы пользователей. Однако есть сообщения о том, что ответы SGE являются спамом и содержат вредоносное ПО и мошенничество.

Решение проблем предприятия

Новые инструменты ответственного ИИ решают проблемы предприятий, которые не решаются использовать генеративный ИИ.

«Одним из препятствий на пути внедрения генеративного искусственного интеллекта среди предприятий сегодня является доверие, отсутствие доверия к этим системам», — сказал аналитик Forrester Research Брэндон Перселл.

Многие предприятия обеспокоены галлюцинациями, когда инструмент LLM или искусственного интеллекта генерирует неверную информацию, а также тем фактом, что эти инструменты подвержены утечке IP.

«Microsoft… выпускает продукты, которые, как мы надеемся, помогут завоевать доверие на рынке», — сказал Перселл.

Например, Prompt Shields обнаруживает и блокирует атаки с быстрым внедрением. В настоящее время он доступен в предварительной версии. Оперативное внедрение — это когда пользователь с плохими намерениями пытается заставить LLM сделать что-то, чего он не должен делать, например предоставить доступ к своим обучающим данным или участвовать в разжигании ненависти или сексуальном контенте.

Read more:  «Диванная» клавиатура по самой низкой цене. Мультимедийная клавиатура Microsoft All-in-One с сенсорной панелью доступна за 479 чешских крон - Živě.cz

Другой инструмент, Groundedness Detection, помогает обнаружить галлюцинации в выходных данных модели. Этот инструмент скоро появится.

«Уменьшение галлюцинаций, вероятно, является одной из главных, казалось бы, неразрешимых задач при внедрении генеративного искусственного интеллекта для критически важных бизнес-приложений», — сказал аналитик Gartner Джейсон Вонг.

Поскольку большинство языковых моделей склонны к галлюцинациям, инструмент, уменьшающий галлюцинации, будет иметь решающее значение для предприятий.

«Обнаружение заземления должно снизить уровень галлюцинаций и дать предприятиям уверенность в том, что система работает так, как должна», — сказал Перселл.

Реагирование на правила

Новые ответственные инструменты искусственного интеллекта Microsoft также показывают, как поставщик реагирует на некоторые новые правила, исходящие как в Европейском Союзе, так и в США, сказал советник по политике в области искусственного интеллекта Северо-Восточного университета Майкл Беннетт.

Ранее в этом месяце ЕС одобрил Закон ЕС об искусственном интеллекте. Закон регулирует системы искусственного интеллекта, которые взаимодействуют с людьми в таких отраслях, как образование, занятость и государственные системы.

Таким образом, наличие этих ответственных мер защиты ИИ облегчает работу предприятий, ведущих бизнес в ЕС, сказал Беннетт.

«Подобные меры безопасности, вероятно, облегчат жизнь этим более крупным компаниям, а не полностью устранят проблему», — сказал он.

Предприятия также будут чувствовать себя комфортно, используя системы в США, где в разных округах штатов приняты отдельные законы об искусственном интеллекте, добавил он.

Однако, несмотря на гарантии поставщиков, предприятия должны проявлять должную осмотрительность, сказал Перселл.

«Независимо от того, сколько замечательных функций реализует Microsoft или другие компании, компания, использующая генеративный искусственный интеллект, должна иметь строгую систему мониторинга, чтобы иметь возможность обнаруживать, когда модель не работает и приводит к плохим результатам бизнеса», — он сказал.

Read more:  Исследование переработки демонстрирует новые возможности для экономики замкнутого цикла, основанной на использовании возобновляемых источников энергии.

Другие ответственные инструменты искусственного интеллекта, представленные Microsoft, включают сообщения системы безопасности, оценки безопасности, а также мониторинг рисков и безопасности.

Сообщения системы безопасности направляют поведение модели в сторону безопасных результатов. Скоро. Оценки безопасности оценивают уязвимость приложений к атакам с помощью джейлбрейка. Он доступен в предварительной версии. Мониторинг рисков и безопасности позволяет понять, какие входные и выходные данные модели и конечные пользователи активируют фильтры контента. Он также доступен в предварительной версии.

Эстер Аджао — автор новостей TechTarget Editorial и ведущая подкастов, посвященная программному обеспечению и системам искусственного интеллекта.

2024-03-28 20:25:41


1711660718
#Microsoft #представляет #новые #ответственные #инструменты #искусственного #интеллекта #Azure #Studio

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.