Home » Исследователь: Компаниям необходимо снизить риски при использовании ИИ

Исследователь: Компаниям необходимо снизить риски при использовании ИИ

Джакарта (АНТАРА) — исследователи Couchbase считают, что компаниям необходимо снижать риски при использовании искусственного интеллекта или

(ИИ), который имеет тенденцию быть предвзятым и может снизить качество производимой продукции.

«Задача состоит в том, как компании могут уменьшить эти предубеждения в своих предложениях продуктов и избежать риска внедрения вредных моделей ИИ в производство», — заявил в четверг младший инженер по решениям Couchbase Аарон Шейнидер.

По его словам, одним из способов использования ИИ через ChatGPT по-прежнему является оценка людей по полу и цвету кожи. Вот почему любой ответ будет рискованным, дискриминационным, подстрекательским и наносящим ущерб репутации компаний, которые действительно используют ИИ во благо.

Читайте также: Считается, что искусственный интеллект имеет как потенциал, так и угрозу для бизнеса

Он также заверил, что, хотя это не вина ИИ, а исключительно вклад, который получает технология, разработчики должны заранее устранять предвзятость и ошибки.

«Однако эта головоломка на самом деле не является чем-то новым. Предвзятость ИИ возникает, когда модель ИИ отображает предвзятость своих авторов-людей через набор данных. Что вы даете, то и получаете взамен», — сказал Аарон.

Такие условия, продолжил он, заставляют технологические компании дважды подумать, прежде чем выпускать сложные модели ИИ, потому что это означало бы передачу пользователям непредсказуемого ящика Пандоры.

Этот шаг компании также можно считать очень рискованным маневром, поскольку они не контролируют работу ИИ. Любой недостоверный и непристойный ответ нанесет серьезный ущерб репутации компании.

Поэтому, чтобы технологии оставались силой добра, пользователи должны иметь возможность создавать беспристрастные модели ИИ. Используя решения для обработки событий в реальном времени, исследователи могут использовать определяемую пользователем бизнес-логику для автоматического удаления нежелательной информации из наборов данных ИИ.

Read more:  КРИС ФОЙ: Несмотря ни на что, Англия должна разорвать порочный круг неудач и обыграть «Пумы» на чемпионате мира… но если судить по разговорам, а не по походке, это, возможно, им не под силу.

«Этот шаг потребует облачного решения с архитектурой, ориентированной на память, которая обеспечивает непревзойденную производительность и делает запросы SQL++ быстрыми и высокоэффективными. Все проекты также выиграют от гибкости и потенциала облачной базы данных NoSQL», — сказал он.

В конечном счете, искусственный интеллект основан на моделях машинного обучения с хорошо изученными моделями и методами, используемыми при создании систем прогнозирования. Системы искусственного интеллекта, такие как ChatGPT и DALL-E, должны поглощать большие объемы входных данных из Интернета, прежде чем они смогут сопоставить взаимосвязь между текстом и ответом.

Кроме того, необходимо использовать другие языковые инструменты и модели, чтобы помочь ИИ предсказывать слова, используемые в каждом ответе.

Ранее в кратком исследовании ChatGPT говорилось, что OpenAI хорошо осведомлен о предвзятости ИИ и инстинктивно добавляет границы ИИ, чтобы иметь возможность отфильтровывать оскорбительные, расистские или даже сексистские комментарии.

Эти ограничения максимально упрощены, чтобы ChatGPT не генерировал неуместные ответы. Также реализован список запрещенных ключевых слов, фраз и рекомендаций, чтобы модель ИИ не стала ошибочной и не использовала запрещенный контент.

Читайте также: Meta планирует добавить ИИ в Instagram, Whatsapp и Messenger

Читайте также: Google, вызвав искусственный интеллект, увольняет старшего инженера

Читайте также: Fita представляет спортивные функции с технологией искусственного интеллекта

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.