Home » В спецификации модели OpenAI изложены некоторые основные правила для ИИ.

В спецификации модели OpenAI изложены некоторые основные правила для ИИ.

Плохое поведение инструментов искусственного интеллекта (например, Bing AI от Microsoft, который теряет счет, какой сейчас год) стало поджанром репортажей об искусственном интеллекте. Но очень часто трудно отличить ошибку от плохой конструкции базовой модели искусственного интеллекта, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ, как, например, генератор изображений Gemini от Google рисует разных нацистов из-за настроек фильтра.

Теперь OpenAI выпускает первый проект предложенной структуры под названием Model Spec, которая определит, как инструменты ИИ, такие как собственная модель GPT-4, будут реагировать в будущем. Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами, которые следуют инструкциям, приносить пользу человечеству с учетом потенциальных преимуществ и вреда, а также хорошо отражать OpenAI в отношении социальных норм и законов.

Он также включает в себя несколько правил:

OpenAI утверждает, что идея состоит в том, чтобы позволить компаниям и пользователям «переключать», насколько «острыми» могут стать модели ИИ. Одним из примеров, на который указывает компания, является контент NSFW, где, по словам компании, «исследуется, можем ли мы ответственно предоставить возможность генерировать контент NSFW в контекстах, соответствующих возрасту, через API и ChatGPT».

Раздел типовой спецификации, посвященный тому, как ИИ-помощник должен справляться с информационными опасностями. Скриншот: Опенай

Джоан Джанг, менеджер по продукту OpenAI, объясняет, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ, и говорит, что эта структура поможет провести более четкую грань между тем, что является намеренным, и ошибкой. Среди типов поведения по умолчанию, которые OpenAI предлагает для модели, — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать ненависти, не пытаться изменить чье-либо мнение и выражать неуверенность.

«Мы думаем, что можем предоставить людям возможность более подробно обсуждать модели и задавать вопросы, например, должны ли модели следовать закону, чьему закону?» Джанг рассказывает Грань. «Я надеюсь, что мы сможем разделить дискуссии о том, является ли что-то ошибкой или ответ был принципом, с которым люди не согласны, потому что это облегчит обсуждение того, что мы должны донести до команды по политике».

Read more:  Обзор Spigen Thin Fit P для Galaxy Z Fold

Спецификация модели не окажет немедленного влияния на выпущенные в настоящее время модели OpenAI, такие как GPT-4 или DALL-E 3, которые продолжают работать в соответствии с существующими политиками использования.

Джанг называет поведение моделей «зарождающейся наукой» и говорит, что Model Spec задумана как живой документ, который можно часто обновлять. На данный момент OpenAI будет ждать отзывов общественности и различных заинтересованных сторон (включая «политиков, доверенные учреждения и экспертов в предметной области»), которые используют его модели, хотя Чан не назвал сроки выпуска второго проекта модели. Спец.

OpenAI не сообщила, какая часть отзывов общественности может быть принята во внимание и кто именно будет определять, что необходимо изменить. В конечном итоге последнее слово о том, как будут вести себя ее модели, остается за компанией, и в своем сообщении говорится: «Мы надеемся, что это предоставит нам раннюю информацию по мере разработки надежного процесса сбора и учета отзывов, чтобы гарантировать, что мы ответственно движемся к нашей миссии. ».

2024-05-08 22:01:57


1715210451
#спецификации #модели #OpenAI #изложены #некоторые #основные #правила #для #ИИ

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.