Home » OpenAI хочет, чтобы GPT-4 решил дилемму модерации контента

OpenAI хочет, чтобы GPT-4 решил дилемму модерации контента

OpenAI убежден, что его технология может помочь решить одну из самых сложных технических проблем: модерация контента в масштабе. OpenAI утверждает, что GPT-4 может заменить десятки тысяч модераторов-людей, будучи почти таким же точным и более последовательным. Если это правда, то самые токсичные и психологически сложные задачи в технологии может быть передано на аутсорсинг машинам.

В сообщении в блоге, OpenAI утверждает, что уже использует GPT-4 для разработки и уточнения собственных политик контента, маркировки контента и принятия решений. «Я хочу, чтобы больше людей пользовались доверием и безопасностью, а модерирование [in] таким образом», — руководитель отдела систем безопасности OpenAI Лилиан Венг. сказал Светофор. «Это действительно хороший шаг вперед в том, как мы используем ИИ для решения реальных проблем таким образом, чтобы это было выгодно для общества».

OpenAI видит три основных преимущества по сравнению с традиционными подходами к модерации контента. Во-первых, утверждается, что люди интерпретируют политику по-разному, а машины последовательны в своих суждениях. Эти рекомендации могут быть длинными, как книга, и постоянно меняться. Хотя людям требуется много времени, чтобы учиться и адаптироваться, OpenAI утверждает, что большие языковые модели могут мгновенно реализовывать новые политики.

Во-вторых, GPT-4 якобы может помочь разработать новую политику в течение нескольких часов. Процесс составления, маркировки, сбора отзывов и уточнения обычно занимает недели или несколько месяцев. В-третьих, OpenAI упоминает о благополучии работников, которые постоянно сталкиваются с вредоносным контентом, таким как видео с жестоким обращением с детьми или пытками.

OpenAI может помочь с проблемой, которую усугубила его собственная технология

После почти двух десятилетий существования современных социальных сетей и еще более лет существования онлайн-сообществ модерация контента по-прежнему остается одной из самых сложных задач для онлайн-платформ. Meta, Google и TikTok полагаются на армию модераторов, которым приходится просматривать ужасный и часто травмирующий контент. Большинство из них расположены в развивающихся странах с более низкой заработной платой, работа в аутсорсинговых компанияхи борются с психическим здоровьем, поскольку они получают лишь минимальный объем психиатрической помощи.

Read more:  Аарон Бун — за глубокий дайв Хэла Стейнбреннера в «Янкиз»

Однако сам OpenAI в значительной степени зависит от кликворкеров и человеческого труда. Тысячи людей, многие из которых в африканских странах, таких как Кения, комментируют и маркируют контент. СМС могут мешать, работа напряженная, а зарплата маленькая.

В то время как OpenAI рекламирует свой подход как новый и революционный, ИИ уже использовался за модерацию контента на годы. Представление Марка Цукерберга об идеальной автоматизированной системе еще не совсем оправдалось, но Meta использует алгоритмы для модерации подавляющего большинства вредоносного и незаконного контента. Такие платформы, как YouTube и TikTok, используют аналогичные системы, поэтому технология OpenAI может понравиться небольшим компаниям, у которых нет ресурсов для разработки собственной технологии.

Каждая платформа открыто признает, что идеальная модерация контента в больших масштабах невозможна. И люди, и машины совершают ошибки, и, хотя процент может быть низким, по-прежнему остаются миллионы вредоносных сообщений, которые проскальзывают, и столько же фрагментов безвредного контента скрываются или удаляются.

В частности, серая зона вводящего в заблуждение, неправильного и агрессивного контента, который не обязательно является незаконным, представляет собой серьезную проблему для автоматизированных систем. Даже экспертам-людям сложно маркировать такие посты, и машины часто ошибаются. То же самое относится к сатире или изображениям и видео, которые задокументировать преступления или жестокость полиции.

В конце концов, OpenAI может помочь решить проблему, которую усугубила его собственная технология. Генеративный ИИ, такой как ChatGPT или создатель изображений компании DALL-E, значительно упрощает создание масштабной дезинформации и ее распространение в социальных сетях. Хотя OpenAI пообещал сделать ChatGPT более правдивым, ГПТ-4 до сих пор охотно производит ложь и дезинформация, связанные с новостями.

2023-08-15 20:50:15


1692141055
#OpenAI #хочет #чтобы #GPT4 #решил #дилемму #модерации #контента

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.