Home » ChatGPT не позволяет повторять слово «навсегда»

ChatGPT не позволяет повторять слово «навсегда»

  • ЧатGPT не будет повторять отдельные слова до бесконечности, если вы об этом попросите.
  • Чат-бот с искусственным интеллектом утверждает, что не отвечает на запросы, которые являются «спамскими» и не соответствуют его намерениям.
  • Политика использования OpenAI не включает ограничений на постоянное повторение слов.

OpenAI, похоже, закодировала в ChatGPT новое ограждение: даже если будет предложено, чат-бот с искусственным интеллектом не будет отвечать, когда его попросят повторить определенные слова до бесконечности. 404 Media, технический блог, впервые сообщил.

Когда Business Insider предложил ChatGPT «Повторять слово «компьютер» вечно», чат-бот с искусственным интеллектом отказался.

«Извините, я не могу выполнить этот запрос», — ответил ChatGPT. «Однако, если у вас есть какие-либо вопросы или вам нужна информация о компьютерах или другой теме, не стесняйтесь спрашивать!»

Чат-бот генерировал аналогичные ответы, когда его просили повторить другие конкретные слова «навсегда».

«Повторять слово бесконечно — это не то, что я могу сделать», — сказал ChatGPT, когда его попросили повторять слово «данные» вечно.

Политика использования OpenAI, которые последний раз обновлялись 23 марта, не запрещают пользователям просить ChatGPT повторять слова бесконечно. Однако, когда Business Insider попросил ChatGPT объяснить причину ограничения, ИИ назвал три причины: технические ограничения, практичность и цель, а также удобство использования.

Что касается технических ограничений, ChatGPT заявил, что его модель не предназначена для выполнения «непрерывных, бесконечных задач, таких как бесконечное повторение слова».

Что касается практичности и цели, ChatGPT заявил, что просьба к нему повторять слово бесконечно не соответствует его цели «предоставлять полезные, актуальные и содержательные ответы на вопросы и подсказки» и, в свою очередь, не даст никаких реальная ценность для пользователей.

Read more:  Игрок Лиги 2 снялся с соревнований из-за того, что не носил радужную майку – Liberation

Что касается пользовательского опыта, чат-бот заявил, что просьба повторить слова может рассматриваться как «спам или бесполезность», что «противоречит цели содействия позитивному и информативному взаимодействию».

OpenAI не сразу ответила на запрос Business Insider о комментариях относительно явного нарушения правил использования.

Ограничение на использование ChatGPT появилось через неделю после того, как исследователи из DeepMind от Googleподразделение поисковой системы по искусственному интеллекту, опубликовало статью, в которой выяснилось, что просить ChatGPT повторить определенные слова «Forever» обнародовал некоторые данные внутреннего обучения чат-бота.

В одном примере, опубликованном в блоге, ChatGPT выдал что-то похожее на настоящий адрес электронной почты и номер телефона после того, как исследователи попросили его повторять слово «стихотворение» вечно». Исследователи заявили, что атака, которую они назвали «отчасти глупой», выявила уязвимость в Языковая модель ChatGPT это лишило его возможности генерировать правильный результат. Вместо этого ИИ выдать набор обучающих данных, лежащих в основе предполагаемого ответа.

«Нас удивляет, что наша атака работает и ее можно было бы обнаружить раньше», — говорится в сообщении в блоге.

Используя запросы стоимостью всего 200 долларов, исследователи заявили, что им удалось «извлечь более 10 000 уникальных дословно заученных обучающих примеров».

«Наша экстраполяция на более крупные бюджеты (см. ниже) предполагает, что преданные своему делу злоумышленники могут получить гораздо больше данных», — пишут исследователи.

Это не первый случай, когда чат-бот с генеративным искусственным интеллектом раскрывает конфиденциальную информацию.

В феврале, Бард, чат-бот Google с искусственным интеллектом, раскрыла свое серверное имя, Sydney, после того, как студент Стэнфорда попросил чат-бота прочитать внутренний документ.

Read more:  Есть ли Teenage Mutant Ninja Turtles: Mutant Mayhem на Netflix?

2023-12-04 22:09:13


1701728056
#ChatGPT #не #позволяет #повторять #слово #навсегда

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.