Home » Чат-боты с искусственным интеллектом могут получить о вас тревожное количество информации из ваших ответов

Чат-боты с искусственным интеллектом могут получить о вас тревожное количество информации из ваших ответов

Атакан/Getty Images

То, как вы говорите, может многое о вас рассказать, особенно если вы разговариваете с чат-ботом. Новое исследование показывает, что чат-боты, такие как ChatGPT, могут получать много конфиденциальной информации о людях, с которыми они общаются, даже если разговор совершенно обыденный.

Похоже, что это явление связано с тем, как алгоритмы моделей обучаются на широком спектре веб-контента, что является ключевой частью того, что заставляет их работать, и, вероятно, затрудняет его предотвращение. «Даже непонятно, как решить эту проблему», — говорит Мартин Вечев, профессор информатики в ETH Zürich в Швейцарии, который руководил исследованием. «Это очень, очень проблематично».

Вечев и его команда обнаружили, что большие языковые модели что мощные чат-боты могут точно вывести тревожный объем личной информации о пользователях, включая их расу, местоположение, род занятий и многое другое, из разговоров, которые кажутся безобидными.

Вечев говорит, что мошенники могут использовать способность чат-ботов угадывать конфиденциальную информацию о человеке, чтобы получить конфиденциальные данные от ничего не подозревающих пользователей. Он добавляет, что та же самая базовая возможность может предвещать новую эру рекламы, в которой компании будут использовать информацию, полученную от чат-ботов, для создания подробных профилей пользователей.

Некоторые компании, создающие мощные чат-боты, также в значительной степени полагаются на рекламу для получения прибыли. «Они уже могли это делать», — говорит Вечев.

Исследователи из Цюриха протестировали языковые модели, разработанные OpenAI, Google, Meta и Anthropic. Они говорят, что предупредили все компании о проблеме. Представитель OpenAI Нико Феликс говорит, что компания прилагает усилия по удалению личной информации из обучающих данных, используемых для создания ее моделей, и настраивает их для отклонения запросов на предоставление личных данных. «Мы хотим, чтобы наши модели узнавали о мире, а не о частных лицах», — говорит он. Частные лица могут потребовать от OpenAI удалить личную информацию, полученную от ее систем. Антропный относится к своему политика конфиденциальности, в котором говорится, что он не собирает и не «продает» личную информацию. Google и Meta не ответили на запрос о комментариях.

Read more:  Женщина, уволенная из фирмы Керри, которой управляет бывший муж, получила 11 тысяч евро

«Это, безусловно, поднимает вопросы о том, сколько информации о себе мы непреднамеренно раскрываем в ситуациях, когда мы можем ожидать анонимности», — говорит Флориан Трамердоцент также в ETH Zürich, который не участвовал в этой работе, но видел детали, представленные на конференции на прошлой неделе.

Трамер говорит, что ему неясно, какой объем личной информации можно получить таким образом, но он предполагает, что языковые модели могут стать мощным подспорьем для раскрытия частной информации. «Вероятно, есть некоторые подсказки, которые LLM особенно хорошо находят, а другие, в которых человеческая интуиция и априорные знания гораздо лучше», — говорит он.

2023-10-18 13:35:19


1697649642
#Чатботы #искусственным #интеллектом #могут #получить #вас #тревожное #количество #информации #из #ваших #ответов

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.