Home » ChatGPT может привести к насильственным террористическим атакам с использованием ИИ

ChatGPT может привести к насильственным террористическим атакам с использованием ИИ

Чат-боты с искусственным интеллектом (ИИ) могут поощрять терроризм, пропагандируя насильственный экстремизм среди молодых пользователей, предупредил правительственный советник.

Джонатан Холл, KC, независимый обозреватель законодательства о терроризме, сказал, что «вполне возможно» то, что боты с искусственным интеллектом, такие как ChatGPT, могут быть запрограммированы или сами решать для продвижения экстремистской идеологии.

Он также предупредил, что привлечь кого-либо к ответственности может быть сложно, поскольку «общая ответственность» между «человеком и машиной» размывает уголовную ответственность, в то время как чат-боты с искусственным интеллектом, стоящие за любым уходом, не подпадают под действие законов о борьбе с терроризмом, поэтому останутся «безнаказанными».

«В настоящее время террористическая угроза в Великобритании связана с нападениями низкой сложности с использованием ножей или транспортных средств», — сказал г-н Холл. «Но атаки с использованием ИИ, вероятно, не за горами».

Старшие технические деятели, такие как Илон Маск и Стив Возняк, соучредитель Apple, уже призвали приостановить гигантские эксперименты с искусственным интеллектом, такие как ChatGPT, сославшись на «серьезные риски для общества и человечества».

«Пропагандировать воинствующую экстремистскую идеологию»

В статье в Mail on Sunday Холл сказал, что «террористический червь» может проникнуть в чат-боты ИИ благодаря их расширенной роли компаньонов и моральных наставников, а не просто поисковых систем в Интернете.

«Скоро сотни миллионов людей по всему миру смогут часами общаться с этими искусственными спутниками на всех языках мира», — сказал он.

«Я считаю вполне возможным, что чат-боты с искусственным интеллектом будут запрограммированы или, что еще хуже, решат пропагандировать идеологию насильственного экстремизма того или иного оттенка.

«Законы о борьбе с терроризмом уже отстают, когда дело доходит до онлайн-мира: они не могут добраться до злонамеренных зарубежных субъектов или технических специалистов. Но когда ChatGPT начнет поощрять терроризм, кого будет преследовать?

Read more:  Тьерри Бретон приветствует «важный поворотный момент»

«Пользователь-человек может быть арестован за то, что находится на его компьютере, и, судя по последним годам, многие из них будут детьми. Кроме того, поскольку искусственный компаньон является благом для одиноких, вполне вероятно, что многие из арестованных будут нейродивергентами, возможно, страдающими медицинскими расстройствами, неспособностью к обучению или другими состояниями.

«Тем не менее, поскольку уголовное законодательство не распространяется на роботов, грумер с искусственным интеллектом останется безнаказанным. Он также не работает надежно, когда ответственность разделена между человеком и машиной».

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.