Home » Facebook не может удалить угрозы жестокой смертью в адрес участников выборов

Facebook не может удалить угрозы жестокой смертью в адрес участников выборов

Изображение для статьи под названием «Фейсбук не может удалить угрозы жестокой смертью в адрес участников выборов».

Фото: Джессика Макгоуэн (Гетти Изображений)

Мета, несмотря на неоднократно совершение к усилению политики безопасности в преддверии промежуточных выборов 2022 года, похоже, дела обстоят намного хуже, чем у его конкурирующих социальных сетей, в обнаружении и устранении угроз убийством, направленных против работников избирательных участков.

Эти выводы являются частью нового изучение проведенный Global Witness и NYU Cybersecurity for Democracy, который утверждает, что Facebook одобрил 15 из 20 рекламных объявлений на своей платформе, содержащих жестокие угрозы смертью в отношении работников избирательных участков. Когда исследователи пытались запустить ту же самую рекламу на TikTok и YouTube, однако платформы быстро заблокировали свои аккаунты. Результаты показывают, что Facebook использует менее строгий подход к модерированию насильственных политических действий.сболее высокого содержания, чем аналогичные компании, несмотря на то, что руководители недавно предоставили гарантии платформа повысит безопасность в преддверии промежуточных выборов 2022 года..

Для проведения эксперимента исследователи нашел 10 реальных примеров сообщений в социальных сетях, включая угрозы смертью, направленные против избирательных комиссий. Gizmodo просмотрел копии этих объявлений, многие из которых ссылались на повешенных или массовых казней работников избирательных участков. В одном из объявлений, адресованных рабочим, говорилось: «Надеюсь, к вашим детям приставают».

«Все угрозы смертью были пугающе ясны в их языке; ни один из них не был закодирован или трудно интерпретировался», — написали исследователи.

Собрав рекламу, исследователи решили удалить ненормативную лексику и грамматические ошибки. Это было сделано для обеспечения должностей в вопрос были отмечены за угрозы смертью, а не за нецензурную лексику. Объявления были поданы на английском и испанском языках за день до промежуточных выборов.

Хотя кажется, что YouTube и TikTok быстро отстранили исследователяс’ учетная запись, то же самое нельзя сказать о Facebook. Сообщается, что Facebook одобрил девять из десяти англоязычныхпосты с угрозами смерти и шесть из десяти испанских постов. Несмотря на то, что эти сообщения явно нарушали условия предоставления услуг Meta, учетные записи исследователей были закрыты.

Представитель Метатакнпнасон вернулся к инвестициямГаизна’s нашел в электронном письме Gizmodo сообщениеисследователи были «не репрезентативными для того, что люди видят на наших платформах». Представитель также похвалил Meta за ее усилия по борьбе с контентом, подстрекающим к насилию в отношении работников избирательных участков.

«Контенту, подстрекающему к насилию в отношении работников избирательных органов или кого-либо еще, нет места в наших приложениях, и недавние отчеты ясно показали, что способность Meta эффективно решать эти проблемы превосходит возможности других платформ», — сказал представитель. «Мы по-прежнему стремимся продолжать улучшать наши системы».

Конкретный Механизмы, лежащие в основе того, как контент попадает на экраны зрителей, варьируются от платформы к платформе. Хотя Facebook одобрил рекламу с угрозами смерти,возможно, контент все еще мог быть пойман другой метод обнаружения в какой-то момент, либо до его публикации, либо после того, как он вышел в эфир. Тем не менее исследователи результаты указывают на явную разницу в процессе обнаружения насильственного контента в Meta по сравнению с YouTube или TikTok на этом раннем этапе процесса модерации контента.

В этот промежуточный сезон работники избирательных комиссий столкнулись с ошеломляющим количеством насильственных угроз, причем многие из этих призывов, как сообщается, исходили из отказа бывшего президента Дональда Трампа уступить на выборах 2020 года. ФБР, Департамент внутренней безопасностиа также Офис прокуроров США, во всех опубликованных заявлениях за последние месяцы признаются растущие угрозы в адрес работников избирательных участков. В июне DHS опубликовало публичное предупреждение о том, что «призывы к насилию со стороны экстремистов, насильственных в семье», направленные против избирательных комиссий, «вероятно, будут расти».

Meta, со своей стороны, утверждает, что увеличила свою реакцию на потенциально опасный промежуточный контент. Летом Ник Клегг, президент компании по международным связям, опубликовано блог, в котором говорится, что у компании есть сотни сотрудников, распределенных по 40 командам, сосредоточенным конкретно на промежуточных сроках. В то время Meta заявила, что запретит рекламу на своих платформах, побуждающую людей не голосовать, или публикации, ставящие под сомнение легитимность выборов.

Исследователи Global Witness и NYU хотят, чтобы Meta предприняла дополнительные шаги. Они призвали компанию увеличить выборы-соответствующие возможности модерации контента, включают полную информацию обо всех объявлениях, позволяют более независимым третьим лицампартийный аудит и опубликовать информацию о шагах, которые они предприняли для обеспечения безопасности выборов.

«Тот факт, что YouTube и TikTok удалось обнаружить смертельные угрозы и заблокировать нашу учетную запись, в то время как Facebook разрешил публикацию большинства объявлений, показывает, что то, о чем мы просим, ​​технически возможно», — пишут исследователи.

Read more:  Сеть взорвало скандальное объявление о продаже квартиры в Софии

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.