Home » Наблюдательный совет раскритиковал автоматизированную модерацию Меты в войне между Израилем и ХАМАСом

Наблюдательный совет раскритиковал автоматизированную модерацию Меты в войне между Израилем и ХАМАСом

Сегодня Наблюдательный совет Meta опубликовал свое первое экстренное решение о модерации контента на Facebook. стимулировал конфликтом между Израилем и Хамасом.

Эти два дела связаны с двумя фрагментами контента, размещенными в Facebook и Instagram: один изображает последствия забастовки Больница Аль-Шифа в Газе, а другой показывает похищение израильского заложника, оба из которых компания сначала увезла, а затем восстановила, когда совет взялся за дела. Видео похищения было удалено из-за нарушения политики Меты, созданной после терактов ХАМАС 7 октября, согласно которой лица заложников не показаны, а также давней политики компании по удалению контента, связанного с «опасные организации и частные лица». Пост больницы Аль-Шифа был удален за нарушение политики компании в отношении изображений насилия.

В постановлениях Наблюдательный совет поддержал решения Meta о восстановлении обеих частей контента, но подверг критике некоторые другие методы компании, в частности автоматизированные системы, которые она использует для поиска и удаления контента, нарушающего ее правила. Чтобы обнаружить разжигающий ненависть контент или контент, провоцирующий насилие, платформы социальных сетей используют «классификаторы» — модели машинного обучения, которые могут помечать или удалять публикации, нарушающие их политику. Эти модели составляют основополагающий компонент многих систем модерации контента, особенно потому, что контента слишком много, чтобы человек мог принять решение по каждому отдельному сообщению.

«Мы, как совет директоров, в своих прошлых решениях рекомендовали определенные шаги, включая создание кризисного протокольного центра», — сказал WIRED Майкл Макконнелл, сопредседатель наблюдательного совета. «Автоматизация останется. Но я надеюсь на стратегическое вмешательство человека в тех точках, где автоматизированные системы чаще всего допускают ошибки, и [that] имеют особое значение из-за повышенного общественного интереса и информации, связанной с конфликтами».

Read more:  Юльетт Торрес бросает вызов ограничениям Instagram с помощью миниатюрного купальника

Оба видео были удалены из-за изменений в этих автоматизированных системах, чтобы сделать их более чувствительными к любому контенту, исходящему из Израиля и Газы, который может нарушать политику Меты. Это означает, что системы с большей вероятностью ошибочно удаляли контент, который в противном случае должен был бы оставаться доступным. И эти решения могут иметь реальные последствия.

« [Oversight Board] считает, что соображения безопасности не оправдывают ошибку, связанную с удалением графического контента, целью которого является повышение осведомленности или осуждение потенциальных военных преступлений, преступлений против человечности или серьезных нарушений прав человека», — отмечается в постановлении Аль-Шифы. «Такие ограничения могут даже затруднить получение информации, необходимой для безопасности людей на местах в этих конфликтах». Текущая политика Meta заключается в сохранении контента, который может показывать военные преступления или преступления против человечности, в течение одного года, хотя правление сообщает, что Meta находится в процессе обновления своих систем документации.

«Мы приветствуем сегодняшнее решение Наблюдательного совета по этому делу», — написала Мета в своем сообщении. сообщение в блоге компании. «И самовыражение, и безопасность важны для нас и людей, которые пользуются нашими услугами».

2023-12-19 15:47:33


1703009117
#Наблюдательный #совет #раскритиковал #автоматизированную #модерацию #Меты #войне #между #Израилем #ХАМАСом

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.