Home » Исследователи говорят, что алгоритм Facebook «влиятелен», но не обязательно меняет убеждения

Исследователи говорят, что алгоритм Facebook «влиятелен», но не обязательно меняет убеждения

Алгоритмы, лежащие в основе Facebook и Instagram, которые определяют то, что миллиарды людей видят в социальных сетях, годами находились в центре внимания законодателей, активистов и регулирующих органов. Многие призывают к отмене алгоритмов, чтобы остановить распространение вирусной дезинформации и предотвратить разжигание политических разногласий.

Но четыре новых исследования, опубликованные в четверг, в том числе одно, в котором изучались данные о 208 миллионах американцев, которые использовали Facebook на президентских выборах 2020 года, усложняют это повествование.

В своих работах исследователи из Техасского университета, Нью-Йоркского университета, Принстона и других учреждений обнаружили, что удаление некоторых ключевых функций алгоритмов социальных платформ «не оказало заметного влияния» на политические убеждения людей. По словам исследователей, в одном из экспериментов с алгоритмом Facebook знания людей о политических новостях снижались, когда у них была удалена возможность повторно делиться сообщениями.

В то же время, согласно другому исследованию, потребление политических новостей в Facebook и Instagram было сильно разделено по идеологии. Исследование показало, что более 97 процентов ссылок на новости, которые специалисты по проверке фактов в приложениях во время выборов 2020 года оценили как ложные, привлекли больше консервативных читателей, чем либеральных.

Исследования, опубликованные в журналах Science и Nature, дают противоречивую и детализированную картину того, как американцы использовали две крупнейшие в мире социальные платформы и как они на них влияли. Противоречивые результаты показали, что на понимание роли социальных сетей в формировании дискурса могут уйти годы.

Документы также выделялись большим количеством включенных пользователей Facebook и Instagram, а также тем, что исследователи получали данные, формулировали и проводили эксперименты в сотрудничестве с Meta, которой принадлежат приложения. Эти исследования являются первыми в серии из 16 рецензируемых статей. Предыдущие исследования в социальных сетях основывались в основном на общедоступной информации или на небольшом количестве пользователей с информацией, которая была «украдена» или загружена из Интернета.

Талия Страуд, основатель и директор Центра взаимодействия со СМИ Техасского университета в Остине, и Джошуа Такер, профессор и соучредитель Центра социальных сетей и политики Нью-Йоркского университета, помогавшие руководить проектом. сказали, что они «теперь знают, насколько алгоритм влияет на формирование опыта людей на платформе».

Но г-жа Страуд сказала в интервью, что исследование показало «довольно сложные социальные проблемы, с которыми мы имеем дело» и что, вероятно, не существует «серебряной пули» для воздействия социальных сетей.

Read more:  Доказательство того, что беременная Рианна встретила гала-концерт 2023 года в образе Шанель

«Мы должны быть осторожны с тем, что, по нашим предположениям, происходит, а не с тем, что происходит на самом деле», — сказала Кэти Харбат, бывший директор по общественной политике Meta, покинувшая компанию в 2021 году. Она добавила, что исследования опровергли «предполагаемое влияние социальных сетей». По ее словам, на политические предпочтения людей влияет множество факторов, и «одни только социальные сети не виноваты во всех наших бедах».

Meta, объявившая в августе 2020 года о своем участии в исследовании, потратила 20 миллионов долларов на работу Национального центра изучения общественного мнения при Чикагском университете, независимого агентства, которое помогало в сборе некоторых данных. Компания не платила исследователям, хотя некоторые из ее сотрудников работали с учеными. Meta смогла наложить вето на запросы данных, которые нарушали конфиденциальность ее пользователей.

Работа не была моделью для будущих исследований, поскольку требовала прямого участия Meta, которая хранила все данные и предоставляла исследователям только определенные виды, сказал Майкл Вагнер, профессор массовых коммуникаций в Университете Висконсин-Мэдисон, который был независимый аудитор проекта. Исследователи заявили, что последнее слово в выводах, сделанных в статье, остается за ними.

Ник Клегг, президент Meta по глобальным делам, сказал, что исследования показали, что «существует мало доказательств того, что ключевые особенности платформ Meta сами по себе вызывают пагубную «аффективную» поляризацию или оказывают значимое влияние на эти результаты». Он сказал, что хотя дебаты о социальных сетях и демократии не будут разрешены этими выводами, «мы надеемся и ожидаем, что они улучшат понимание обществом этих проблем».

Газеты приходят в неспокойное время в индустрии социальных сетей. В этом месяце Meta запустила Threads, конкурирующую с Twitter. Илон Маск, владелец Twitter, изменил платформу, совсем недавно переименовав ее в X. Другие сайты, такие как Discord, YouTube, Reddit и TikTok, процветают, а новые участники, такие как Mastodon и Bluesky, похоже, набирают обороты.

В последние годы Meta также пыталась сместить акцент со своих социальных приложений на работу над захватывающим цифровым миром так называемой метавселенной. За последние 18 месяцев Meta получила более 21 миллиарда долларов операционных убытков от своего подразделения Reality Labs, которое отвечает за создание метавселенной.

Read more:  Мейсон Маунт: травмированный полузащитник «Челси» не присоединится к сборной Англии, говорит Грэм Поттер

Исследователи в течение многих лет поднимали вопросы об алгоритмах, лежащих в основе Facebook и Instagram, которые определяют, что люди видят в своих лентах в приложениях. В 2021 году Фрэнсис Хауген, сотрудница Facebook, ставшая осведомителем, еще больше привлекла к ним внимание. Она предоставила законодателям и СМИ тысячи корпоративных документов и заявила в Конгрессе, что алгоритм Facebook «заставлял подростков знакомиться с большим количеством контента об анорексии» и «буквально разжигал этническое насилие» в таких странах, как Эфиопия.

Законодатели, в том числе сенаторы Эми Клобушар, демократ от Миннесоты, и Синтия Ламмис, республиканец от Вайоминга, позже представили законопроекты об изучении или ограничении алгоритмов. Ни один не прошел.

Пользователей Facebook и Instagram попросили и дали согласие на участие в трех исследованиях, опубликованных в четверг, при этом их идентифицирующая информация была скрыта. В четвертом исследовании компания предоставила исследователям анонимные данные 208 миллионов пользователей Facebook.

Одно из исследований называлось «Как алгоритмы социальных сетей влияют на отношение?» В этом исследовании, в котором приняли участие более 23 000 пользователей Facebook и 21 000 пользователей Instagram, исследователи заменили алгоритмы лентой в обратном хронологическом порядке, что означает, что люди сначала видят самые последние сообщения, а не сообщения, которые в значительной степени соответствуют их интересам.

Тем не менее, исследователи обнаружили, что «поляризация» людей, или политическое знание, не изменилась. В опросах ученых люди не сообщали об изменении своего поведения, например, о том, чтобы подписывать больше онлайн-петиций или посещать больше политических митингов, после того, как их каналы были изменены.

Вызывает тревогу то, что лента в обратном хронологическом порядке увеличила количество ненадежного контента, который видели люди, согласно исследованию.

Исследование, в котором изучались данные 208 миллионов американских пользователей Facebook во время выборов 2020 года, показало, что они были разделены политической идеологией: те, кто идентифицировал себя как консерваторы, видели больше дезинформации, чем те, кто идентифицировал себя как либералы.

Согласно исследованию, консерваторы, как правило, читали гораздо больше ссылок на политические новости, которые почти исключительно читали другие консерваторы. Из новостных статей, отмеченных сторонними специалистами по проверке фактов как ложные, более 97 процентов были расценены скорее консерваторами, чем либералами. Страницы и группы Facebook, которые позволяют пользователям следить за интересующими их темами, делились ссылками на гиперпартийные статьи чаще, чем друзья пользователей.

Read more:  Кооперативные магазины запирают мясо на сумму всего 3,75 фунтов стерлингов в сейфах, чтобы «предотвратить магазинные кражи»

Страницы и группы Facebook были «очень мощной машиной курирования и распространения», говорится в исследовании.

Тем не менее, по словам исследователей, доля ложных новостных статей, которые читают пользователи Facebook, была низкой по сравнению со всеми просмотренными новостными статьями.

В другом документе исследователи обнаружили, что сокращение количества контента в лентах 23 000 пользователей Facebook, который был размещен «единомышленниками», не оказало заметного влияния на убеждения или политическую поляризацию тех, кто участвовал.

«Эти результаты бросают вызов популярным нарративам, обвиняющим эхо-камеры социальных сетей в проблемах современной американской демократии», — говорят авторы исследования.

В четвертом исследовании, в котором приняли участие 27 000 пользователей Facebook и Instagram, люди заявили, что их знания политических новостей упали, когда в ходе эксперимента у них лишили возможности делиться постами. Газета пришла к выводу, что удаление кнопки «Поделиться» в конечном итоге не изменило убеждений или мнений людей.

Исследователи предупредили, что на их результаты повлияло множество переменных. Например, время проведения некоторых экспериментов прямо перед президентскими выборами 2020 года могло означать, что политические взгляды пользователей уже укрепились.

Некоторые выводы могут быть устаревшими. С тех пор как исследователи приступили к работе, Meta отошла от демонстрации новостного контента от издателей в основных новостных лентах пользователей на Facebook и Instagram. Компания также регулярно настраивает и корректирует свои алгоритмы, чтобы поддерживать интерес пользователей.

Исследователи заявили, что они, тем не менее, надеются, что документы приведут к расширению работы в этой области с участием других компаний, работающих в социальных сетях.

«Мы очень надеемся, что общество через своих политиков примет меры, чтобы такого рода исследования могли продолжаться в будущем», — сказал г-н Такер из Нью-Йоркского университета. «Это должно быть то, что общество видит в своих интересах».

2023-07-27 22:53:04


1690510372
#Исследователи #говорят #что #алгоритм #Facebook #влиятелен #но #не #обязательно #меняет #убеждения

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.