Home » На платформах социальных сетей чем больше делиться, тем меньше заботиться о точности | Новости Массачусетского технологического института

На платформах социальных сетей чем больше делиться, тем меньше заботиться о точности | Новости Массачусетского технологического института

Как пользователь социальных сетей, вы можете захотеть поделиться контентом. Вы также можете попробовать судить, правда это или нет. Но для многих людей трудно расставить приоритеты в обеих этих вещах одновременно.

Таков вывод нового эксперимента, проведенного учеными из Массачусетского технологического института, который обнаружил, что даже принимая во внимание, делиться ли новостями в социальных сетях, снижается способность людей отличать правду от лжи.

В ходе исследования людей просили оценить, насколько точны различные заголовки новостей. Но если бы участников сначала спросили, будут ли они делиться этим контентом, они бы на 35% хуже отличали правду от лжи. Участники также оказались на 18% менее успешны в распознавании истины, когда их спросили о том, чем поделиться, сразу после их оценки.

«Просто спрашивая людей, хотят ли они поделиться чем-то, они с большей вероятностью поверят заголовкам, в которые в противном случае не поверили бы, и с меньшей вероятностью поверят заголовкам, в которые они бы поверили», — говорит Дэвид Рэнд, профессор Школы менеджмента Слоуна при Массачусетском технологическом институте. и соавтор новой статьи с подробным описанием результатов исследования. «Мысли о совместном использовании просто смешивают их».

Результаты свидетельствуют о существенном противоречии между обменом и точностью в сфере социальных сетей. В то время как готовность людей делиться новостным контентом и их способность точно судить о нем могут поддерживаться по отдельности, исследование показывает, что эти две вещи не усиливают друг друга, если рассматривать их одновременно.

«В ту секунду, когда вы спрашиваете людей о точности, вы подсказываете им, а в ту же секунду, когда вы спрашиваете об обмене информацией, вы подсказываете им», — говорит Зив Эпштейн, аспирант группы Human Dynamics в MIT Media Lab и еще один из соавторы статьи. «Если вы одновременно спрашиваете об обмене информацией и точности, это может подорвать способность людей различать правду».

Read more:  Дрэймонд Грин катапультировался после того, как наступил на грудь Домантасу Сабонису

Статья «Контекст социальных сетей мешает распознанию правды» опубликована сегодня в Научные достижения. Авторы — Эпштейн; Натаниэль Сирлин, научный сотрудник MIT Sloan; Антонио Аречар, профессор Центра исследований и преподавания экономики в Мексике; Гордон Пенникук, доцент Университета Реджайны; и Рэнд, который является профессором Эрвина Х. Шелла, профессором науки управления, мозга и когнитивных наук, а также директором группы прикладного сотрудничества Массачусетского технологического института.

Чтобы провести исследование, исследователи провели две волны онлайн-опросов 3157 американцев, демографические характеристики которых приближались к средним показателям США по возрасту, полу, этнической принадлежности и географическому распределению. Все участники используют Twitter или Facebook. Людям показали серию правдивых и ложных заголовков о политике и пандемии Covid-19, и они были случайным образом разделены на две группы. Иногда их спрашивали только о точности или только об обмене контентом; в других случаях их спрашивали об обоих, но в разном порядке. Исходя из этого плана опроса, ученые могли определить влияние вопроса об обмене контентом на суждения людей о точности новостей.

При проведении опроса исследователи изучали две гипотезы о распространении информации и суждениях о новостях. Одна из возможностей заключается в том, что вопрос об обмене может сделать людей более разборчивыми в отношении контента, потому что они не захотят делиться вводящими в заблуждение новостями. Другая возможность заключается в том, что спрашивая людей о том, чтобы поделиться заголовками, они обычно отвлекаются, в котором потребители просматривают новости в социальных сетях, и, следовательно, умаляют их способность отличать правду от лжи.

«Наши результаты отличаются от того, чтобы сказать: «Если я сказал вам, что собираюсь поделиться этим, я говорю, что верю этому, потому что не хочу выглядеть так, как будто я поделился чем-то, во что не верю», — говорит Рэнд. «У нас есть доказательства того, что это не то, что происходит. Вместо этого речь идет о более общем отвлечении».

В исследовании также изучались партийные взгляды участников и было обнаружено, что, когда дело дошло до заголовков о Covid-19, подсказка о том, чтобы поделиться информацией, повлияла на мнение республиканцев больше, чем демократов, хотя для заголовков политических новостей не было аналогичного эффекта.

Read more:  То, что Кэролайн ван дер Плас не смогла сделать за три посещения ток-шоу, сделала Op1 | показывать

«На самом деле у нас нет объяснения этому партийному различию», — говорит Рэнд, называя этот вопрос «важным направлением для будущих исследований».

Что касается общих выводов, Рэнд предполагает, что, какими бы обескураживающими ни звучали результаты, в них есть и кое-какие плюсы. Один из выводов исследования заключается в том, что на веру людей в ложь могут больше влиять их модели онлайн-активности, чем активное намерение обмануть других.

«Я думаю, что в этом есть в каком-то смысле обнадеживающий подход, поскольку большая часть послания состоит в том, что люди не являются аморальными и не намеренно делятся плохими вещами», — говорит Рэнд. «И люди не совсем безнадежны. Но больше дело в том, что платформы социальных сетей создали среду, в которой люди отвлекаются».

В конце концов, говорят исследователи, эти платформы социальных сетей могут быть переработаны, чтобы создать условия, в которых люди с меньшей вероятностью будут делиться вводящим в заблуждение и неточным новостным контентом.

«Есть способы транслировать посты, которые не просто направлены на то, чтобы поделиться ими», — говорит Эпштейн.

Он добавляет: «Существует так много возможностей для роста, развития и проектирования этих платформ, которые согласуются с нашими лучшими теориями о том, как мы обрабатываем информацию и можем принимать правильные решения и формировать правильные убеждения. Я думаю, что это прекрасная возможность для разработчиков платформ переосмыслить эти вещи, поскольку мы делаем шаг вперед».

Проект частично финансировался Латиноамериканским офисом MIT Sloan; Инициатива по этике и управлению искусственным интеллектом Фонда Майами; Фонд Уильяма и Флоры Хьюлетт; инициатива Reset компании Luminate; Фонд Джона Темплтона; Фонд TDF; Канадские институты исследований в области здравоохранения; Совет социальных и гуманитарных исследований Канады; Австралийский исследовательский совет; Google; и Facebook.

Read more:  Нью-Джерси входит в десятку самых образованных штатов страны. Вот список.

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.