Большая часть онлайн-контента рассчитана на высокую вовлеченность, а не на точность.
Развитие алгоритмов социальных сетей увеличило количество способов распространения
научной дезинформации, а также расширило типы дезинформации, с которой вы, вероятно, столкнетесь. Это уже не просто гомеопатия; сегодня это политические и социальные претензии, призванные возмутить вас и заставить поделиться контентом.
Одна вещь, которая действительно возникла и заняла первое место в XXI веке, — это так называемая аффективная поляризация.
Аффективная поляризация — это тенденция людей с партийными чувствами активно не любить людей из оппозиционной политической партии. Социологи активно изучают, почему это явление стало такой заметной чертой.
Причина, вероятно, многофакторна, но одной из причин, безусловно, стал рост алгоритмов социальных сетей, связанный с ростом аффективной поляризации. Основной сюжет (и это не просто какая-то случайная гипотеза, это был предмет большого количества исследований) заключается в том, что статьи в социальных сетях продвигаются (то есть показываются большему количеству людей), когда они получают высокую степень вовлеченности. Если я опубликую фотографию растения в горшке, на нее никто не отреагирует, и алгоритм ее проигнорирует; если я опубликую фотографию детей, которых приносят в жертву культисты, это вызовет огромное возмущение, и все нажмут на нее, репостнут или оставят комментарий. Затем алгоритм продвигает этот пост еще большему количеству людей, вызывая еще больше реакций, и люди проводят больше времени на платформе, выражая свое возмущение. Это означает большую доступность рекламы и, следовательно, больший доход.
Эта система воспользовалась огромным преимуществом аффективной поляризации. Если вы посмотрите на недавние президентские выборы, темы дел в Верховном суде, а также на социальные и религиозные разногласия, высокая аффективная поляризация означает большее возмущение в сообщениях в социальных сетях и, следовательно, гораздо более высокую вовлеченность. Если вы когда-либо нажимали на «гневную» реакцию или делились в социальных сетях статьей, раскрывающей какую-то ужасную новость, которую задумала противостоящая политическая партия, скорее всего, вам показали этот пост, потому что алгоритм знал из вашего прошлого поведения, что ваша политическая партия поляризация означала, что вы, скорее всего, предпримете именно это действие. А те дополнительные минуты, которые вы провели на сайте, просто принесли кому-то деньги.
Когда так много людей во всем мире находятся во власти такого эффективного влияния, неудивительно, что мировые правительства использовали его в своих интересах, чтобы сеять раскол и нестабильность на выборах друг друга. Конечным результатом всего этого является огромное количество онлайн-информации, которая распространяется как в защиту, так и против всего, что вы можете себе представить, особенно всего, что кого-то шокирует и возмущает. И вот очень важный момент: эти онлайн-статьи и посты кажутся нам весьма правдоподобными, независимо от их точности, из-за обратной стороны медали аффективной поляризации, которая представляет собой тенденцию автоматически симпатизировать и доверять людям. Поэтому, поскольку мы видим, что весь этот контент поступает из надежных источников — людей, за которыми мы следим в Интернете, — мы автоматически воспринимаем это как факт.
Из-за этого дезинформацию распознать труднее, чем когда-либо прежде.
Является ли вопрос вызывающим разногласия. Вопросом, из-за которого какая-либо группа становится злодейской?
Это, пожалуй, самый большой тревожный сигнал о том, что статья вполне может быть пропагандой, варьирующейся от преувеличенной до совершенно ложной. Это негативная статья о каких-то ужасных новых действиях какой-то группы, нации или демографической группы, которая вам уже не нравится?
Реальные новостные статьи не вызывают разногласий. Они сообщают о важных событиях. Иногда это преступления или международные конфликты, но настоящие непредвзятые новостные сайты понимают, что все международные конфликты многогранны и сложны; поэтому они, как правило, не сообщают об односторонней точке зрения.
Если вам кажется, что статья слишком точно соответствует вашим предубеждениям, воспринимайте это как предупреждение о том, что алгоритм показал вам что-то, на что, как он знал, вы отреагируете.
Обвиняет ли заголовок некоторую политическую фигуру?
Классическая вызывающая разногласия статья, дезинформирующая, призывает к ответственности какого-нибудь политика, и посвящена какой-то возмутительной, невероятной новой идее, которую пытаются протолкнуть политики. Алгоритмы любят распространять такие истории, потому что очень много людей делятся ими и добавляю комментарии со своим возмущением.
У этой медали есть две стороны. Маргинальные партийные политики часто используют сеющую разногласия терминологию и часто указывают на призраков, чтобы поддерживать воодушевление и использовать эту аффективную поляризацию для сохранения популярности. Но не все всегда это делают. Часто вы обнаружите, что в отчете об их возмутительном поведении есть не что иное, как доля правды, и что в этой истории есть нечто большее, а их настоящие комментарии в контексте вообще не были возмутительными.
Так что просто имейте в виду, что политики, которые вам нравятся, могут заниматься первым; и сеющие разногласия политики, которых вы ненавидите, возможно, занимаются последним. В мире гораздо больше здравомыслия, чем безумия; это просто алгоритмы, которые заставят вас думать иначе.
Поищите на объективном новостном сайте.
Если ваша статья представляет собой некачественную информацию, призванную вызвать разногласия и возмущение, то вы, вероятно, вообще не найдете эту историю на качественных, объективных новостных сайтах. Возникает вопрос, как их найти? Какие источники новостей являются надежными и беспристрастными? Прим. Открытый вопрос. Автор ссылается на американские издания...
Поищите на сайтах проверки фактов.
Если история вымышлена, то почти наверняка кто-то другой уже проделал всю работу за вас. Проверьте это. Найдите его на паре ваших любимых из четырех лучших сайтов по проверке фактов. Автор приводит: Snopes , Politifact , FactCheck.org и BBC Reality Check.
Всегда выполняйте быструю перепроверку источника.
Является ли статья со знакомого новостного сайта, который, как вы уверены, является законным? Если это не так, то вам лучше быстро проверить, настоящий ли этот сайт, или это сайт пародии или сатиры, или просто какой-то мусорный сайт, который недавно был создан без заслуживающего доверия происхождения.
Что делать, если вы обнаружили дезинформацию
Всякий раз, когда вы видите в социальных сетях пост, который вы считаете пропагандой, основанной на алгоритмах, лишите его кислорода. Скройте. При необходимости заблокируйте отправителя. Если сообщение опубликовано другом, сообщите ему, что это, вероятно, пропаганда, основанная на алгоритмах. Убедитесь, что вы не делаете комментарий к самому сообщению, потому что любой комментарий (даже отрицательный) имеет значение и еще больше повышает ценность этой статьи.
Наконец, я рекомендую очистить ваши собственные источники.
Брайан Даннинг
How to Spot Misinformation.
https://skeptoid.com/episodes/4910