12 мая 2015 г.
В течение многих лет политологи исследовали вопрос о влиянии социальных сетей на политические воззрения индивидуумов в обществе. Специалисты замечали, что регулярное чтение новостной ленты, к примеру, в Facebook, формируют такие взгляды у пользователей, что они становятся менее терпимыми к иным политическим течениям.
Исследователи установили, что социальные сети формируют так называемый "фильтрующий пузырь": новостная лента устроена таким образом, что она подбирает посты, согласующиеся с интересами пользователя, и отфильтровывает все остальные. К примеру, новостные ленты либералов и консерваторов будут сильно отличаться друг от друга, в результате чего им будет сложнее понять взгляды друг друга.
"Фильтрующим пузырём" специалисты называют персонализированное пользование Интернетом, которое создаётся благодаря работе различных алгоритмов, созданных технологическими компаниями. Пользователь живёт в неком информационном пространстве, игнорируя неугодную ему информацию о мире (подчас сам того не желая).
По большей части такая фильтрация довольно полезна: музыкант и химик получат разную информацию по запросу "тяжёлый металл" (хеви-метал — прим. ред.). Однако в некоторых случаях, к примеру, при проведении покупок в Сети, пользователи также получат разную информацию, которую им выдадут по результатам анализа их предыдущих запросов — данных, часто собранных без их ведома и согласия.
В рамках нового исследования учёные сосредоточились на проблеме политической поляризации и решили выяснить, какой вклад в это явление привнесли новостные ленты в социальных сетях.
Просмотр "новостей" сегодня — не просто чтение новостей друзей и сообществ, изложенные в хронологическом порядке. Так, компания Facebook использует определённый алгоритм фильтрации, чтобы ранжировать эти сообщения, и чем больше человек пользуется социальной сетью, тем сильнее подстраивается под него этот персонализированный алгоритм.
Поначалу компания ориентировалась на "лайки" и "клики", но затем специалисты поняли, что этого недостаточно для выявления глубинных интересов пользователя. И тогда было введено понятие коэффициента релевантности. Этот коэффициент, привязанный к человеческому фактору, определяет, что в конечном итоге попадёт к пользователю в ленту новостей и на каком месте в ней.
Например, видео с милыми котятами может набрать большее количество "лайков" и "кликов", но это не означает, что все "лайкнувшие" его пользователи постоянно захотят видеть у себя в новостной ленте подобные посты. И потому оно получает низкий коэффициент релевантности.
Данный алгоритм не только влияет на то, насколько интересно будет человеку листать новости в Facebook. Исследователи утверждают, что представители различных политических воззрений — к примеру, либералы и консерваторы — редко узнают о проблемах, касающихся "противоположного лагеря", поскольку их запросы не указывают на заинтересованность в этом вопросе. Это приводит к политической поляризации. Из-за этого политически ангажированные люди не узнают о темах и идеях друг друга, если не придерживаются схожих взглядов.
Авторы нового исследования проводили свой эксперимент на взрослых американцах, которые заходят в Facebook, по крайней мере, четыре раза в неделю. В итоге учёные получили данные о 10 миллионах испытуемых, чьи политические взгляды разнесли по шкале от минус двух (крайне консервативные) до плюс двух (крайне либеральные). Эту информацию пользователи сами вводят в своём профиле на странице в социальной сети.
Вместо того чтобы измерить политическую окраску из ленты новостей на основе семантического анализа, команда использовала несколько более сложный, но точный, по заверениям учёных, метод. Политическая направленность каждого поста в ленте новостей определялась политическими взглядами каждого пользователя, который разместил этот пост на своей странице.
Исследователи проанализировали все новостные статьи политических изданий, которые как появлялись в лентах пользователей, так и отфильтровывались "пузырём" — с 2011 по 2012 год. Больше всего учёных интересовали универсальные статьи, которые появлялись в новостных лентах как консерваторов, так и либералов.
Сравнивая две группы постов — "одобренные" и "неодобренные" алгоритмом релевантности — исследователи обнаружили, что Facebook действительно создаёт эффект эхо-камеры. Однако этот эффект далеко не столь существенный, как о нём говорили: в статье, опубликованной в журнале Science, команда утверждает, что "фильтрующий пузырь" понижает лишь на 1% вероятность попадания универсальных статей к пользователям одних или других политических взглядов. Наибольшее влияние на получаемую информацию по-прежнему имеют сами пользователи, отмечают исследователи.
Выходит, политологи по-прежнему не понимают, положительно или отрицательно влияет чтение новостных лент в социальных сетях на демократическое общество. Для этого, утверждают эксперты, необходимо будет выяснить, как такое времяпрепровождение влияет на то, как граждане голосуют.
Ася Горина