Оказывается, чтобы снизить политический накал, достаточно спрятать агрессивные твиты куда подальше.
Учёные из Стэнфорда и нескольких других университетов показали : изменить алгоритмы социальных сетей можно не только с их разрешения — и не обязательно удалять политические посты, чтобы снизить накал вражды между сторонниками разных партий. В новом исследовании они представили инструмент, который позволяет перестроить ленту X (бывший <span class="blocked-highlight" title="Соцсеть заблокирована на территории РФ">Twitter</span>), чтобы агрессивные и антидемократичные публикации попадались реже — без удаления, просто опускаясь ниже в потоке контента.
Эффект оказался ощутимым. Люди, у которых такие посты в течение 10 дней искусственно занижались, начинали относиться к представителям другой партии заметно теплее. И это работало вне зависимости от политических взглядов: как у демократов, так и у республиканцев. Разработчики считают, что в будущем такая технология может не только ослабить вражду в сети, но и вернуть контроль над алгоритмами пользователям — впервые за всё время существования социальных платформ.
<blockquote> «Алгоритмы соцсетей напрямую влияют на нашу жизнь, но до сих пор только платформы могли их понимать и контролировать. Мы показали, что это может делать и сам пользователь», — говорит Майкл Бернстайн, профессор Стэнфорда и один из авторов работы.
</blockquote> Вместо попытки «отфильтровать» плохой контент или заставить пользователей отказаться от платформ, команда подошла к проблеме точечно. Они создали браузерное расширение — лёгкий в использовании инструмент, который с помощью модели ИИ анализирует содержимое постов и меняет их порядок в ленте. Сам контент остаётся — просто меньше шансов, что он попадётся вам сразу.
Расширение отслеживает публикации, содержащие антидемократические установки и признаки политической ненависти. Это может быть призыв к насилию, предложения сажать сторонников другой партии, категорическое отрицание фактов, неудобных для «своих», или открытое отторжение любых компромиссов.
Идея в том, чтобы «плохой» контент не провоцировал мгновенную эмоциональную реакцию: отвращение, злость, страх. Как объясняет Жанн Цай, профессор психологии в Стэнфорде и соавтор исследования, такие посты «похищают внимание» за доли секунды и сразу создают негативный настрой — даже если человек это не осознаёт.
В исследовании приняли участие около 1 200 человек. Они согласились установить расширение и наблюдать за своей лентой в течение 10 дней. У части пользователей алгоритм понижал в ленте посты с радикальной риторикой, у другой — наоборот, делал их более заметными. Была и контрольная группа, в ленту которой никто не вмешивался.
Результаты оказались наглядными. У тех, у кого негативные посты занижались, отношение к сторонникам другой партии улучшилось в среднем на 2 пункта по стобалльной шкале. Это примерно столько же, сколько у населения США в целом меняется за 3 года. Те же, у кого такие посты поднимались выше, начинали относиться к оппонентам хуже.
Но главное — дело не только в политике. Люди стали реже испытывать гнев, печаль и другие негативные эмоции. Их общее восприятие соцсети улучшилось в целом.
Прежде похожие попытки влиять на поляризацию в соцсетях давали противоречивые результаты. Часто они были грубыми: от ранжирования постов по времени до полного отказа от использования платформ.
<blockquote> «Модель не выкидывает ошибки, а учится на них. Мы хотим, чтобы люди чувствовали, что сами могут настраивать свою информационную среду», — объясняет Тициано Пиккарди, ведущий автор работы, сейчас профессор в Университете Джонса Хопкинса.
</blockquote> Исследование стало результатом совместной работы Стэнфорда, Университета Вашингтона и Северо-восточного университета. В команде были специалисты по компьютерным наукам, психологии, коммуникациям и информационным технологиям. Они также открыли код инструмента, чтобы другие исследователи могли создавать свои версии — независимо от алгоритмов самих соцсетей.
В будущем команда планирует протестировать похожие алгоритмы, нацеленные уже не на политику, а на ментальное здоровье. И хотя пока это всего лишь эксперимент, он показывает: изменить тональность социальных сетей можно даже маленькими техническими приёмами — если дать людям инструменты и немного контроля.
Учёные из Стэнфорда и нескольких других университетов показали : изменить алгоритмы социальных сетей можно не только с их разрешения — и не обязательно удалять политические посты, чтобы снизить накал вражды между сторонниками разных партий. В новом исследовании они представили инструмент, который позволяет перестроить ленту X (бывший <span class="blocked-highlight" title="Соцсеть заблокирована на территории РФ">Twitter</span>), чтобы агрессивные и антидемократичные публикации попадались реже — без удаления, просто опускаясь ниже в потоке контента.
Эффект оказался ощутимым. Люди, у которых такие посты в течение 10 дней искусственно занижались, начинали относиться к представителям другой партии заметно теплее. И это работало вне зависимости от политических взглядов: как у демократов, так и у республиканцев. Разработчики считают, что в будущем такая технология может не только ослабить вражду в сети, но и вернуть контроль над алгоритмами пользователям — впервые за всё время существования социальных платформ.
<blockquote> «Алгоритмы соцсетей напрямую влияют на нашу жизнь, но до сих пор только платформы могли их понимать и контролировать. Мы показали, что это может делать и сам пользователь», — говорит Майкл Бернстайн, профессор Стэнфорда и один из авторов работы.
</blockquote> Вместо попытки «отфильтровать» плохой контент или заставить пользователей отказаться от платформ, команда подошла к проблеме точечно. Они создали браузерное расширение — лёгкий в использовании инструмент, который с помощью модели ИИ анализирует содержимое постов и меняет их порядок в ленте. Сам контент остаётся — просто меньше шансов, что он попадётся вам сразу.
Расширение отслеживает публикации, содержащие антидемократические установки и признаки политической ненависти. Это может быть призыв к насилию, предложения сажать сторонников другой партии, категорическое отрицание фактов, неудобных для «своих», или открытое отторжение любых компромиссов.
Идея в том, чтобы «плохой» контент не провоцировал мгновенную эмоциональную реакцию: отвращение, злость, страх. Как объясняет Жанн Цай, профессор психологии в Стэнфорде и соавтор исследования, такие посты «похищают внимание» за доли секунды и сразу создают негативный настрой — даже если человек это не осознаёт.
В исследовании приняли участие около 1 200 человек. Они согласились установить расширение и наблюдать за своей лентой в течение 10 дней. У части пользователей алгоритм понижал в ленте посты с радикальной риторикой, у другой — наоборот, делал их более заметными. Была и контрольная группа, в ленту которой никто не вмешивался.
Результаты оказались наглядными. У тех, у кого негативные посты занижались, отношение к сторонникам другой партии улучшилось в среднем на 2 пункта по стобалльной шкале. Это примерно столько же, сколько у населения США в целом меняется за 3 года. Те же, у кого такие посты поднимались выше, начинали относиться к оппонентам хуже.
Но главное — дело не только в политике. Люди стали реже испытывать гнев, печаль и другие негативные эмоции. Их общее восприятие соцсети улучшилось в целом.
Прежде похожие попытки влиять на поляризацию в соцсетях давали противоречивые результаты. Часто они были грубыми: от ранжирования постов по времени до полного отказа от использования платформ.
<blockquote> «Модель не выкидывает ошибки, а учится на них. Мы хотим, чтобы люди чувствовали, что сами могут настраивать свою информационную среду», — объясняет Тициано Пиккарди, ведущий автор работы, сейчас профессор в Университете Джонса Хопкинса.
</blockquote> Исследование стало результатом совместной работы Стэнфорда, Университета Вашингтона и Северо-восточного университета. В команде были специалисты по компьютерным наукам, психологии, коммуникациям и информационным технологиям. Они также открыли код инструмента, чтобы другие исследователи могли создавать свои версии — независимо от алгоритмов самих соцсетей.
В будущем команда планирует протестировать похожие алгоритмы, нацеленные уже не на политику, а на ментальное здоровье. И хотя пока это всего лишь эксперимент, он показывает: изменить тональность социальных сетей можно даже маленькими техническими приёмами — если дать людям инструменты и немного контроля.
- Источник новости
- www.securitylab.ru