Может ли эффективное регулирование снизить влияние разделительного контента на социальные сети?


    На фоне новой бури споров, вызванных The Facebook Files, разоблачением различных внутренних исследовательских проектов, которые в некоторой степени предполагают, что Facebook делает недостаточно для защиты пользователей от вреда, основной вопрос, который необходимо решить, часто остается искажается присущей им предвзятостью и конкретным таргетингом на Facebook, компанию, в отличие от социальных сетей, и алгоритмическое усиление контента как концепцию.

    То есть что делать, чтобы это исправить? Что можно сделать реально, что действительно изменит ситуацию; Какие изменения в регулировании или политике можно было бы осуществить, чтобы уменьшить распространение вредных, вызывающих разногласия сообщений, которые вызывают еще большее беспокойство в обществе в результате растущего влияния приложений для социальных сетей?

    Здесь важно рассматривать социальные сети более широко, потому что каждая социальная платформа использует алгоритмы для определения распространения контента и охвата. Facebook на сегодняшний день является крупнейшим и имеет большее влияние на ключевые элементы, такие как новостной контент – и, конечно же, сами выводы исследования в данном случае исходят от Facebook.

    Сосредоточение внимания на Facebook, в частности, имеет смысл, но Twitter также расширяет контент, который вызывает большее взаимодействие, LinkedIn сортирует свой канал на основе того, что, по его мнению, будет наиболее привлекательным. Алгоритм TikTok полностью соответствует вашим интересам.

    Проблема, как подчеркнула информатор Facebook Фрэнсис Хауген, заключается в алгоритмическом распределении, а не в самом Facebook – так какие у нас есть идеи, которые могут реально улучшить этот элемент?

    И тогда возникает следующий вопрос: будут ли социальные платформы готовы к таким изменениям, особенно если они представляют риск для их вовлеченности и уровня активности пользователей?

    Хауген, эксперт в области алгоритмического сопоставления контента, предложил принудить социальные сети полностью отказаться от использования алгоритмов, основанных на вовлечении, путем внесения изменений в раздел 230 законов, которые в настоящее время защищают компании социальных сетей от юридической ответственности за то, что пользователи делятся в своих приложениях. .

    Как пояснил Хауген:

    «Если бы у нас был соответствующий надзор, или если бы мы реформировали [Section] 230, чтобы возложить ответственность на Facebook за последствия своих преднамеренных решений по ранжированию, я думаю, они избавятся от ранжирования на основе вовлеченности ».

    Идея заключается в том, что Facebook – и, соответственно, все социальные платформы – будут нести ответственность за способы, которыми они расширяют определенный контент. Так что, если больше людей увидят, скажем, дезинформацию о COVID из-за алгоритмического вмешательства, Facebook может быть привлечен к юридической ответственности за любые последствия.

    Это добавит значительного риска к принятию любых решений по созданию таких алгоритмов, и, как отмечает Хауген, в этом случае платформы могут быть вынуждены отказаться от мер, которые увеличивают охват публикаций в зависимости от того, как пользователи взаимодействуют с таким контентом. .

    По сути, это, вероятно, приведет к тому, что социальные платформы будут вынуждены вернуться в дни, предшествующие алгоритму, когда Facebook и другие приложения просто покажут вам список контента со страниц и людей, на которых вы подписаны, в хронологическом порядке, в зависимости от времени публикации. Это, в свою очередь, снизило бы мотивацию людей и брендов делиться более спорным, вызывающим заинтересованность контентом, чтобы сыграть на прихоти алгоритма.

    У этой идеи есть свои достоинства – как показали различные исследования, эмоциональный отклик вашими публикациями в социальных сетях является ключом к максимальному вовлечению и, следовательно, к охвату на основе усиления алгоритма, и наиболее эффективными эмоциями в этом отношении являются юмор и гнев. Шутки и смешные видеоролики по-прежнему хорошо работают на всех платформах благодаря охвату алгоритмов, но то же самое делают и вызывающие гнев горячие реплики, с которыми сталкиваются пристрастные новостные агентства и отдельные личности, что вполне может быть ключевым источником разделения и беспокойства, которое мы сейчас делаем. посмотреть онлайн.

    Чтобы было ясно, Facebook не может нести единоличную ответственность за это. Пристрастные издатели и неоднозначные фигуры давно играют роль в более широком дискурсе, и они привлекали внимание и привлекали внимание своим левоцентристским мнением задолго до появления Facebook. Разница теперь в том, что социальные сети способствуют такому широкому охвату, в то время как они также через лайки и другие формы взаимодействия обеспечивают прямой стимул для этого: отдельные пользователи получают дофамин, вызывая реакцию, а издатели привлекают больше реферального трафика и получают больше разоблачения через провокацию.

    На самом деле, ключевой проблемой при рассмотрении первого результата является то, что теперь у каждого есть право голоса, и когда у каждого есть платформа, чтобы поделиться своими мыслями и мнениями, мы все гораздо больше подвержены такому и гораздо более осведомлены. В прошлом вы, вероятно, не имели представления о политических убеждениях вашего дяди, но теперь вы знаете, потому что социальные сети напоминают вам каждый день, и такой тип обмена мнениями также играет роль в более широком разделении.

    Аргумент Хаугена, однако, заключается в том, что Facebook стимулирует это – например, в одном из отчетов, которые Хауген просочился в Wall Street Journal, рассказывается, как Facebook обновил свой алгоритм новостной ленты в 2018 году, чтобы уделять больше внимания взаимодействию между пользователями и сокращать политические дискуссии, которые становились все более раскалывающим элементом в приложении. Facebook сделал это, изменив свой вес для разных типов взаимодействия с постами.

    Схема алгоритма Facebook

    Идея заключалась в том, что это стимулировало бы большее обсуждение за счет более тяжелого взвешивания ответов, но, как вы можете себе представить, придавая больше значения комментариям, чтобы увеличить охват, это также побудило большее количество издателей и страниц делиться все более разобщающими, эмоционально – заряженные посты, чтобы спровоцировать больше реакций и в результате получить более высокие оценки. С этим обновлением лайки больше не были ключевым фактором охвата, как это было раньше, так как Facebook делает комментарии и реакции (в том числе «Angry») становятся все более важными. Таким образом, активная дискуссия о политических тенденциях стала более заметной и позволила большему количеству пользователей увидеть такой контент в своих лентах.

    Затем, основываясь на этих внутренних данных, предполагается, что Facebook знал об этом, он знал, что это изменение увеличило количество спорного контента. Но они решили не возвращаться назад и не внедрять новое обновление, потому что в результате вовлеченность, ключевой критерий успеха в бизнесе, действительно возросла.

    В этом смысле удаление мотивации алгоритма имело бы смысл – или, может быть, вы могли бы попытаться удалить стимулы алгоритма для определенных типов сообщений, таких как политические дискуссии, при этом максимально увеличивая охват более привлекательных сообщений от друзей, обслуживая как цели взаимодействия, так и вызывающие разногласия. обеспокоенность.

    Именно на это указал Дэйв Гиллис из Facebook, который работает в группе по безопасности продуктов платформы. твитнуть, в ответ на откровения.

    Согласно Гиллис:

    «В конце статьи WSJ об алгоритмическом ранжировании каналов почти мимоходом упоминается, что мы отказались от ранжирования на основе вовлеченности гражданского и медицинского контента в новостной ленте. Но подождите – это же большое дело, не так ли? Вероятно, разумно ранжировать, скажем, видео с кошками и детские фотографии по лайкам и т. Д., Но с другими видами контента обращаться с большей осторожностью. И это, собственно, то, что наши команды рекомендовали делать: использовать разные ранжирующие сигналы для здоровья и гражданского контента, отдавая приоритет качеству + надежности, а не вовлеченности. Мы упорно трудились, чтобы понять влияние, привлечь руководство – да, Марк тоже – и это важное изменение.

    Это может быть шагом вперед, с использованием разных сигналов ранжирования для разных типов контента, которые могут работать для обеспечения оптимального увеличения контента, повышения полезного взаимодействия с пользователем, а также уменьшения мотивации для определенных участников публиковать спорные материалы, чтобы их можно было использовать в алгоритмических алгоритмах. достигать.

    Это сработает? Опять же, трудно сказать, потому что люди по-прежнему смогут делиться сообщениями, они по-прежнему смогут комментировать и повторно распространять материалы в Интернете, все еще есть много способов, которыми может происходить усиление вне самого алгоритма.

    По сути, оба предложения имеют свои достоинства: социальные платформы могут по-разному обрабатывать разные типы контента или что алгоритмы могут быть устранены, чтобы уменьшить распространение такого материала.

    И, как отмечает Хауген, важно сосредоточить внимание на самих системах, потому что решения, основанные на содержании, создают различные сложности, когда материалы публикуются на других языках и в других регионах.

    «В случае с Эфиопией 100 миллионов человек и шесть языков. Facebook поддерживает только два из этих языков для систем целостности. Эта стратегия, направленная на то, чтобы ИИ спасти нас, уделяла особое внимание языковым и контентно-ориентированным системам, обречена на провал ».

    Возможно, тогда удаление алгоритмов или, по крайней мере, изменение правил работы алгоритмов было бы оптимальным решением, которое могло бы помочь уменьшить влияние негативного, вызывающего ярость контента в сфере социальных сетей.

    Но затем мы возвращаемся к исходной проблеме, для решения которой был разработан алгоритм Facebook – еще в 2015 году Facebook объяснил, что ему нужен алгоритм ленты новостей не только для максимального вовлечения пользователей, но и для того, чтобы люди видели все обновления большинства отношение к ним.

    Как пояснялось, tУ среднего пользователя Facebook в то время было около 1500 сообщений, которые могли появляться в их новостной ленте в любой день, в зависимости от понравившихся им страниц и их личных связей – в то время как для некоторых более активных пользователей это число было больше вроде 15000. Люди просто не могут читать каждое из этих обновлений каждый день, поэтому основной задачей Facebook в первоначальном алгоритме было создание системы, которая обнаруживает лучший и наиболее релевантный контент для каждого человека, чтобы предоставить пользователям максимально возможную информацию. привлекательный опыт, и впоследствии заставит их возвращаться.

    Как объяснил Time Magazine директор по продуктам Facebook Крис Кокс:

    “Если бы вы могли оценить все, что произошло сегодня на Земле, что было опубликовано кем-либо из ваших друзей, любой из вашей семьи, любым источником новостей, а затем выбрать 10, которые были наиболее значимыми, чтобы знать сегодня, это было бы действительно круто сервис, который мы создадим. Это действительно то, чем мы стремимся, чтобы News Feed стала ».

    С тех пор подход к новостной ленте претерпел значительные изменения, но фундаментальная проблема, для решения которой он был разработан, остается. У людей слишком много связей, они подписаны на слишком много страниц, они являются членами слишком многих групп, чтобы получать все их обновления каждый день. Без алгоритма ленты они будут пропускать соответствующие публикации, соответствующие обновления, такие как семейные объявления и дни рождения, и они просто не будут так вовлечены в работу с Facebook.

    Без алгоритма Facebook проиграет, не сумев оптимизировать потребности аудитории – и, как подчеркивается в другом отчете, опубликованном как часть файлов Facebook, в некоторых демографических подгруппах уже наблюдается снижение вовлеченности.

    Взаимодействие с Facebook с течением времени

    Вы можете себе представить, что, если бы Facebook исключил алгоритм или был вынужден изменить его направление, этот график со временем только ухудшился бы.

    Таким образом, Зак и Ко вряд ли будут заинтересованы в этом решении, поэтому компромисс, подобный тому, который предлагает Гиллис, может быть лучшим, чего можно ожидать. Но в этом есть свои недостатки и риски.

    В любом случае, стоит отметить, что акцент в дебатах необходимо сместить на алгоритмы в более широком смысле, а не только на Facebook, а также на то, существует ли на самом деле жизнеспособный, работоспособный способ изменить стимулы вокруг основанных на алгоритмах систем, чтобы ограничить распространение. из более спорных элементов.

    Потому что это проблема, независимо от того, как Facebook или кто-либо другой пытается ее раскрутить, поэтому позиция Хаугена важна, поскольку она вполне может быть искрой, которая приведет нас к новым, более тонким дебатам вокруг этого ключевого элемента.



    Предыдущая статьяКак исправить код ошибки Maine 15f в Far Cry 6
    Следующая статьяНазад 4 Обзор крови – знакомый страх
    Александр Владимирович
    Главный редактор издания ITBusiness. Эксперт по SDN, Cloud Computing, авиабезопасности и BigData