Пользователи будут проверять факты в Instagram и Facebook. Будем надеяться, что это сработает
Месяц назад Meta заявила, что прекращает свою стороннюю программу проверки фактов, и заявила, что будет полагаться на пользователей, которые будут отмечать дезинформацию. Сегодня компания анонсировала «Заметки сообщества», которые используют тот же подход, что и X, и будут реализованы в Facebook, Instagram и Threads.
Требования к автору заметок сообщества: вы должны быть гражданином США старше 18 лет, иметь подтвержденный номер телефона и учетную запись старше 6 месяцев. Однако не все заметки сообщества будут опубликованы, поскольку для этого потребуется своего рода консенсус среди других участников.
«Достаточное количество участников должно согласиться с тем, что заметка сообщества полезна, прежде чем ее можно будет опубликовать в сообщении», — говорят в компании. Вскоре Meta начнет привлекать подходящих пользователей (подробности о которых пока не доступны), а в ближайшие несколько месяцев начнет публиковать общедоступные заметки для проверки фактов.

Заметки сообщества могут иметь длину до 500 символов, должны быть написаны на беспристрастном и легком для понимания языке и сопровождаться утверждениями с помощью URL-адреса, ссылающегося на надежный источник. Как только оно будет оценено и признано полезным, его можно будет публично прикрепить к проблемному сообщению в социальных сетях.
Насколько далеко может зайти ущерб?
В 2025 году Meta будет иметь более мягкую политику модерации контента и отсутствие контактов с независимыми организациями по проверке фактов, начиная с США. Компания надеется, что заметки, оставленные пользователями, решат ее проблемы. Это скользкий путь.
Эксперт по дезинформации , который работает с ведущей организацией, которая участвует в программе проверки фактов Meta, рассказал Digital Trends, что заметки сообщества в значительной степени неэффективны. На условиях анонимности они сказали, что X потерпел неудачу на некоторых крупнейших рынках, таких как Индия.
Член Международной сети проверки фактов (IFCN) Пойнтера, эксперт также отверг утверждения Меты о том, что фактчекеры были политически предвзятыми. Агентства IFCN утверждают, что Meta заставила их придерживаться строгой беспристрастности и прозрачности, что также означало отказ от пропагандистской деятельности и принадлежности к политическим партиям.

Вот оксюмороническая часть дискуссии. Согласно исследованию, в ходе которого было проанализировано более 1,2 миллиона заметок, опубликованных в 2024 году, профессиональные фактчекеры являются крупнейшими участниками заметок сообщества на X. «Пользователи часто полагаются на организации по проверке фактов, когда предлагают заметки сообщества», — говорится в исследовании .
С тех пор, как Meta объявила о прекращении своей программы проверки фактов, разгорелись дебаты о ее целях. В январе Meta прекратила усилия по найму и обучению сотрудников, направленные на обеспечение разнообразия, равенства и инклюзивности (DEI). Мета поставила во главу угла интересы пользователей или просто приняла решение, исходя из политического климата?
Возможно, мы никогда не получим официального ответа на этот вопрос. Но ущерб, который могут нанести такие неудачи, имеет далеко идущие последствия. Это может затронуть каждого, кто принадлежит к группе меньшинства, будь то религиозное, политическое, культурное или социальное, и это лишь некоторые из них.
«Недавние заявления Meta о политике в отношении контента представляют серьезную угрозу для уязвимых сообществ во всем мире и резко увеличивают риск того, что компания снова будет способствовать массовому насилию и грубым нарушениям прав человека», — заявила Amnesty International .

Джейми Кренн, доцент Колумбийского университета и колледжа Сары Лоуренс, рассказал Digital Trends, что платформы Meta рискуют стать питательной средой для ложных повествований и сделать пользователей уязвимыми для манипуляций.
«Опыт проверки фактов играет решающую роль в поддержании этого баланса, гарантируя, что свобода слова подкрепляется правдой. Без этого мы рискуем спутать мнение с фактом — опасный прецедент для любого общества», — говорит Кренн, имеющая докторскую степень в области когнитивных исследований.
Это не решение проблемы Меты.
«Развертывание заметок сообщества вместо проверки фактов мало что дает для заполнения этого пространства, но крупные технологические компании пришли к выводу, что подчеркивание свободы слова было лучшим политическим шагом в отношениях с законодателями и регулирующими органами, чем другие реформы», — говорит Digital Trends Джефф Ле, эксперт по глобальным вопросам и государственной политике и бывший заместитель секретаря кабинета министров штата Калифорния.
Проверка фактов — это строгий процесс, и без экспертного анализа он может превратиться в огромную проблему. Организация Объединенных Наций (ООН) предупреждает , что факты часто могут быть искажены, особенно во время конфликтов, и могут повлиять на мир, безопасность и гуманитарные усилия.

Когда социальные сети потворствуют чувствительности класса большинства, проверка фактов оказывается под угрозой, если одна и та же база пользователей вовлечена в проблемное онлайн-поведение. Согласно отчету Amnesty о геноциде рохинджа в Мьянме, массовое распространение разжигающих ненависть сообщений «существенно увеличило риск вспышки массового насилия».
Вот более важная часть. Помимо сбоев модерации контента в Meta, даже если к сообщению прикреплена заметка сообщества, это сообщение не может быть удалено или его видимость ограничена. Он будет продолжать оставаться там, если только об этом не сообщат и Мета не решит принять меры.
Последнее кажется маловероятным. В январе этого года компания также ослабила меры по модерации контента и смягчила свою политику в отношении разжигания ненависти. По данным Human Rights Campaign , из-за этой новой политики «ЛГБТК+ люди будут непропорционально страдать от преследований и злоупотреблений, не имея никакого доступа к средствам правовой защиты».
Ле, которая также успешно проводила кампанию против законодательства, направленного против ЛГБТИ и инклюзивности во многих штатах, также коснулась недавних мер, принятых компаниями социальных сетей, таких как возрастные ограничения и родительский контроль для защиты уязвимых групп.
«Вероятно, это не путь к значимым реформам или расширению доверия к платформам в будущем», — говорит он Digital Trends. Ярон Литвин, директор по маркетингу компании Canopy, производящей программное обеспечение для родительского контроля, говорит, что эти изменения могут привести к «ухудшению онлайн-дискурсов».

Он добавляет, что нам следует искать больше способов решения проблем в социальных сетях, а также подчеркивает, что контент, созданный ИИ, создает новые проблемы даже для фактчекеров. Кстати, в начале этого года Meta начала продвигать персонажей, сгенерированных искусственным интеллектом, а также появится новое приложение для редактирования видео на основе искусственного интеллекта.
Принципиально проблематичное решение
Идея создания заметок сообщества в социальных сетях неплохая, но по многим причинам это колоссальная задача. Это может иметь неприятные последствия по той самой причине, по которой Meta прекратила свою программу проверки фактов, которой в противном случае занимались настоящие эксперты и сертифицированные агентства.
«Программа, предназначенная для информирования, слишком часто становилась инструментом цензуры», — заявила «Мета», когда объявила о планах прекращения этой инициативы. По мнению компании, основной причиной была предвзятость среди проверяющих факты.
«Эксперты, как и все остальные, имеют свои собственные предубеждения и точки зрения. Это проявилось в выборе, который некоторые сделали в отношении того, что и как проверять», — рассуждала Мета. Вот недостающая часть сюжета.
Авторы заметок сообщества тоже могут быть предвзятыми. Даже в большей степени, чем сертифицированные агентства по проверке фактов, которые фактически подписывают обязательство оставаться прозрачными и проходить ежегодные проверки. Мы только что видели, как это происходит на X, платформе, которая в первую очередь вдохновила Meta X.
«К сожалению, @CommunityNotes все чаще используется правительствами и традиционными СМИ. Работаем над тем, чтобы это исправить», — поделился всего день назад руководитель X Илон Маск. Это противоречит общему идеалу наличия группы людей разного происхождения, которая добавляет фактическую информацию, чтобы бросить вызов тому, что утверждается в проблемном сообщении в социальных сетях.
К сожалению, @CommunityNotes все чаще становится объектом манипуляций со стороны правительств. устаревшие СМИ.
Работаем над тем, чтобы это исправить…
Должно быть совершенно очевидно, что контролируемый Зеленским опрос о его СОБСТВЕННОМ одобрении не заслуживает доверия!!
Если Зеленского действительно любил народ Украины, он… https://t.co/gy0NjtPwiq
— Илон Маск (@elonmusk) 20 февраля 2025 г.
По сути, платформа социальных сетей решает произвольно и непрозрачно исправить краудсорсинговую и полностью независимую систему только потому, что она отмечала контент, который не соответствует симпатиям и антипатиям ее владельцев.
Кроме того, если рассуждения Маска о том, что «все чаще подвергаются игре», воспринимаются всерьез, поскольку они нацелены на определенную точку зрения, то он явно опоздал на поезд. А учитывая недавний поворот владельца Meta Марка Цукерберга к более свободному диалогу, система может столкнуться с аналогичными проблемами в Facebook и Instagram.
Бомбардировка обзорами , законная или злонамеренная, уже много лет является реальностью современного Интернета, и с Заметками сообщества ситуация не изменится. Epic Games пришлось создать совершенно новую систему рейтингов пользователей, чтобы справиться с бомбардировками обзорами.
Если определенное тело, человек или событие считается позитивным для одной группы, это может вызвать гнев другой, вооруженной собственными фактами. Это особенно верно, когда в дело вступают геополитика и культура.
Как Meta решит, какая ссылка является надежным источником, опубликованным в заметке сообщества? Будет ли сообщество Меты беспристрастным и непрозрачным при оценке надежности источников новостей? Будут ли играть роль показатели вовлеченности аудитории? Если это так, то определенный предвзятый новостной канал с миллионной аудиторией может легко обогнать более мелкий, но надежный источник на другом рынке. Это фундаментальная проблема.

Индия является крупнейшим рынком для Facebook с более чем 300 миллионами пользователей, как и Instagram. Если авторы из Индии цитируют местный источник новостей (с гораздо большей аудиторией, чем местное издание в США) для получения информации, будет ли Meta отдавать приоритет их заметкам сообщества, даже если они предвзяты или неверны?
Это становится еще более сложным, когда предвзятость СМИ сама по себе очевидна во всем мире. Кто будет определять достоверность «источников новостей» для заметок сообщества в Facebook и Instagram, остается загадкой. Было бы интересно посмотреть, как Meta сбалансирует все это и избежит еще одного хаоса, вызванного социальными сетями, который заманивает в ловушку несколько миллиардов пользователей.