Искусственный интеллект Facebook борется с ростом разжигания ненависти

Сложная технология искусственного интеллекта (AI) Facebook позволила платформе удалить больше ненавистнических высказываний, чем когда-либо. Его искусственный интеллект, выявляющий ненависть, сумел уловить 95 процентов разжигающего ненависть контента в третьем квартале 2020 года.

Роль ИИ в войне против языка ненависти

Последний отчет Facebook о соблюдении стандартов сообщества показал, что ИИ играет важную роль в борьбе с ненавистническими высказываниями на платформе.

За третий квартал 2020 года Facebook удалось «проактивно обнаружить» около 95 процентов разжигающих ненависть высказываний. В общей сложности Facebook удалил 22,1 миллиона единиц ненавистного контента в Facebook и 6,5 миллиона единиц в Instagram.

Это значительный рост по сравнению с последним кварталом 2017 года, когда Facebook проактивно обнаруживал только 24% разжигающих ненависть высказываний в Facebook и Instagram.

Хотя платформа использует «комбинацию пользовательских отчетов и технологий» для удаления ненавистного контента, огромный скачок в значительной степени связан с передовым искусственным интеллектом Facebook.

Его искусственный интеллект не только помогает обнаруживать разжигающий ненависть контент и принимать меры до того, как о нем даже сообщается, но Facebook также использует его для сортировки более сложного контента, который необходимо проверить. Facebook также объяснил роль ИИ, заявив:

Независимо от того, обнаруживается ли контент заранее или сообщается пользователями, мы часто используем ИИ, чтобы принимать меры в простых случаях и отдавать приоритет нашим рецензентам более тонким случаям, когда необходимо учитывать контекст.

Кроме того, Facebook также заметил рост распространения языка вражды в третьем квартале. Согласно Facebook, он определяет «распространенность языка ненависти, выбирая образец контента, увиденного на Facebook, и затем маркирует, какая его часть нарушает нашу политику в отношении языка вражды».

Отчет показал, что из каждых 10 000 просмотров контента платформы от 10 до 11 просмотров содержали язык вражды.

Как Facebook определяет язык вражды?

Если вам интересно, как именно Facebook определяет, что является языком ненависти, а что нет, платформа постоянно корректирует его определение. В августе 2020 года Facebook обновил свою политику разжигания ненависти, включив в нее антисемитские теории заговора и блэкфейс. Facebook отмечает, что «поскольку речь продолжает развиваться с течением времени, мы продолжаем пересматривать нашу политику, чтобы отразить меняющиеся социальные тенденции».

Прямо сейчас Facebook определяет язык вражды как «все, что напрямую атакует людей на основании защищаемых характеристик, включая расу, этническую принадлежность, национальное происхождение, религиозную принадлежность, сексуальную ориентацию, пол, пол, гендерную идентичность или серьезную инвалидность или заболевание».

Чего ожидать в будущем

В течение 2020 года Facebook столкнулся с рядом проблем, связанных с противоречивым контентом.

В начале года платформе пришлось бороться с дезинформацией о пандемии COVID-19. Позже ему также пришлось иметь дело с вводящей в заблуждение информацией о президентских выборах в США. Это привело к тому, что платформа наклеила ярлыки на определенные сообщения или вообще удалила их.

Поскольку искусственный интеллект Facebook продолжает развиваться, мы можем ожидать только новых убийств в будущем.