ChatGPT вскоре может модерировать незаконный контент на таких сайтах, как Facebook

GPT-4 — крупноязыковая модель (LLM), на которой основан ChatGPT Plus , — вскоре может взять на себя новую роль онлайн-модератора, охраняющего форумы и социальные сети от гнусного контента, который не должен увидеть свет. Об этом говорится вновом сообщении в блоге разработчика ChatGPT OpenAI, в котором говорится, что это может предложить «более позитивное видение будущего цифровых платформ».

По словам OpenAI, привлекая искусственный интеллект (ИИ) вместо модераторов-людей, GPT-4 может проводить «гораздо более быструю итерацию изменений политики, сокращая цикл с месяцев до часов». Кроме того, «GPT-4 также может интерпретировать правила и нюансы в длинной документации по политике контента и мгновенно адаптироваться к обновлениям политики, что приводит к более последовательной маркировке», — утверждает OpenAI.

На экране ноутбука показана домашняя страница ChatGPT, чат-бота OpenAI с искусственным интеллектом.
Рольф ван Рут / Unsplash

Например, в сообщении в блоге объясняется, что команды модераторов могут назначать метки контенту, чтобы объяснить, подпадает ли он под правила данной платформы или за их пределы. Затем GPT-4 может взять тот же набор данных и присвоить свои собственные метки, не зная ответов заранее.

Затем модераторы могли сравнить два набора ярлыков и использовать любые несоответствия, чтобы уменьшить путаницу и внести уточнения в свои правила. Другими словами, GPT-4 может действовать как обычный пользователь и оценивать, имеют ли смысл правила.

Человеческие потери

Модель большого языка OpenAI GPT-4 пытается модерировать часть контента. Результат сравнивается с анализом контента человеком.
OpenAI

В настоящее время модерация контента на различных веб-сайтах осуществляется людьми, что регулярно подвергает их потенциально незаконному, насильственному или иному вредному контенту. Мы неоднократно видели ужасные потери , которые модерация контента может нанести людям: Facebook заплатил 52 миллиона долларов модераторам, которые страдали посттравматическим стрессовым расстройством из-за травм на работе.

Снижение нагрузки на модераторов-людей может помочь улучшить условия их работы, а поскольку ИИ, такие как GPT-4, невосприимчивы к психическому стрессу, который люди испытывают при работе с неприятным контентом, их можно использовать, не беспокоясь о эмоциональном выгорании и посттравматическом стрессовом расстройстве.

Однако это поднимает вопрос о том, приведет ли использование ИИ таким образом к потере рабочих мест . Модерация контента — это не всегда веселая работа, но, тем не менее, это работа, и если GPT-4 заменит людей в этой области, вероятно, возникнут опасения, что бывших модераторов контента просто уволят, а не переназначат на другие роли.

OpenAI не упоминает об этой возможности в своем блоге, и это действительно то, что решают контент-платформы. Но это может не сильно развеять опасения, что ИИ будет развернут крупными компаниями просто как мера экономии, не беспокоясь о последствиях.

Тем не менее, если ИИ сможет уменьшить или устранить умственное опустошение, с которым сталкиваются перегруженные работой и недооцененные команды, которые модерируют контент на веб-сайтах, которыми ежедневно пользуются миллиарды людей, во всем этом может быть какая-то польза. Еще неизвестно, будет ли это смягчено столь же разрушительными увольнениями.