Воровство рабочих мест журналистов? Google тестирует ИИ для написания новостей
Генеративный ИИ, как и журналисты, похоже, не готов дать волю продуктивности.
Недавно три человека, знакомые с этим вопросом, сообщили «Нью-Йорк Таймс», что Google тестирует продукт, использующий технологию искусственного интеллекта для создания новостных сообщений, и рассматривает возможность продвижения его в материнской компании «Нью-Йорк Таймс», «Вашингтон пост» и «Уолл Стрит Джорнал» и других новостных корпорациях.
Информированные источники сообщили, что внутреннее предварительное кодовое название продукта — «Genesis» (с китайского можно перевести как «Genesis»), который может автоматически генерировать новостной контент на основе получения и понимания информации.
▲ Изображение взято с Pexels.
Интересно, что после того, как новость была разоблачена, когда журналисты выразили свой страх перед появлением генеративного ИИ в СМИ, они не знали, что он уже незаметно притаился позади.
Как одна из отраслей с самым острым восприятием информации, медиа-индустрия уже давно занимается применением ИИ в медиа-индустрии и стремится реализовать взаимодействие человека и компьютера и освободить сотрудников от утомительных задач.
Например, в 2016 году «Вашингтон пост» использовала своего робота Heliograf для написания статей и использовала программное обеспечение для обмена мгновенными сообщениями для трансляции результатов Олимпийских игр в Рио в режиме реального времени.Однако ИИ в то время мог генерировать только некоторую простую информацию, такую как олимпийские результаты, общее количество золотых медалей и другие краткие отчеты, основанные на цифрах.
С быстрым развитием ИИ два года спустя Bloomberg News (Блумберг Ньюс) официально запустила робота Киборга (с китайского можно перевести как интеграция человека и компьютера), помогающего бизнес-репортерам писать тысячи статей о финансовых отчетах. В отличие от людей, киборгу вообще не нужно отдыхать, пока в систему вводится финансовый отчет, он может немедленно анализировать отчет и публиковать новостной отчет с соответствующими фактами и цифрами.
Взрыв ChatGPT в конце 2022 года еще раз заставил людей увидеть силу ИИ.На этот раз ИИ также превратился в генеративный ИИ, постепенно завоевавший всю медиаиндустрию своей мощной способностью генерировать контент.
Некоторые иностранные основные СМИ, такие как The Times, NPR и инсайдерские, были убеждены в генеративном ИИ и начали изучать потенциальное глубоко укоренившееся использование ИИ, например, рассмотрение его применения в областях новостей с высоким риском, которые требуют чрезвычайно высокой точности в секундах.
Возможно, именно из-за потенциальной ценности применения ИИ в новостной сфере участие Google в исследованиях и разработках помощников ИИ для написания новостных статей больше похоже на использование этой тенденции.
Однако следует признать, что потребуется некоторое время, чтобы зрелое применение генеративного ИИ в новостной индустрии выросло.
Представитель Google Дженн Крайдер также признала в своем заявлении, что генеративный ИИ играет скорее вспомогательную роль и не может заменить роль журналистов в написании отчетов и проверке фактов. Действительно, хотя генеративный ИИ продемонстрировал определенный «талант» в автоматическом создании контента, он также будет «полностью лгать» и создавать некоторую неверную или даже несуществующую информацию о контенте из воздуха.
В январе этого года агентство по оценке достоверности новостей под названием «News Guard» в США обнаружило в своей базе данных 100 ложных сведений, которые были сфальсифицированы, и попросило ChatGPT установить подлинность этой информации. Результаты показывают, что ChatGPT давал четкие, вводящие в заблуждение или даже неправильные ответы на 80% контента, и даже некоторые ответы были полны слухов и паники.
По совпадению, в то же время американский технологический веб-сайт CNET использовал технологию генеративного искусственного интеллекта для создания более 70 новостей. Внимательный пользователь сети заметил странность и усомнился в том, что опубликованная статья не выглядит искусственной. В связи с этим CNET откровенно заявил, что это всего лишь «эксперимент», и предпринял некоторые меры для обозначения «отчетов ИИ».
Но затем технический сайт Futurism обнаружил несколько «очень глупых ошибок» в новостях CNET об искусственном интеллекте. Например, в одном отчете говорилось, что депозит в размере 10 000 долларов США под 3% принесет 10 300 долларов США после первого года, тогда как на самом деле 10 000 долларов США принесут только 300 долларов США.
Существование этих ошибок уровня «бага» по-прежнему мешает конкретному применению новостной индустрии, но развитие технологии ИИ всегда идет один раздел за другим.
Через несколько лет, когда мы выйдем на новый уровень, оглядываясь назад, может быть, это уже не будет большой проблемой.
#Добро пожаловать в официальный публичный аккаунт Айфанер в WeChat: Айфанер (идентификатор WeChat: ifanr), в ближайшее время вам будет представлен более интересный контент.
Ай Фанер | Оригинальная ссылка · Просмотреть комментарии · Sina Weibo