Новый инструмент OpenAI может обнаруживать поддельные изображения ИИ, но есть одна загвоздка
Изображения, созданные с помощью искусственного интеллекта (ИИ), в последние месяцы вызвали немало беспокойства, и люди по понятным причинам обеспокоены тем, что их могут использовать для распространения дезинформации и обмана общественности. Сейчас производитель ChatGPT OpenAI, судя по всему, работает над инструментом, который сможет обнаруживать изображения, созданные искусственным интеллектом, с точностью 99%.
По данным Bloomberg , инструмент OpenAI предназначен для искоренения пользовательских изображений, созданных собственным генератором изображений Dall-E 3 . Выступая на мероприятии Tech Live журнала Wall Street Journal, Мира Мурати, технический директор OpenAI, заявила, что этот инструмент «надежен на 99%». Пока технология проходит внутреннее тестирование, дата релиза пока неизвестна.
Если он окажется настолько точным, как утверждает OpenAI, он сможет предложить публике знание о том, что изображения, которые они видят, либо подлинные, либо созданы искусственным интеллектом. Тем не менее, OpenAI, похоже, не раскрыла, как именно этот инструмент будет предупреждать людей об изображениях ИИ, используя ли это водяной знак, текстовое предупреждение или что-то еще.
Стоит отметить, что инструмент предназначен только для обнаружения изображений Dall-E и может быть не в состоянии обнаружить подделки, созданные конкурирующими сервисами, такими как Midjourney, Stable Diffusion и Adobe Firefly. Это может ограничить его полезность в целом, но все, что может подчеркнуть фальшивые изображения, может оказать положительное влияние.
Постоянное развитие
В прошлом OpenAI запускала инструменты, предназначенные для обнаружения контента, созданного ее собственными чат-ботами и генераторами. Ранее в 2023 году компания выпустила инструмент , который, как она утверждала, может обнаруживать текст, созданный ChatGPT, но был отозван всего через несколько месяцев после того, как OpenAI признала, что он крайне неточен.
Помимо нового инструмента обнаружения изображений, OpenAI также обсудила попытки компании сократить склонность ChatGPT к «галлюцинациям» или выбрасыванию чепухи и вымышленной информации. «Мы добились огромного прогресса в проблеме галлюцинаций с помощью GPT-4, но мы не там, где нам нужно быть», — сказал Мурати, предложив поработать над GPT-5 — продолжением GPT-4. модель , лежащая в основе ChatGPT, находится в стадии реализации.
В марте 2023 года ряд технологических лидеров подписали открытое письмо , в котором призвали OpenAI приостановить работу над чем-то более мощным, чем GPT-4, или рискнуть «серьезными рисками для общества и человечества». Кажется, эта просьба осталась без внимания.
Будет ли новый инструмент OpenAI более эффективным, чем его предыдущая разработка, которая была отменена из-за ее ненадежности, еще неизвестно. Не вызывает сомнений то, что работы по развитию продолжаются быстрыми темпами, несмотря на очевидные риски.