Новый инструмент «отравления» создает проблемы для технологии искусственного интеллекта по преобразованию текста в изображение

Профессиональные художники и фотографы, раздраженные тем, что компании, занимающиеся генеративным искусственным интеллектом, используют их работу для обучения своим технологиям, вскоре могут найти эффективный способ ответить, не требующий обращения в суд.

Генеративный ИИ ворвался на сцену с запуском чат-бота OpenAI ChatGPT почти год назад. Этот инструмент чрезвычайно хорош в общении очень естественным, человеческим способом, но чтобы получить эту способность, его пришлось обучать на огромном количестве данных, извлеченных из Интернета.

Подобные инструменты генеративного искусственного интеллекта также способны создавать изображения из текстовых подсказок , но, как и ChatGPT, они обучаются путем извлечения изображений, опубликованных в Интернете.

Это означает, что работы художников и фотографов используются — без согласия и компенсации — технологическими фирмами для создания инструментов генеративного искусственного интеллекта.

Чтобы бороться с этим, группа исследователей разработала инструмент под названием Nightshade, который способен сбивать с толку обучающую модель, заставляя ее выдавать ошибочные изображения в ответ на подсказки.

Описанный недавно в статье MIT Technology Review , Nightshade «отравляет» обучающие данные, добавляя невидимые пиксели в произведение искусства перед его загрузкой в ​​Интернет.

«Использование его для «отравления» этих обучающих данных может повредить будущим итерациям моделей искусственного интеллекта, генерирующих изображения, таких как DALL-E, Midjourney и Stable Diffusion, поскольку некоторые из их результатов станут бесполезными — собаки станут кошками, автомобили станут коровами и и так далее», — говорится в отчете Массачусетского технологического института, добавляя, что исследование, лежащее в основе Nightshade, было представлено на экспертную оценку.

Хотя инструменты создания изображений уже впечатляют и продолжают совершенствоваться, способ их обучения оказался спорным: многие создатели инструментов в настоящее время сталкиваются с судебными исками со стороны художников, утверждающих, что их работы использовались без разрешения или оплаты.

Профессор Чикагского университета Бен Чжао, возглавлявший исследовательскую группу Nightshade, заявил, что такой инструмент может помочь сместить баланс сил обратно в сторону художников, сделав предупредительный выстрел технологическим фирмам, которые игнорируют авторское право и интеллектуальную собственность.

«Наборы данных для крупных моделей искусственного интеллекта могут состоять из миллиардов изображений, поэтому чем больше «отравленных» изображений можно занести в модель, тем больший ущерб нанесет этот метод», — говорится в отчете MIT Technology Review.

Когда компания выпустит Nightshade, команда планирует сделать его открытым исходным кодом, чтобы другие могли его усовершенствовать и сделать более эффективным.

Понимая, что это может привести к нарушениям, команда Nightshade заявила, что его следует использовать в качестве «последней защиты создателей контента от парсеров», которые не уважают их права.

Пытаясь решить эту проблему, создатель DALL-E OpenAI недавно начал разрешать художникам удалять свои работы из своих обучающих данных, но этот процесс был описан как чрезвычайно обременительный, поскольку он требует, чтобы художник отправлял копию каждого отдельного изображения, которое он хотите удалить вместе с описанием этого изображения, причем каждый запрос требует отдельного применения.

Значительное упрощение процесса удаления может в некоторой степени отговорить художников от использования такого инструмента, как Nightshade, что в долгосрочной перспективе может вызвать гораздо больше проблем для OpenAI и других.