Может ли Deepfake обмануть распознавание лиц? Новое исследование говорит «Да»!
Дипфейки и видео, созданные искусственным интеллектом, никуда не денутся. Но за последние несколько лет их качество и количество выросли, что заставляет многих людей беспокоиться о национальной безопасности и конфиденциальности.
Тем не менее, как бы анонимные онлайн-пользователи ни пытались сделать свое поддельное видео реалистичным, они никогда не могли пройти мимо передового программного обеспечения для распознавания лиц. До сих пор.
Обмануть API распознавания лиц
Исследователи из Университета Сунгюнкван в Сувоне, Южная Корея, проверили качество нынешней технологии дипфейка . Они протестировали API Amazon и Microsoft с использованием программного обеспечения с открытым исходным кодом и широко используемого программного обеспечения для создания видео Deepfake, чтобы увидеть, насколько хорошо они работают.
Исследователи использовали лица голливудских знаменитостей. Для создания надежных дипфейков программе требуется много качественных изображений одних и тех же людей с разных ракурсов, которые гораздо проще получить у знаменитостей, чем у обычных людей.
Исследователи также решили использовать API Microsoft и Amazon в качестве эталонов для своего исследования, поскольку обе компании предлагают услуги распознавания лиц знаменитостей. Они использовали общедоступные наборы данных и создали чуть более 8000 дипфейков. Из каждого дипфейк-видео они извлекли несколько снимков лица и отправили их в рассматриваемые API.
С помощью Microsoft Azure Cognitive Services исследователи смогли обмануть систему в 78% случаев, используя дипфейки. Результаты Amazon были немного лучше: 68% представленных лиц были идентифицированы как настоящие.
А как насчет детекторов Deepfake?
Детекторы дипфейков работают примерно так же, как дипфейки. Детекторы – это программное обеспечение, которое было обучено с использованием моделей машинного обучения тому, как обнаруживать deepfake-видео.
Но вместо того, чтобы сосредоточиться на создании гиперреалистичного видео, чтобы обмануть детекторы, дипфейки теперь могут включать в себя состязательные примеры в каждом кадре, чтобы сбить с толку систему ИИ. Фактически, вероятность успеха дипфейк-атак этого типа составляет от 78 до 99 процентов .
Становится хуже
Deepfakes – это приложение для машинного обучения . Чтобы создать хоть какое-то убедительное изображение, вам понадобятся сотни изображений лица одного и того же человека под разными углами и отображающими различные эмоции.
Из-за потребности в огромных объемах данных можно было бы подумать, что риску подвержены только люди с большим присутствием в Интернете, такие как знаменитости и политики. Но это уже не так.
По данным Deeptrace, количество дипфейков в Интернете увеличилось на 330 процентов менее чем за год – с октября 2019 года по июнь 2020 года. Не говоря уже о том, что программное обеспечение и алгоритмы, которые используют производители дипфейков, становятся все более мощными, более доступными и доступными.
Кто подвержен риску дипфейков?
Когда дипфейки впервые стали мейнстримом, в первую очередь беспокоились о конфиденциальности и национальной безопасности . Люди опасались, что видеозаписям политиков и официальных государственных служащих больше нельзя будет доверять.
Но хотя было бы безответственно игнорировать угрозу безопасности дипфейка, многочисленные опросы показали, что создатели дипфейков пока не слишком заинтересованы в том, чтобы нарушать политику. Большинство онлайн-видео дипфейков можно разделить на две категории: смешные видео с интервью со знаменитостями и фильмы и порнографические материалы.
Хотя недавнее исследование проводилось с использованием лиц знаменитостей, чтобы гарантировать высокое качество дипфейков, чтобы обмануть API, это не означает, что вы не можете делать дипфейки с меньшим количеством данных. Конечно, у них может не быть шанса обмануть передовые системы распознавания лиц, но они могут быть достаточно убедительными, чтобы обмануть других людей.
В настоящее время дипфейки любого человека в обществе можно убедительно сделать. Все, что им нужно, – это несколько ваших фотографий и, возможно, видео, в котором вы появляетесь. В результате дипфейк может быть низкого качества, но это все еще выполнимо и может быть опасным.
Будущее все еще неизвестно
Есть много противоречивых прогнозов относительно состояния дипфейков, так как они никуда не денутся в ближайшее время.
Некоторые ожидают апокалиптического кибер-будущего, в котором нельзя доверять никаким материалам, которые попадаются в сети. Другие настроены более оптимистично, сравнивая дипфейки с анимацией и заявляя, что у них может быть будущее в производстве контента.