Основные опасности дипфейков и как их обнаружить

В мире, где ваша онлайн-идентичность напрямую связана с вами, перспектива идеального копирования вызывает беспокойство. Но это именно то, с чем мы сталкиваемся с появлением технологии дипфейков.

По мере того, как технология становится дешевле и проще в использовании, чем опасны дипфейки? Кроме того, как отличить дипфейк от реальной сделки?

Что такое дипфейк?

Дипфейк – это название, данное средствам массовой информации, где лицо в видео или изображении заменяется на кого-то другого. Этот термин представляет собой набор словосочетаний «глубокое обучение» и «подделка» и использует алгоритмы машинного обучения и искусственный интеллект для создания реалистичных, но синтетических медиа.

По сути, вы можете найти лицо, наложенное на другую модель. На своей стремительно развиваются худшим deepfake технология стежка ничего не подозревающие жертв в поддельные порнографические видео, новости поддельных, мистификацию и многая другая.

Вы можете узнать больше о происхождении технологии в нашем объяснении deepfake .

В чем опасность дипфейков?

Поддельные изображения существовали всегда. Выявление того, что является подделкой, а что нет, – обычная часть жизни, особенно после появления цифровых медиа. Но проблемы, которые создает технология deepfake, различны, обеспечивая беспрецедентную точность поддельных изображений и поддельных видео.

Одним из первых дипфейк-видео, поразивших широкую аудиторию, стал Джордан Пил, изображающий Барака Обаму, в видео, в котором обсуждается сама проблема:

Видео выглядит грубым, со странным голосом и зернистыми артефактами на клонированном лице. Тем не менее, это иллюстрирует технологию дипфейка.

Или вы когда-нибудь задумывались, что было бы, если бы Уилл Смит сыграл Нео в «Матрице» вместо Киану Ривза (я имею в виду, кто бы не играл ?!)? Больше не удивляйся:

Эти два видео не являются вредоносными, и для их компиляции требуются сотни часов машинного обучения. Но та же технология доступна любому, у кого достаточно времени для обучения и вычислительных мощностей. Изначально барьер для использования технологии deepfake был довольно высок. Но по мере того, как технология совершенствуется, и барьеры для входа значительно снижаются, люди находят негативное и вредное применение дипфейкам.

Прежде чем мы углубимся в темную сторону дипфейков, вот Джим Керри, заменяющий Джека Николсона в The Shining:

1. Поддельные материалы для взрослых с участием знаменитостей

Одной из основных угроз со стороны deepfake технологии синтетических материалов для взрослых, или deepfake порно, как это известно. Существуют десятки тысяч фальшивых видео для взрослых с лицами известных женщин-знаменитостей, таких как Эмма Уотсон, Натали Портман и Тейлор Свифт.

Все они используют алгоритмы машинного обучения deepfake, чтобы вышить лицо знаменитости на теле взрослой актрисы, и все они привлекают десятки миллионов просмотров на многочисленных веб-сайтах с контентом для взрослых.

И все же ни один из этих сайтов ничего не делает с дипфейками знаменитостей.

«Пока у них не будет веской причины попытаться устранить и отфильтровать их, ничего не произойдет», – говорит Джорджио Патрини, генеральный директор и главный научный сотрудник Sensity, фирмы по обнаружению и анализу дипфейков. «Люди по-прежнему смогут бесплатно загружать материалы такого типа без каких-либо последствий на эти веб-сайты, которые просматривают сотни миллионов людей».

Как утверждают некоторые создатели дипфейков, эти видео являются эксплуататорскими и далеко не свободными от жертв.

2. Поддельные материалы для взрослых с участием обычных людей

Что еще хуже, чем синтетическое порно с участием знаменитостей? Правильно: фальшивые материалы для взрослых с участием ничего не подозревающих женщин. Исследование Sensity выявило дипфейк-бота в приложении для обмена социальными сообщениями Telegram, который создал более 100000 дипфейк-обнаженных изображений. Многие изображения украдены из учетных записей социальных сетей, на которых изображены друзья, подруги, жены, матери и т. Д.

Бот является крупным достижением в технологии дипфейков, поскольку для загрузчика изображений не нужны существующие знания о дипфейках, машинном обучении или искусственном интеллекте. Это автоматизированный процесс, для которого требуется одно изображение. Кроме того, бот Telegram, похоже, работает только с женскими изображениями, а премиальные подписки (больше изображений, удаленный водяной знак) смехотворно дешевы.

Как и дипфейки знаменитостей, изображения дипфейков ботов Telegram являются эксплуататорскими, оскорбительными и аморальными. Они могли легко найти путь к почтовому ящику мужа, партнера, члена семьи, коллеги или начальника, разрушая при этом жизни. Потенциал для шантажа и других форм вымогательства очень высок , и она сползает угрозу от существующих проблем, таких как месть порно.

Размещение дипфейков в Telegram создает еще одну проблему. Telegram – это служба обмена сообщениями, ориентированная на конфиденциальность, которая не слишком мешает своим пользователям. У него есть политика удаления порно ботов и других ботов, касающиеся взрослого материала, но ничего не сделал в этом случае.

3. Материал мистификации

Вы видели, как Джордан Пил играет Обаму. В этом видео он предупреждает об опасности дипфейков. Одна из основных проблем, связанных с технологией дипфейка, заключается в том, что кто-то создаст и опубликует видео настолько реалистичное, что это приведет к трагедии той или иной формы.

Люди говорят, что в самом крайнем случае видеоконтент может спровоцировать войну. Но есть и другие серьезные последствия. Например, дипфейк-видео, на котором главный исполнительный директор крупной корпорации или банка делает оскорбительное заявление, может спровоцировать крах фондового рынка. Опять же, это крайность. Но реальные люди могут проверять и проверять видео, тогда как мировые рынки мгновенно реагируют на новости, и автоматические распродажи случаются.

Еще одна вещь, которую следует учитывать, – это объем. Поскольку дипфейк-контент становится все более дешевым в создании, это повышает вероятность создания огромного количества дипфейк-контента одного и того же человека с упором на доставку одного и того же фальшивого сообщения в разных тонах, местах, стилях и т. Д.

4. Отказ от реальных материалов

Как продолжение материала обмана, вы должны учитывать, что дипфейки станут невероятно реалистичными. Настолько, что люди начнут сомневаться в том, настоящее видео или нет, независимо от содержания.

Если кто-то совершает преступление и единственным доказательством является видео, что может помешать им сказать: «Это дипфейк, это ложное свидетельство»? И наоборот, как насчет подбрасывания дипфейк-видеодоказательств, чтобы кто-то их нашел?

5. Ложные лидеры мнений и социальные контакты

Уже было несколько случаев, когда дипфейк-контент выдавал себя за лидеров мнений. Профили в LinkedIn и Twitter подробно описывают высокопоставленные роли в стратегических организациях, однако этих людей не существует и, вероятно, они созданы с использованием технологии deepfake.

Тем не менее, это не проблема, связанная с дипфейком. С незапамятных времен правительства, шпионские сети и корпорации использовали поддельные профили и личности для сбора информации, продвижения повесток дня и манипулирования .

6. Фишинговые атаки, социальная инженерия и другие виды мошенничества.

Когда речь идет о безопасности, социальная инженерия уже является проблемой. Люди хотят доверять другим людям. Это в нашей природе. Но это доверие может привести к нарушениям безопасности, краже данных и многому другому. Социальная инженерия часто требует личного контакта, будь то по телефону, с помощью видеозвонка и т. Д.

Предположим, кто-то может использовать технологию deepfake, чтобы имитировать директора, чтобы получить доступ к кодам безопасности или другой конфиденциальной информации. В этом случае это может привести к потоку дипфейков.

Как обнаружить и обнаружить дипфейки

Поскольку качество дипфейков растет, важно научиться распознавать дипфейки. Раньше было несколько простых жестов: размытые изображения, искажения и артефакты видео, а также другие недостатки. Однако количество этих явных проблем уменьшается, а стоимость использования технологии быстро падает.

Не существует идеального способа обнаружить дипфейк-контент, но вот четыре полезных совета:

  1. Подробности . Как бы хороша ни была технология дипфейка, есть еще кое-что, с чем она борется. В частности, мелкие детали в видео, такие как движение волос, движение глаз, структура щек и движения во время речи, а также неестественные выражения лица. Движение глаз – важная вещь. Хотя дипфейки теперь могут эффективно мигать (в первые дни это было главным признаком), движение глаз по-прежнему остается проблемой.
  2. Эмоции . Связь с деталями – это эмоции. Если кто-то делает сильное заявление, его лицо будет отображать ряд эмоций, когда он сообщит детали. Deepfakes не может передать такую ​​же глубину эмоций, как реальный человек.
  3. Несогласованность . Качество видео на рекордно высоком уровне. Смартфон в вашем кармане может записывать и передавать в формате 4K. Если политический лидер делает заявление, то это перед комнатой, заполненной записывающим оборудованием высшего уровня. Таким образом, заметным несоответствием является плохое качество записи, как визуальной, так и звуковой.
  4. Источник . Видео появляется на проверенной платформе? Платформы социальных сетей используют верификацию, чтобы гарантировать, что всемирно узнаваемые люди не подделываются. Конечно, есть проблемы с системами. Но проверка того, откуда транслируется или размещается особенно вопиющее видео, поможет вам выяснить, настоящее оно или нет. Вы также можете попробовать выполнить обратный поиск изображения, чтобы выявить другие места, где изображение находится в Интернете.

Инструменты для обнаружения и предотвращения дипфейков

Вы не одиноки в борьбе с обнаружением дипфейков. Несколько крупных технологических компаний разрабатывают инструменты для обнаружения дипфейков, в то время как другие платформы предпринимают шаги для постоянной блокировки дипфейков.

Например, средство обнаружения глубоких подделок Microsoft, Microsoft Video Authenticator , проанализирует его в течение нескольких секунд, сообщив пользователю о его подлинности (см. Пример GIF ниже). В то же время Adobe позволяет подписывать контент цифровой подписью, чтобы защитить его от манипуляций.

Такие платформы, как Facebook и Twitter, уже запретили вредоносные дипфейки (дипфейки, подобные Уиллу Смиту в «Матрице», по-прежнему являются честной игрой), в то время как Google работает над инструментом анализа текста в речь для борьбы с поддельными фрагментами аудио.

Если вы хотите освежить свои навыки обнаружения фальшивых медиа, ознакомьтесь с нашим списком тестов для обнаружения фальшивых медиа и обучения .

Дипфейки идут – и они становятся лучше

Дело в том, что с тех пор, как в 2018 году дипфейки стали популярными, их основное предназначение – насилие над женщинами. Независимо от того, что создает поддельные порно с использованием знаменитости лица или зачистки одежду от кого-то на социальные медиа, все это сосредотачивается на использовании, манипулирования и унижающие женщин во всем мире.

Нет никаких сомнений в том, что на горизонте грядет восстание дипфейков. Распространение таких технологий представляет опасность для общества, но есть мало средств, чтобы остановить их продвижение вперед.