Проклятие закадрового голоса Лэй Цзюня стало вирусным на Douyin. Я был зол и встревожен новой эрой распространения Deepfakes.

Извините, у меня был 7-дневный отпуск, и ИИ отругал меня голосом Лэй Цзюня в течение 6 дней. Как это было?

Сам Лэй Цзюнь был застрелен невинно, а блоггеры проверяли почву на грани нарушения закона или уже нарушили закон. Пользователи сети недолго наблюдали за волнением, а затем вернулись на свои рабочие места в юридическом отделе Xiaomi, ошеломленные и неспособные вернуть свои права. В их руках 40-метровое мачете.

В клонировании голоса на самом деле нет ничего нового, но последствия его распространения только начали проявляться.

Это не просто шутка, на этот раз ИИ немного прорвался к чистой прибыли.

В последнее время появилось много видеороликов, в которых «Лэй Цзюнь ругается» на Доуиня и Билибили. Фактически, пользователи сети использовали искусственный интеллект для клонирования голоса Лэй Цзюня, и процедуры копирайтинга также очень похожи. У всех них есть три характеристики.

▲ Это пародия

Вначале он прямо выразил свои чувства и назвал свою личность: «Всем привет, я Лэй Цзюнь».

▲Это розыгрыш

Нет запретных тем. Мне неловко играть в баскетбол, маджонг и другие игры. Я не знаю, чем закончились каникулы. Они все используют ИИ Лэй Цзюня, чтобы жаловаться и критиковать. Более того, они используют ложную информацию, чтобы очернить ситуацию. имидж бренда, например просмотр порнографических фильмов на мобильных телефонах Xiaomi.

▲Это пародия. Поиск по теме очень интересен.

У него мягкий тон, но постоянные ругательства, в отличие от самого Лэй Цзюня. Он говорит обо мне как о старике и звере, приветствует чужих матерей и даже распространяет слухи и угрозы, заявляя, что удаленно управляет мобильными телефонами Xiaomi. самоуничтожиться и поразить людей с помощью Xiaomi Su7.

▲ Это пародия

Есть также пользователи сети с потрясающими идеями, которые использовали искусственный интеллект, чтобы подделать ответ Лэй Цзюня. Предыдущий стиль рисования был нормальным, он разъяснял факты, восхвалял талант пользователя сети и просил всех быть осторожными, чтобы различать, как сказал бы Лэй Цзюнь: поворот во второй половине плохо виден на картинке, продолжение Аромат исходит из вашего рта и застает людей врасплох.

Сам Лэй Цзюнь уже знал о том, что его разыграл ИИ. Когда пользователи сети в разделе комментариев Weibo спросили о порядке блокировки Xiaomi su7, он ответил тремя смайликами с сильными эмоциональными оттенками.

Имидж Лэй Цзюня всегда был относительно доступным, и он не прочь посмеяться над собой. Когда он присоединился к Station B, он спел свою знаменитую песню «Are you OK». Xiaomi даже выпустила периферийные устройства с руками «Вы в порядке», но природа. в этот раз, очевидно, тоже самое.

Не желательно высмеивать шутки, быть слишком вульгарными или даже злобными.

В этих видеороликах не только не подчеркивается, что они являются ИИ, но и заявляется, что они Лэй Цзюнь, и для фотографий используются настоящие фотографии. Они действительно находятся на грани нарушения прав на репутацию и права на портреты по сравнению с ИИ, будь то Стефани. Солнце нарушает более ясно.

Юридический отдел Xiaomi выполнил свою работу. В настоящее время при поиске «Lei Jun AI dubbing» на Douyin больше нет ругательств, слухов и нецензурной лексики.

Нарушение прав ИИ по-прежнему является чем-то новым, но из прошлого можно извлечь уроки.

В апреле этого года был вынесен приговор первой инстанции по первому в стране «делу о нарушении голоса ИИ», четко определивший объем защиты прав и интересов голосов физических лиц на основании их идентификации. Доступен звук, генерируемый ИИ.

Здесь есть ключевое понятие, что такое узнаваемость? Помимо использования звука, в этом деле о нарушении также упоминался простой критерий: могут ли его распознать обычные слушатели в соответствующей области.

Этот стандарт также должен применяться и к дубляжу Лэй Цзюня с помощью искусственного интеллекта. Хотя содержание многих видеороликов на первый взгляд не похоже на стиль Лэй Цзюня, голоса действительно похожи на самого Лэй Цзюня.

Короче говоря, Интернет — это не место вне закона, и ИИ не может избежать власти Скайнета. Не говорите о технологической нейтральности. Ответственность должны нести люди, которые используют инструменты.

Подделать подделку легко, но задумывались ли вы, как решить эту проблему?

Масштабное распространение голоса ИИ Лэй Цзюня также иллюстрирует тот факт, что клонирование голосов становится все проще и проще. Хотя группа по защите прав приняла меры, в социальных сетях некоторое время царил шум.

В отличие от случая, когда ИИ Стефани Сан просили петь, требовалась обучающая модель SoVITS, которая была немного профессиональной и проверяла производительность оборудования. Теперь, если вы попросите кого-нибудь что-то сказать, это можно сгенерировать напрямую. на сайте практически в реальном времени.

▲На веб-сайте клонирования голоса есть множество персонажей с искусственным интеллектом, загруженных самими пользователями.

Некоторое время назад ведущая компания прямого вещания «Три овцы» еще не вышла из «Врат Лунного пирога» и упала в «Врата записи». После того, как гроб был доработан, виноват был и ИИ.

Содержание записи, подозреваемой в том, что он является руководителем Three Sheep, было раскрыто. Содержание снизило лимит и затронуло многих руководителей и ведущих. Однако, по данным полицейского расследования, аудиоконтент был ложным и был подделан с использованием искусственного интеллекта. Некоторое время люди не могли поверить, что ИИ настолько силен, что может делать пьяные замечания и отправлять себя в юридическую колонку.

Если вы не верите, я просто попробовал сайт клонирования голоса. Вы можете использовать его, зарегистрировав свой адрес электронной почты. Голос Лэй Цзюня — один из популярных вариантов.

Хотя сгенерированный эффект имеет некоторые недостатки, в том числе шум и глотание, а качество звука такое же, как и с другого конца телефона, он генерируется практически в реальном времени, бесплатно в пределах 500 слов, а тон и интонация относительно естественны. . Что еще нужно для велосипеда?

▲Еще один сайт по клонированию голоса

Доктор Чэнь Пэн, специалист по интеллектуальным алгоритмам Жуйлай, рассказал APPSO, что раньше для сбора информации о наших голосовых отпечатках требовалось несколько минут или десятков минут, но теперь ее можно получить примерно за полминуты или десятки секунд. Если мы получим еще несколько тревожных звонков, наши голоса могут быть раскрыты.

Однако, если вы хотите более точно клонировать и скопировать тон и другие стили речи, например, позволить Го Дэгану говорить по-английски, а Свифт Свифт говорит по-китайски, все равно потребуется больше корпуса.

Но когда дело доходит до корпуса, недостатка в знаменитостях нет. Случаи мошенничества с голосом ИИ также происходили за рубежом, и эта идея была направлена ​​даже против президента.

Ранее в этом году жители Нью-Гэмпшира получили автоматический голосовой звонок от Байдена и сказали не голосовать на праймериз штата. На самом деле аудиозапись была подделана с помощью инструмента искусственного интеллекта ElevenLabs с целью вмешательства в выборы.

Через несколько дней после инцидента ElevenLabs заблокировала аккаунт инициатора. Пользователь признался, что на клонирование голоса Байдена ему понадобилось менее 20 минут и 1 доллар.

ElevenLabs также приняла некоторые превентивные меры, в том числе «No-Go Voices», которая запрещает пользователям загружать или клонировать голоса определенных знаменитостей и политиков.

Однако он не монолитный. В марте этого года репортер 404 СМИ обнаружил, что можно обойти правила и клонировать голоса Трампа и Байдена, просто добавив минуту молчания в начало загруженного файла.

Вы также можете использовать магию, чтобы победить магию, но у программного обеспечения для обнаружения ИИ часто возникают проблемы со звуком, генерируемым ИИ.

Репортеры NPR протестировали три программного обеспечения для обнаружения, и результаты не были оптимистичными. Было представлено 84 образца. Самое эффективное программное обеспечение ответило неправильно на 3 вопроса, оставшееся – на 20 вопросов, а точность другого составила всего около 50%. .

В инциденте с голосом А. И. Лэй Цзюня есть еще один очень интересный феномен: некоторые пользователи сети не только позвонили в юридический отдел онлайн, но и спросили, почему платформа позволяет такому контенту становиться популярным, несмотря на то, что он не контролирует его?

В «Мерах по маркировке синтетического контента, созданного искусственным интеллектом (проект для комментариев)», опубликованном Администрацией киберпространства Китая в сентябре, предлагается добавлять явные и неявные ярлыки к синтетическому контенту, создаваемому ИИ. в то время как последний добавляется в середину метаданных.

▲Пользователь добавляет независимое заявление

Среди них, какие обязанности должна нести платформа, распространяющая контент?

Первый — проверить, имеют ли метаданные неявный идентификатор, и если да, то следует добавить заметное напоминание. Второй — что неявный идентификатор не проверен, но пользователь заявляет, что это контент AI, также должно быть напоминание; добавлено третье — отсутствие неявного идентификатора. Пользователь также не заявил, что платформа обнаружила следы ИИ и ему необходимо добавить напоминание;

Этот фарс является примером. Пользователь не заявил о себе, и платформа не была обнаружена. В некоторых видеороликах под заголовком было напоминание о том, что «подозревается, что используется технология генерации искусственного интеллекта, пожалуйста, проверяйте внимательно», но некоторые не были обнаружены.

▲Не отмечено сверху, но отмечено снизу

Ранее в этом году ИИ подделывал порнографические изображения Тейлор Свифт, что было типичным случаем, когда знаменитости пострадали от ИИ, что также отражало отставание в мерах по исправлению положения.

Одна из фотографий просуществовала на X 17 часов и была просмотрена 47 миллионов раз, прежде чем была удалена.

Социальные сети, такие как X и Instagram, помимо удаления фотографий, однажды не позволяли выполнять поиск по Swift или выдавали предупреждения при поиске. Фанаты ненавидят тот факт, что железо не может стать сталью, поэтому спонтанно «режут площадь» и используют реальные фотографии для защиты своих кумиров.

▲ Предупреждение о поиске в Instagram для Тейлор Свифт

Чем шире становится технология искусственного интеллекта, тем труднее становится предотвратить ее неправильное использование.

«Модный папа», носивший пуховик и созданный с помощью Midjourney, оставил картинки и факты в прошлом. То же самое касается звуков, видео и сцен.

Самое страшное, о чем стоит подумать, это то, что по мере развития технологий ИИ может «воспроизводить» людей с определенными биологическими характеристиками, которые становятся все ближе и ближе к реальности.

Наши лица и личная информация утекли. В то же время стиль и звук живописи, эти, казалось бы, уникальные вещи и техники, когда-то имевшие порог, также стали имитироваться ИИ, чего достаточно, чтобы обмануть обычных людей.

Сегодня, помимо использования технических и юридических средств, нам, возможно, придется задуматься о том, нужен ли некий моральный консенсус. Джентльмену есть что делать, а что нет. Не делай другим того, чего не хочешь, чтобы другие делали тебе.

Когда мы выходим в Интернет, лучше всего не предполагать, что все правда, а тем более быть инициатором пересечения линии. Мы не просто смотрим на воду с берега, мы еще и маленькая лодка над ней.

Он остер, как осенний мороз, и может отвести злые бедствия. Рабочая электронная почта: [email protected]

# Добро пожаловать на официальную общедоступную учетную запись WeChat aifaner: aifaner (идентификатор WeChat: ifanr). Более интересный контент будет предоставлен вам как можно скорее.

Ай Фанер | Исходная ссылка · Посмотреть комментарии · Sina Weibo