ИИ делает застарелую аферу еще более эффективной

Вы, несомненно, слышали о мошенничестве, когда преступник звонит пожилому человеку и притворяется его внуком или другим близким родственником. Обычный распорядок — вести себя в бедственном состоянии, притворяться, что они в затруднительном положении, и просить срочный денежный перевод, чтобы разрешить ситуацию. В то время как многие бабушки и дедушки поймут, что это голос не их внука, и повесят трубку, другие этого не заметят и, слишком желая помочь своему встревоженному родственнику, отправят деньги на счет звонящего.

Воскресный отчет Washington Post показывает, что некоторые мошенники вывели мошенничество на совершенно новый уровень, развернув технологию искусственного интеллекта, способную клонировать голоса, что делает еще более вероятным, что цель попадется на уловку.

Пожилой человек держит телефон.

По данным Post, чтобы запустить эту более изощренную версию мошенничества, преступникам требуется «аудио-образец всего из нескольких предложений». Затем образец пропускается через один из многих широко доступных онлайн-инструментов, которые используют исходный голос для создания реплики, которой можно дать указание говорить все, что вы хотите, просто вводя фразы.

Данные Федеральной торговой комиссии показывают, что только в 2022 году было получено более 36 000 сообщений о так называемых мошенничествах с самозванцами, причем более 5 000 из них произошли по телефону. Заявленные убытки достигли 11 миллионов долларов.

Есть опасения, что по мере того, как инструменты ИИ станут более эффективными и доступными, в ближайшие месяцы и годы на аферу попадется еще больше людей.

Однако мошенничество все еще требует некоторого планирования, поскольку решительному преступнику необходимо найти аудиозапись голоса, а также номер телефона связанной с ним жертвы. Образцы аудио, например, можно найти в Интернете на популярных сайтах, таких как TikTok и YouTube, а номера телефонов также можно найти в Интернете.

Мошенничество также может принимать различные формы. The Post приводит пример, когда некто, выдававший себя за адвоката, связался с пожилой парой, сообщив им, что их внук находится под стражей за предполагаемое преступление и что им требуется более 15 000 долларов на судебные издержки. Затем поддельный адвокат притворился, что передает телефон их внуку, чей клонированный голос умолял о помощи в оплате гонорара, что они должным образом и сделали.

Они поняли, что их обманули, только когда их внук позвонил им позже в тот же день, чтобы поболтать. Предполагается, что мошенник скопировал свой голос из видеороликов на YouTube, которые разместил внук, хотя в этом трудно быть уверенным.

Некоторые призывают к ответственности за такие преступления компании, разрабатывающие технологию искусственного интеллекта, которая клонирует голоса. Но прежде чем это произойдет, кажется очевидным, что многие другие потеряют деньги из-за этой гнусной аферы.

Чтобы послушать пример клонированного голоса и понять, насколько он может быть близок к оригиналу, ознакомьтесь с этой статьей Digital Trends .