Хакеры используют искусственный интеллект для создания вредоносного ПО, заявляет ФБР

ФБР предупредило, что хакеры используют инструменты генеративного искусственного интеллекта (ИИ), такие как ChatGPT , быстро создают вредоносный код и запускают киберпреступления, которые в прошлом требовали бы гораздо больше усилий.

ФБР подробно изложило свои опасения во время разговора с журналистами и объяснило, что чат-боты с искусственным интеллектом подпитывают все виды незаконной деятельности: от мошенников, совершенствующих свои методы, до террористов, консультирующихся с инструментами для проведения более разрушительных химических атак.

Хакер печатает на ноутбуке Apple MacBook, держа телефон. Оба устройства отображают код на своих экранах.
Сора Симадзаки / Pexels

По словам высокопоставленного чиновника ФБР (через Tom's Hardware ), «мы ожидаем, что со временем, по мере того как внедрение и демократизация моделей ИИ продолжится, эти тенденции будут усиливаться». Злоумышленники используют ИИ в дополнение к своей обычной преступной деятельности, продолжили они, в том числе используют генераторы голоса ИИ , чтобы выдавать себя за доверенных лиц, чтобы обмануть близких или пожилых людей.

Мы не в первый раз видим, как хакеры берут такие инструменты, как ChatGPT, и искажают их для создания опасных вредоносных программ. В феврале 2023 года исследователи из охранной фирмы Checkpointобнаружили , что злоумышленники смогли изменить API-интерфейс чат-бота, позволив ему генерировать вредоносный код и сделав создание вируса доступным практически любому потенциальному хакеру.

Представляет ли ChatGPT угрозу безопасности?

MacBook Pro на столе с веб-сайтом ChatGPT, отображаемым на его дисплее.
Хатидже Баран / Unsplash

Позиция ФБР сильно отличается от позиции некоторых киберэкспертов, с которыми мы разговаривали в мае 2023 года. Они сказали нам , что угроза со стороны чат-ботов с искусственным интеллектом в значительной степени преувеличена, и большинство хакеров находят лучшие эксплойты кода из более традиционных утечек данных и открытого исходного кода. исследовать.

Например, Мартин Цугек, директор по техническим решениям в Bitdefender, объяснил, что «большинство начинающих авторов вредоносного ПО вряд ли обладают необходимыми навыками», чтобы обойти защиту чат-ботов от вредоносных программ. Кроме того, пояснил Цугек, «качество вредоносного кода, создаваемого чат-ботами, как правило, низкое».

Это предлагает контрапункт утверждениям ФБР, и нам придется посмотреть, какая сторона окажется правильной. Но поскольку производитель ChatGPT OpenAI прекращает выпуск собственного инструмента, предназначенного для обнаружения плагиата, созданного чат-ботами , в последнее время новости не обнадеживают. Если ФБР право, то впереди могут быть трудные времена в борьбе с хакерами и их попытками создать вредоносное ПО с помощью чат-ботов.