«Мрачная перспектива», поскольку преступники захватывают чат-ботов с искусственным интеллектом, говорит Европол
На этой неделе Европол выступил с суровым предупреждением, подчеркнув риски, связанные с преступниками, когда они пытаются справиться с новой волной продвинутых чат-ботов с искусственным интеллектом.
В сообщении , опубликованном на этой неделе в Интернете, правоохранительные органы Европы описали, как такие инструменты, как ChatGPT и GPT-4 от OpenAI и Bard от Google , будут все чаще использоваться преступниками, ищущими новые способы обмана представителей общественности.
Он определил три конкретных области, которые вызывают у него наибольшую озабоченность.
Прежде всего, это мошенничество и социальная инженерия, когда адресатам рассылаются электронные письма в надежде, что они загрузят файл, зараженный вредоносным ПО, или перейдут по ссылке, ведущей на не менее опасный веб-сайт.
Фишинговые электронные письма, как их называют, обычно полны грамматических и орфографических ошибок и попадают в папку нежелательной почты. Даже те, которые попадают в папку «Входящие», написаны настолько ужасно, что получатель может быстро их выбросить, не задумываясь.
Но чат-боты с искусственным интеллектом могут создавать хорошо написанные сообщения без неаккуратных ошибок, что позволяет преступникам рассылать убедительные электронные письма, а это означает, что получателям придется уделять особое внимание проверке своих сообщений.
Европол заявил, что продвинутые чат-боты способны «воспроизводить языковые шаблоны и могут использоваться для имитации стиля речи конкретных лиц или групп», добавив, что такой возможностью можно «злоупотреблять в больших масштабах, чтобы ввести потенциальных жертв в заблуждение, заставив их довериться рукам». криминальных деятелей».
Европол заявил, что эта модель идеально подходит для целей пропаганды и дезинформации, поскольку новая волна чат-ботов преуспевает в создании аутентичного текста на скорости и в масштабе. пользователям генерировать и распространять сообщения, отражающие конкретное повествование, с относительно небольшими усилиями».
В-третьих, Европол упомянул кодирование как новую область, которую используют киберпреступники для создания вредоносных программ. «Помимо создания человекоподобного языка, ChatGPT способен создавать код на ряде различных языков программирования», — отметили в агентстве. «Для потенциального преступника с небольшими техническими знаниями это бесценный ресурс для создания вредоносного кода».
В нем говорится, что ситуация «обеспечивает мрачную перспективу» для тех, кто находится на правой стороне закона, поскольку гнусную деятельность в Интернете становится все труднее обнаружить.
Увлечение чат-ботами на основе ИИ началось в ноябре 2022 года, когда компания OpenAI, поддерживаемая Microsoft, выпустила свой впечатляющий инструмент ChatGPT. Совсем недавно была выпущена улучшенная версия GPT-4 , а Google также представила свой аналогичный инструмент под названием Bard. Все трое известны своей впечатляющей способностью создавать естественно звучащий текст с помощью всего нескольких подсказок, а технология, вероятно , поможет или даже заменит множество различных работ в ближайшие годы.
Другая похожая технология на основе ИИ позволяет создавать оригинальные изображения, видео и аудио с помощью всего нескольких текстовых подсказок, подчеркивая, что ни одна форма мультимедиа не избежит влияния ИИ по мере того, как технология продолжает совершенствоваться.
Некоторые влиятельные лица выражают понятную озабоченность по поводу его быстрого роста: в недавнем открытом письме, подписанном Илоном Маском , соучредителем Apple Стивом Возняком и различными экспертами, утверждается, что системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять «серьезные риски для общества и человечества». В письме содержится призыв к шестимесячной паузе, позволяющей создать и внедрить протоколы безопасности для передовых инструментов, и добавлено, что при правильном обращении «человечество может наслаждаться процветающим будущим с ИИ».