ChatGPT нарушает вашу конфиденциальность, говорится в основной жалобе GDPR

С тех пор, как на технологической сцене появились первые инструменты генеративного искусственного интеллекта (ИИ), возникли вопросы о том, откуда они берут данные и собирают ли они ваши личные данные для обучения своих продуктов. Теперь OpenAI, производитель ChatGPT , может оказаться в затруднительном положении именно по этим причинам.

По данным TechCrunch , в Польское управление по защите персональных данных была подана жалоба, в которой утверждается, что ChatGPT нарушает большое количество правил, найденных в Общем регламенте защиты данных Европейского Союза (GDPR). Это говорит о том, что инструмент OpenAI собирает пользовательские данные всевозможными сомнительными способами.

Приложение ChatGPT, работающее на iPhone.

В жалобе говорится, что OpenAI намеренно нарушила правила GDPR на законной основе, прозрачности, справедливости, правах доступа к данным и конфиденциальности.

Кажется, это серьезные обвинения. В конце концов, заявитель не утверждает, что OpenAI просто нарушил одно или два правила, но он нарушил множество мер защиты, призванных предотвратить использование и злоупотребление личными данными людей без вашего разрешения. С одной стороны, это можно рассматривать как почти систематическое нарушение правил, защищающих конфиденциальность миллионов пользователей.

Чат-боты на линии огня

MacBook Pro на столе, на экране которого отображается веб-сайт ChatGPT.

Это не первый раз, когда OpenAI оказывается под прицелом. В марте 2023 года он столкнулся с итальянскими регулирующими органами, в результате чего ChatGPT был заблокирован в Италии за нарушение конфиденциальности пользователей. Это еще одна головная боль для вирусного чат-бота с генеративным искусственным интеллектом в то время, когда такие конкуренты, как Google Bard, поднимают головы.

И OpenAI — не единственный производитель чат-ботов, выражающий обеспокоенность по поводу конфиденциальности. Ранее, в августе 2023 года, владелец Facebook Meta объявил, что начнет создавать собственных чат-ботов , что вызвало опасения среди защитников конфиденциальности по поводу того, какие частные данные будут собираться компанией, известной своей неприятием конфиденциальности.

Нарушения GDPR могут привести к штрафам в размере до 4% от мирового годового оборота для оштрафованных компаний, что может привести к тому, что OpenAI столкнется с огромным штрафом в случае его соблюдения. Если регулирующие органы вынесут решение против OpenAI, возможно, ему придется внести поправки в ChatGPT до тех пор, пока он не станет соответствовать правилам, как это произошло с инструментом в Италии.

Могут грозить огромные штрафы

Рука человека держит смартфон. На смартфоне отображается веб-сайт генеративного искусственного интеллекта ChatGPT.

Жалоба из Польши была подана исследователем безопасности и конфиденциальности по имени Лукаш Олейник, который впервые забеспокоился, когда использовал ChatGPT для создания своей биографии, которая, как он обнаружил, была полна фактически неточных утверждений и информации.

Затем он связался с OpenAI с просьбой исправить неточности, а также попросил прислать информацию о данных, которые OpenAI собрала о нем. Однако он заявляет, что OpenAI не смогла предоставить всю информацию, необходимую в соответствии с GDPR, предполагая, что она не была ни прозрачной, ни честной.

GDPR также гласит, что людям должно быть разрешено исправлять информацию, которую компания хранит о них, если она неточна. Тем не менее, когда Олейник попросил OpenAI исправить ошибочную биографию, написанную о нем ChatGPT, по его словам, OpenAI заявила, что не может этого сделать. В жалобе утверждается, что это предполагает, что правило GDPR «полностью игнорируется на практике» OpenAI.

Это не лучший вариант для OpenAI, поскольку он, похоже, нарушает многочисленные положения важного законодательства ЕС. Поскольку потенциально это может затронуть миллионы людей, штрафы могут быть действительно очень суровыми. Следите за тем, как это будет развиваться, поскольку это может привести к огромным изменениям не только для ChatGPT, но и для чат-ботов с искусственным интеллектом в целом.