Мужчине, который заглянул в ChatGPT, сказали, что он «убил своих детей»

Представьте себе, что вы вводите свое имя в ChatGPT, чтобы узнать, что он знает о вас, только для того, чтобы уверенно — хотя и ошибочно — заявить, что вы были заключены в тюрьму на 21 год за убийство членов своей семьи.

Что ж, именно это случилось с норвежцем Арве Ялмаром Холменом в прошлом году после того, как он заглянул в ChatGPT, широко используемый чат-бот OpenAI на базе искусственного интеллекта.

Неудивительно, что Холмен теперь подал жалобу в Норвежское управление по защите данных, требуя оштрафовать OpenAI за свое тревожное заявление, сообщила на этой неделе BBC .

В ответ на запрос Холмена о себе в ChatGPT чат-бот сказал, что он «привлек внимание из-за трагического события».

Далее говорилось: «Он был отцом двух мальчиков 7 и 10 лет, которые были трагически найдены мертвыми в пруду недалеко от их дома в Тронхейме, Норвегия, в декабре 2020 года. Арве Ялмар Хольмен был обвинен, а затем осужден за убийство двух своих сыновей, а также за покушение на убийство его третьего сына».

Чат-бот сообщил, что этот случай «шокировал местное сообщество и нацию и широко освещался в средствах массовой информации из-за его трагического характера».

Но ничего подобного не произошло.

Понятно, что расстроенный этим инцидентом, Холмен сказал Би-би-си: «Некоторые думают, что не бывает дыма без огня — тот факт, что кто-то мог прочитать эти данные и поверить, что это правда, пугает меня больше всего».

Группа по защите цифровых прав Noyb подала жалобу от имени Холмена, заявив, что ответ ChatGPT является клеветническим и противоречит европейским правилам защиты данных в отношении точности личных данных. В своей жалобе Нойб заявил, что Холмен «никогда не обвинялся и не был осужден за какое-либо преступление и является сознательным гражданином».

ChatGPT использует заявление об отказе от ответственности, в котором говорится, что чат-бот «может совершать ошибки», и поэтому пользователи должны «проверять важную информацию». Но адвокат Noyb Йоаким Содерберг сказал: «Вы не можете просто распространять ложную информацию и в конце добавить небольшой отказ от ответственности, в котором говорится, что все, что вы сказали, может быть неправдой».

Хотя чат-боты с искусственным интеллектом нередко выдают ошибочную информацию — такие ошибки известны как «галлюцинации», — вопиющая степень этой конкретной ошибки шокирует.

Еще одна галлюцинация, которая попала в заголовки газет в прошлом году, касалась инструмента Google AI Gemini, который предлагал приклеивать сыр к пицце с помощью клея . В нем также утверждалось, что геологи рекомендовали людям съедать по одному камню в день.

BBC отмечает, что ChatGPT обновил свою модель после поиска Холмена в августе прошлого года, а это означает, что теперь он просматривает последние новостные статьи при создании ответа. Но это не значит, что ChatGPT теперь создает ответы без ошибок.

В истории подчеркивается необходимость проверять ответы, генерируемые чат-ботами с искусственным интеллектом, а не слепо доверять их ответам. Это также поднимает вопросы о безопасности текстовых инструментов генеративного искусственного интеллекта, которые работают без особого надзора со стороны регулирующих органов с тех пор, как OpenAI открыла этот сектор с запуском ChatGPT в конце 2022 года.

Компания Digital Trends связалась с OpenAI, чтобы получить ответ на неудачный опыт Холмена, и мы обновим эту историю, когда получим ответ.