Юрист приносит извинения за поддельные цитаты из суда, созданные ChatGPT
В последние месяцы было много разговоров о том, как новая волна чат-ботов на базе ИИ, в том числе ChatGPT , может перевернуть многие отрасли, включая юридическую профессию.
Однако, судя по тому, что недавно произошло в деле в Нью-Йорке, кажется, что может пройти некоторое время, прежде чем высококвалифицированные юристы будут сметены этой технологией.
Странный эпизод начался, когда Роберто Мата подал в суд на колумбийскую авиакомпанию, заявив, что он получил травму во время полета в Нью-Йорк.
Авиакомпания Avianca попросила судью закрыть дело, поэтому юридическая команда Маты составила краткое изложение, в котором упоминаются полдюжины подобных случаев, имевших место, чтобы убедить судью продолжить рассмотрение дела их клиента, сообщает New York Times .
Проблема заключалась в том, что юристы авиакомпании и судья не смогли найти никаких доказательств по делам, упомянутым в брифе. Почему? Потому что ChatGPT их всех выдумал.
Создатель брифа, Стивен А. Шварц — высококвалифицированный юрист фирмы Levidow, Levidow & Oberman — признался в письме под присягой, что использовал знаменитого чат-бота OpenAI ChatGPT для поиска подобных дел, но сказал, что он «выявил сам по себе ненадежен».
Шварц сказал судье, что раньше не использовал ChatGPT и «поэтому не знал о возможности того, что его содержание может быть ложным».
При создании брифа Шварц даже попросил ChatGPT подтвердить, что случаи действительно имели место. Всегда готовый помочь чат-бот ответил утвердительно, заявив, что информацию о них можно найти в «авторитетных юридических базах данных».
Адвокат, оказавшийся в центре бури, сказал, что он «очень сожалеет» об использовании ChatGPT для создания брифа, и настаивал на том, что он «никогда не будет делать этого в будущем без абсолютной проверки его подлинности».
Глядя на то, что он назвал юридическим представлением, полным «фальшивых судебных решений, с фальшивыми цитатами и фальшивыми внутренними цитатами», и описывая ситуацию как беспрецедентную, судья Кастель назначил слушание на начало следующего месяца для рассмотрения возможных наказаний.
Впечатляя тем, как они создают плавный текст высокого качества, ChatGPT и другие чат-боты, подобные ему, также известны тем, что выдумывают вещи и представляют их так, как будто они реальны — этому Шварц научился на своем собственном опыте. Это явление известно как «галлюцинации» и является одной из самых больших проблем, с которыми сталкиваются разработчики чат-ботов, поскольку они стремятся сгладить эту очень проблемную складку.
В другом недавнем примере галлюцинаций инструмента генеративного ИИ мэр Австралии обвинил ChatGPT в создании лжи о нем, в том числе о том, что он был заключен в тюрьму за взяточничество, когда работал в банке более десяти лет назад.
Мэр Брайан Худ на самом деле был осведомителем в этом деле и никогда не был обвинен в совершении преступления, поэтому он был довольно расстроен, когда люди начали информировать его о переписывании истории чат-ботом.