Соперник Google ChatGPT — это беспорядок с точки зрения этики, говорят сотрудники Google
Google запустил Bard , своего конкурента ChatGPT, несмотря на внутренние опасения, что он был «патологическим лжецом» и давал «неудобные» результаты, говорится в новом отчете. Рабочие говорят, что эти опасения, по-видимому, были проигнорированы в отчаянной попытке догнать ChatGPT и предотвратить угрозу, которую он может представлять для поискового бизнеса Google .
Откровения исходят из отчета Bloomberg , в котором подробно рассматривается Google Bard и вопросы, поднятые сотрудниками, работавшими над проектом. Это поучительный отчет о том, как чат-бот явно вышел из строя, и о том, какие опасения эти инциденты вызвали у заинтересованных работников.

Например, Bloomberg цитирует анонимного сотрудника, который попросил у Барда инструкции о том, как посадить самолет, а затем пришел в ужас, увидев, что описание Барда приведет к крушению. Другой рабочий сказал, что советы Барда по подводному плаванию «вероятно приведут к серьезным травмам или смерти».
По-видимому, эти проблемы были подняты незадолго до запуска Bard, однако Google настаивал на дате запуска, так как его желание идти в ногу с путем, проложенным ChatGPT . Но он сделал это, игнорируя свои собственные этические обязательства, что привело не только к опасным советам, но и к потенциальному распространению дезинформации.
Спешим к запуску

В 2021 году Google пообещал удвоить свою команду сотрудников, изучающих этические последствия искусственного интеллекта (ИИ), и больше инвестировать в определение потенциального вреда. Тем не менее, эта команда сейчас «бессильна и деморализована», говорится в отчете Bloomberg. Хуже того, членам команды сказали «не мешать и не пытаться уничтожить какие-либо инструменты генеративного ИИ в разработке», что ставит под сомнение приверженность Google этике ИИ.
Это было замечено в действии непосредственно перед запуском Bard. В феврале сотрудник Google отправил сообщение внутренней группе, чтобы сказать: «Бард хуже, чем бесполезен: пожалуйста, не запускайте», и множество других сотрудников согласились с ним. В следующем месяце Дженнай, руководитель отдела управления ИИ в Google, отменила оценку рисков, в которой говорилось, что Бард может причинить вред и не готов к запуску, продвигая первый публичный выпуск чат-бота.
Отчет Bloomberg рисует картину компании, не доверяющей этическим соображениям, которые, по ее мнению, могут помешать прибыльности ее собственных продуктов. Например, один работник попросил поработать над справедливостью в машинном обучении, но его неоднократно отговаривали до такой степени, что это влияло на его оценку производительности. Менеджеры жаловались, что этические соображения мешают их «настоящей работе», заявил сотрудник.
Это тревожная позиция, особенно потому, что мы уже видели множество примеров неправомерных действий чат-ботов ИИ , которые давали оскорбительную, вводящую в заблуждение или откровенно ложную информацию. Если отчет Bloomberg верен в отношении кажущегося враждебным подхода Google к этическим проблемам, это может быть только началом, когда речь заходит о проблемах, вызванных ИИ.