Alphabet, материнская компания Google, призывает сотрудников опасаться чат-ботов с искусственным интеллектом

Alphabet приказала своим сотрудникам не вводить конфиденциальную информацию в Bard, чат-бот с генеративным искусственным интеллектом, созданный и управляемый Google, которым владеет Alphabet.

Предупреждение компании также распространяется на другие чат-боты, такие как поддерживаемый Microsoft ChatGPT от OpenAI, сообщило агентство Reuters в четверг.

В последние месяцы чат-боты на базе ИИ вызвали огромный интерес из-за их впечатляющей способности общаться по-человечески, писать эссе и отчеты и даже успешно сдавать академические тесты.

Но у Alphabet есть опасения по поводу того, что его работники непреднамеренно сливают внутренние данные через инструменты.

В рамках текущей работы по доработке и улучшению передовой технологии искусственного интеллекта рецензенты-люди могут читать разговоры пользователей с чат-ботами, что создает риск для личной конфиденциальности, а также потенциальное раскрытие коммерческой тайны, последнее из которых, по-видимому, особенно беспокоит Alphabet. о.

Кроме того, чат-боты частично обучаются с помощью обмена текстовыми сообщениями пользователей, поэтому при определенных подсказках инструмент потенциально может повторять конфиденциальную информацию, которую он получает в этих разговорах, с представителями общественности.

Как и ChatGPT , Bard теперь доступен бесплатно для всех желающих. На своей веб-странице он предупреждает пользователей: «Пожалуйста, не включайте информацию, которая может быть использована для идентификации вас или других лиц в ваших разговорах с Бардом».

Он добавляет, что Google собирает «разговоры с Bard, информацию об использовании связанных продуктов, информацию о вашем местоположении и ваши отзывы» и использует эти данные для улучшения продуктов и услуг Google, которые включают Bard.

Google говорит, что хранит активность Bard до 18 месяцев, хотя пользователь может изменить это значение на 3 или 36 месяцев в своей учетной записи Google.

Он добавляет, что в качестве меры конфиденциальности разговоры Bard отключаются от учетной записи Google до того, как их увидит рецензент.

Агентство Reuters сообщило, что хотя предупреждение Alphabet действует уже некоторое время, оно недавно расширило его, посоветовав своим работникам избегать использования точного компьютерного кода, сгенерированного чат-ботами. Компания сообщила новостному изданию, что Бард иногда может делать «нежелательные предложения по коду», хотя текущая итерация инструмента по-прежнему считается жизнеспособным средством программирования.

Alphabet — не единственная компания, которая предупреждает своих сотрудников о рисках для конфиденциальности и безопасности, связанных с использованием чат-ботов. Samsung недавно выпустила аналогичную инструкцию для своих сотрудников после того, как некоторые из них передали конфиденциальные данные, связанные с полупроводниками, в ChatGPT, а Apple и Amazon, среди прочих, также, как сообщается, приняли аналогичную внутреннюю политику.