Microsoft, возможно, знала о сумасшедших ответах Bing Chat несколько месяцев назад

Искусственный интеллект Microsoft Bing Chat начался с трудного начала, но, похоже, Microsoft могла знать о проблемах задолго до его публичного дебюта. Сообщение службы поддержки на веб-сайте Microsoft ссылается на «грубые» ответы от чат-бота «Сидни», и это история, которую мы слышали на прошлой неделе. Вот в чем проблема — пост сделан 23 ноября 2022 года.

Откровение исходит от Бена Шмидта , вице-президента по информационному дизайну в Nomic, который поделился постом с Гэри Маркусом , автором, освещающим ИИ и основателем Geometric Intelligence. История гласит, что Microsoft тестировала Bing Chat, который, согласно сообщению, называется Sidney, в Индии и Индонезии где-то в период с ноября по январь, прежде чем сделать официальное объявление.

Сообщение сообщества о чате Bing.

Я спросил Microsoft, так ли это, и они поделились следующим заявлением:

«Сидней — это старое кодовое название функции чата, основанной на более ранних моделях, которые мы начали тестировать более года назад. Информация, которую мы собрали как часть этого, помогла нам в работе с новым предварительным просмотром Bing. Мы продолжаем настраивать наши методы и работаем над более продвинутыми моделями, чтобы использовать знания и отзывы, чтобы мы могли обеспечить наилучшее взаимодействие с пользователем. Мы продолжим делиться новостями о прогрессе в нашем блоге.

Первоначальный пост показывает, как ИИ-бот спорит с пользователем и использует те же формы предложений, которые мы видели, когда Bing Chat сказал, что хочет «быть человеком ». Далее по ветке другие пользователи поделились своим опытом, опубликовав печально известный улыбающийся смайлик, которым Bing Chat следует за большинством своих ответов.

Что еще хуже, первоначальный постер сказал, что они попросили предоставить отзыв и сообщить о чат-боте, что дает некоторую уверенность в том, что Microsoft знала о типах ответов, на которые способен ее ИИ.

Это противоречит тому, что Microsoft говорила в дни, последовавшие за появлением чат-бота в СМИ. В объявлении о предстоящих изменениях в Bing Chat Microsoft заявила, что «социальные развлечения», которые, предположительно, относятся к способам, которыми пользователи пытались заставить Bing Chat провокационными ответами, были «новым случаем использования чата».

С момента запуска Microsoft внесла несколько изменений в ИИ, в том числе значительно сократила продолжительность разговора. Это попытка обуздать типы ответов, которые мы видели через несколько дней после того, как Microsoft впервые анонсировала Bing Chat. Microsoft говорит, что в настоящее время работает над увеличением лимитов чата .

Хотя история тестирования Microsoft чата Bing Chat остается в воздухе, ясно, что ИИ планировался какое-то время. Ранее в этом году Microsoft сделала многомиллиардные инвестиции в OpenAI после успеха ChatGPT , а сам Bing Chat построен на модифицированной версии модели GPT компании. Кроме того, Microsoft опубликовала блог об «ответственном ИИ» всего за несколько дней до анонса Bing Chat.

Есть несколько этических вопросов, связанных с ИИ и его использованием в поисковой системе, такой как Bing, а также возможность того, что Microsoft поспешила выпустить Bing Chat, прежде чем он был готов и знал, на что он способен. Рассматриваемый пост поддержки в последний раз обновлялся 21 февраля 2023 г., но история исходного вопроса и ответов показывает, что они не изменялись с момента первоначальной публикации.

Возможно, Microsoft все равно решила продвигаться вперед, чувствуя давление со стороны грядущего Google Bard и стремительного роста популярности ChatGPT.