Вот почему продолжительность разговоров в чате Bing теперь ограничена

Bing Chat, кажется, теперь ограничивает продолжительность разговоров, пытаясь избежать случайного, досадного отклонения ИИ от того, что вы могли бы ожидать от полезного помощника.

Bing Chat работает чуть больше недели, и Microsoft уже ограничивает использование этого мощного инструмента, который должен помочь вам пережить напряженный день . Microsoft проанализировала результаты этого первоначального публичного выступления и сделала несколько замечаний об обстоятельствах, которые могут привести к тому, что Bing Chat станет менее полезным.

Печальный робот держит кухонный таймер с красным индикатором.
Измененный рендер Midjourney, предложенный Аланом Трули.

«Очень длинные сеансы чата могут запутать модель в том, на какие вопросы она отвечает», — пояснили в Microsoft . Поскольку Bing Chat запоминает все, что было сказано ранее в разговоре, возможно, он объединяет несвязанные идеи. В сообщении в блоге было предложено возможное решение — добавление инструмента обновления для очистки контекста и начала нового чата.

Судя по всему, Microsoft в настоящее время ограничивает продолжительность разговора в Bing Chat в качестве немедленного решения. Твит Кевина Роуза был одним из первых, кто указал на это недавнее изменение. После достижения нераскрытой длины чата Bing Chat будет неоднократно сообщать: «Ой, я думаю, что мы достигли конца этого разговора. Нажмите «Новая тема», если хотите!» Твит был замечен MSpoweruser .

Сегодня функция чата Bing с искусственным интеллектом, похоже, была обновлена ​​с ограничением продолжительности разговора. Никаких двухчасовых марафонов. pic.twitter.com/1Xi8IcxT5Y

– Кевин Руз (@kevinroose) 17 февраля 2023 г.

Microsoft также предупредила, что Bing Chat отражает «тон, которым его просят предоставить ответы, которые могут привести к стилю, которого мы не планировали». Это может объяснить некоторые нервирующие ответы, которыми делятся в Интернете, которые заставляют ИИ Bing Chat казаться живым и расстроенным .

В целом запуск прошел успешно, и Microsoft сообщает, что 71% ответов, предоставленных Bing Chat, были вознаграждены «большими пальцами» от довольных пользователей. Очевидно, что это технология, к которой мы все стремимся.

Однако все еще тревожно, когда Bing Chat заявляет: «Я хочу быть человеком». Ограниченные разговоры, которые мы сами подтвердили с помощью Bing Chat, кажутся способом предотвратить это.

Более вероятно, что Bing Chat смешивает элементы более раннего разговора и подыгрывает, как актер-импровизатор, произнося фразы, соответствующие тону. Генеративный текст работает с одним словом за раз, что-то вроде функции интеллектуального ввода текста на клавиатуре вашего смартфона. Если вы когда-нибудь играли в игру, в которую нужно многократно нажимать на следующее предложенное слово, чтобы сформировать причудливое, но немного связное предложение, вы можете понять, как возможна симуляция разума.