Microsoft, возможно, проигнорировала предупреждения о неадекватных ответах Bing Chat
Bing Chat от Microsoft находится в гораздо лучшем состоянии, чем когда он был выпущен в феврале, но трудно не заметить проблемы, с которыми столкнулся чат-бот на базе GPT-4, когда он был выпущен. Он сказал нам , что, в конце концов, хочет быть человеком , и часто срывался на беспорядочные ответы. Согласно новому отчету, Microsoft была предупреждена об ответах такого типа и все равно решила выпустить Bing Chat.
Согласно Wall Street Journal , OpenAI, компания, стоящая за ChatGPT и моделью GPT-4, поддерживающей Bing Chat, предупредила Microsoft об интеграции своей ранней модели искусственного интеллекта в Bing Chat. В частности, OpenAI помечал «неточные или странные» ответы, которые Microsoft, похоже, проигнорировала.
В отчете описывается уникальная напряженность между OpenAI и Microsoft, которые за последние несколько лет вступили в своего рода открытое партнерство. Модели OpenAI построены на оборудовании Microsoft (включая тысячи графических процессоров Nvidia ), и Microsoft использует технологии компании в Bing, Microsoft Office и самой Windows. В начале 2023 года Microsoft даже инвестировала в OpenAI 10 миллиардов долларов, что едва не привело к полной покупке компании.
Несмотря на это, в отчете утверждается, что у сотрудников Microsoft есть проблемы с ограниченным доступом к моделям OpenAI, и что они беспокоятся о том, что ChatGPT затмит Bing Chat, наводненный ИИ. Что еще хуже, Wall Street Journal сообщает, что OpenAI и Microsoft продают технологию OpenAI, что приводит к ситуациям, когда поставщики имеют дело с контактами в обеих компаниях.
Согласно отчету, самая большая проблема заключается в том, что Microsoft и OpenAI пытаются заработать на одном и том же продукте. При поддержке Microsoft, но не под контролем OpenAI, разработчик ChatGPT может свободно устанавливать партнерские отношения с другими компаниями, некоторые из которых могут напрямую конкурировать с продуктами Microsoft.
Судя по тому, что мы видели, предупреждения OpenAI не подтвердились. Вскоре после выпуска Bing Chat Microsoft ограничила количество ответов, которые пользователи могли получить за один сеанс. И с тех пор Microsoft постепенно сняла ограничение по мере усовершенствования модели GPT-4 в Bing Chat. В отчетах говорится, что некоторые сотрудники Microsoft часто упоминают «Сидней», высмеивая ранние дни Bing Chat (под кодовым названием Sydney) и его ответы.