Почему мне нужно так долго ждать, чтобы подать заявку на учетные записи для ChatGPT и новых Bings?

На прошлой неделе изменения AIGC заставили мир сойти с ума, просыпаясь каждый день, может быть «новый мир».

Но с другой точки зрения, какой бы умной и разрушительной ни была AIGC, мы все еще находимся в «старом мире», или, если быть точным, это должен быть «альтернативный» мир.

Не только новый Bing, Github Copilot X, плагины ChatGPT, Midjourney V5, Adobe Firefly и даже Wenxin Yiyan от Baidu, вам нужно присоединиться к списку ожидания, чтобы дождаться места, прежде чем вы его испытаете. Этот процесс очень похож на карточную систему плановой экономики.

С появлением все большего количества услуг AIGC, включая обновление оригинального GPT-4 и Midjourney V5, кажется, что время списка ожидания увеличивается.

▲ Середина пути V5

По сей день в новом списке ожидания Bing все еще существует довольно много людей, не говоря уже о других новых генерирующих возможностях искусственного интеллекта.

Возможно, это было молчаливое сопротивление негласным правилам списка ожидания: кто-то сделал сайт , который «ставит все очереди в один клик».

Но ирония в том, что функция «присоединиться в один клик» еще не реализована, вам нужно сначала присоединиться к списку ожидания, а суффикс доменного имени веб-сайта — wtf, который полон негодования.

За листом ожидания стоит более стабильное обслуживание

Когда я закинул этот вопрос в Bing, Bing нашел четыре причины из трех страниц на официальном сайте OpenAI.

  • Ограничьте количество пользователей, чтобы обеспечить качество и стабильность обслуживания.
  • Собирайте отзывы пользователей, чтобы улучшить функции и опыт обслуживания.
  • Повысьте ожидания пользователей и чувство участия, а также улучшите популярность и репутацию сервиса.
  • Отсеивайте пользователей, которые соответствуют целевой группе, повышайте коэффициент конверсии услуг и коэффициент удержания.

А это больше похоже на какие-то официальные слова OpenAI, Microsoft, Google и других крупных компаний на неопределенный срок.

Условно говоря, ChatGPT, который первым вышел в публичный доступ, испытал много колебаний в обслуживании ChatGPT с обновлением модели и существенным снижением цены.

Проблемы со стабильностью, такие как проглатывание записей вопросов и ответов, простои и путаница в списке вопросов и ответов.

В новом Bing на основе OpenAI тоже избыточная риторика, Microsoft до сих пор также ограничивает количество и продолжительность разговоров в новом Bing.

Можно возразить, что ограничение количества людей, использующих ChatGPT и новый Bing, обеспечивает более стабильный и быстрый отклик и генерацию контента.

Но вы должны знать, что эти функции и службы уже потребляют значительные ресурсы, занимая почти половину вычислительной мощности Microsoft Azure.

В настоящее время AIGC еще не выпустила суперприложения и все еще находится в процессе быстрой итерации, и можно даже сказать, что это все еще бета-тестовая версия.

Взаимодействие с ИИ через традиционные диалоговые окна не совсем соответствует ситуации, когда в 2023 году у каждого будет смартфон.

Сейчас AIGC можно рассматривать только как функцию, а грядущие Copilot, Firefly и т. д. больше похожи на продукты.

▲ Функция второго пилота Office 365

Но они до сих пор не открыты для публики, лежа один за другим в листе ожидания.

С определенной точки зрения, Microsoft, Google и Adobe все еще «полируют» свои продукты, но с другой точки зрения, если они хотят открыть дверь для всех или сказать, что ИИ становится вторым пилотом для всех, они все равно нужно пробить какое-то "узкое место".

Процветающий AIGC может начать сталкиваться с узким местом

«Узким местом» здесь является не внешнее проявление, этика, законы и правила, с которыми сталкивается генеративный ИИ, или точность его реакции.

Вместо этого именно аппаратное обеспечение ИИ обеспечивает вычислительную мощность, а также различные облачные вычислительные мощности для обучения.

Microsoft продолжает вкладывать значительные средства в OpenAI, последовательно инвестируя миллиарды долларов и постепенно создавая новый bing на основе GPT-4 и новый Office, который все еще находится в списке ожидания.

В то же время, чтобы гарантировать, что новый bing и последующий новый Office с функцией Copilot могут реагировать стабильно и быстро.

Microsoft также предоставляет и резервирует половину вычислительной мощности и вычислительной мощности своей облачной службы Azure.

Это также привело к перегрузке внутренних вычислительных ресурсов Microsoft Azure. The Information провела интервью с внутренними сотрудниками Microsoft.В связи с ограниченными аппаратными вычислительными ресурсами Microsoft внедряет внутреннюю систему аппаратного списка ожидания.

Другие команды и отделы в Microsoft, разрабатывающие модели машинного обучения, хотят обратиться к облачным службам ИИ Azure, они должны быть одобрены и предоставлены пошаговые отчеты, а окончательное решение должен принять вице-президент.

Пока мы стоим в очереди, чтобы испытать новые сервисы генеративного ИИ, в дополнение к новому bing и новым сервисам Office и OpenAI, другие отделы Microsoft также ждут избыточной мощности облачных вычислений Azure.

Однако со стратегией Microsoft «Все в OpenAI» вычислительная мощность и емкость облака Azure также очень ограничены.

Помимо внутренних вызовов, Azure также предоставляет различные продукты и услуги, включая ИИ, вычисления, контейнеры, гибридное облако, Интернет вещей и т. д.

Как поставщик облачных услуг, Azure расширилась до более чем 60 регионов по всему миру, а ее внешние серверные продукты и доходы от облачных услуг составляют 36% от общего дохода Microsoft.

Однако, как и внутренняя команда Microsoft, клиенты, которые покупают Azure, также страдают от ограниченной вычислительной мощности, особенно если они хотят позвонить в Azure OpenAI, им все равно нужно присоединиться к списку ожидания.

Примерно с конца 2022 года Microsoft планирует добавить дополнительное оборудование (GPU или TPU) для увеличения вычислительной мощности.

А также достигли соглашения с Nvidia о добавлении десятков тысяч вычислительных карт H100 GPU в Azure, чтобы обеспечить более высокую эффективность обучения ИИ и эффективности рассуждений для последующего OpenAI.

Однако в настоящее время Microsoft и Nvidia не раскрывают информацию о развертывании H100 в Azure, и только небольшое количество команд в Microsoft имеют доступ к H100 (скорее всего, новый bing и Office), и большинство отделов по-прежнему исключены.

Приблизительная цена за штуку H100 может составлять около 240 000 юаней.

Не только Microsoft, но и поставщики облачных услуг, такие как Google и Oracle, также вкладывают значительные средства в оборудование, такое как графические процессоры, для расширения своих облачных сервисов, готовясь к вычислительной мощности до того, как AIGC полностью выйдет из строя.

▲ Генеральный директор Nvidia Хуан Ренсюнь и соучредитель и главный научный сотрудник OpenAI Илья Суцкевер

Однако с момента выпуска GTC 2022 и по настоящее время Nvidia не объявляла о поставках и продажах H100, и неизвестно, будет ли эффективным план расширения Microsoft для Azure.

В этом году на GTC 2023 Nvidia не добилась прогресса в аппаратном обеспечении H100 и A100, но подчеркивала преимущества Nvidia в оборудовании для облачных вычислений.

И ее главный технический директор также начал подчеркивать, что «криптовалюта не вносит никакого полезного вклада в общество», а также начал подчеркивать со стороны, что область AIGC будет той областью, на которой Nvidia сосредоточится в течение следующих 30 лет.

С непрерывным развитием поля AIGC примерно с октября 2022 года акции Nvidia также будут расти, преодолевая предыдущий спад бизнеса, вызванный рецессией криптовалюты.

В настоящее время рыночная стоимость Nvidia достигла пика, почти сравнявшись с суммой рыночной стоимости Intel, AMD и ARM.

Однако такая высокая рыночная стоимость, по-видимому, не улучшает предложение оборудования. очень вероятно, что будет очередная паника в индустриальных видеокартах.

Не только состояние аппаратной части, но и вычислительная матрица, состоящая из этих высокопроизводительных графических процессоров, обладает высокой мощностью: мощность одной вычислительной карты H100 с интерфейсом SXM достигает 700 Вт.

Энергопотребление вычислительных центров для обучения моделей ИИ и обработки больших данных на самом деле ошеломляет.

В 2021 году Дэвид Паттерсон и Джозеф Гонсалес из Калифорнийского университета показали , что учебная GPT-3 будет потреблять примерно 1,287 гигаватт-часа электроэнергии, что эквивалентно годовому потреблению электроэнергии 120 американскими домохозяйствами.

В то же время в документе также установлено, что учебный ГПТ-3 будет производить 502 тонны выбросов углерода, что эквивалентно годовому выбросу 110 автомобилей.

Они также подчеркнули, что это только стоимость обучения модели, и поскольку она наводняет рынок, она также будет потреблять больше ресурсов, которые могут быть выше, чем стоимость обучения.

OpenAI GPT-3 использует 175 миллиардов параметров или переменных, в то время как параметры GPT-4 оцениваются между 175 и 280 миллиардами миллиардов. Что касается энергопотребления, спрос на облачные вычисления будет только увеличиваться.

С этой целью генеральный директор OpenAI Сэм Альтман заявил в интервью The Verge, что OpenAI ищет эффективные способы повышения производительности и безопасности модели.

Другими словами, OpenAI также пытается сэкономить аппаратные и энергетические ресурсы для обучения и запуска моделей за счет более эффективных алгоритмов.

С поверхностной точки зрения механизм списка ожидания обеспечивает текущую работу AIGC и скорость отклика соответствующих служб.

Но на более глубоком уровне это также борьба за ресурсы, конкуренция между вычислительной мощностью и мощностью центров облачных вычислений с GPU и TPU в качестве ядра, а также конкуренция с высокими инвестициями и высоким энергопотреблением на макроуровне.

Пока что AIGC все еще находится в стадии «слепого ящика», и спрос и занятость ресурсов все еще неясны.

Тем не менее, нахождение в очереди ожидания различных служб ИИ действительно очень похоже на то, что происходит в научно-фантастических фильмах, где люди постоянно стоят в очереди, чтобы попасть на контролируемую ИИ фабрику, чтобы обеспечить ресурсы, необходимые для ее работы.

Список ожидания — это список ожидания в виртуальном мире, а в будущем это может быть и очередь, обслуживающая ИИ в реальном мире.

#Добро пожаловать, обратите внимание на официальный публичный аккаунт Айфанер в WeChat: Айфанер (идентификатор WeChat: ifanr), более интересный контент будет представлен вам как можно скорее.

Ай Фанер | Оригинальная ссылка · Просмотреть комментарии · Sina Weibo