Почему мне нужно так долго ждать, чтобы подать заявку на ChatGPT и новые учетные записи Bing?
На прошлой неделе изменения AIGC заставили мир сойти с ума, просыпаясь каждый день, может быть «новый мир».
Но с другой точки зрения, какой бы умной и разрушительной ни была AIGC, мы все еще находимся в «старом мире», или, если быть точным, это должен быть «альтернативный» мир.
Не только новый Bing, Github Copilot X, плагины ChatGPT, Midjourney V5, Adobe Firefly и даже Wenxin Yiyan от Baidu, вам нужно присоединиться к списку ожидания, чтобы дождаться места, прежде чем вы его испытаете. Этот процесс очень похож на карточную систему плановой экономики.
С появлением все большего количества услуг AIGC, включая обновление оригинального GPT-4 и Midjourney V5, кажется, что время списка ожидания увеличивается.
▲ Середина пути V5
По сей день в новом списке ожидания Bing все еще существует довольно много людей, не говоря уже о других новых генерирующих возможностях искусственного интеллекта.
Возможно, это было молчаливое сопротивление негласным правилам списка ожидания: кто-то сделал сайт , который «ставит все очереди в один клик».
Но ирония в том, что функция «присоединиться в один клик» еще не реализована, вам нужно сначала присоединиться к списку ожидания, а суффикс доменного имени веб-сайта — wtf, который полон негодования.
За листом ожидания стоит более стабильное обслуживание
Когда я закинул этот вопрос в Bing, Bing нашел четыре причины из трех страниц на официальном сайте OpenAI.
- Ограничьте количество пользователей, чтобы обеспечить качество и стабильность обслуживания.
- Собирайте отзывы пользователей, чтобы улучшить функции и опыт обслуживания.
- Повысьте ожидания пользователей и чувство участия, а также улучшите популярность и репутацию сервиса.
- Отсеивайте пользователей, которые соответствуют целевой группе, повышайте коэффициент конверсии услуг и коэффициент удержания.
А это больше похоже на какие-то официальные слова OpenAI, Microsoft, Google и других крупных компаний на неопределенный срок.
Условно говоря, ChatGPT, который первым вышел в публичный доступ, испытал много колебаний в обслуживании ChatGPT с обновлением модели и существенным снижением цены.
Проблемы со стабильностью, такие как проглатывание записей вопросов и ответов, простои и путаница в списке вопросов и ответов.
В новом Bing на основе OpenAI тоже избыточная риторика, Microsoft до сих пор также ограничивает количество и продолжительность разговоров в новом Bing.
Можно возразить, что ограничение количества людей, использующих ChatGPT и новый Bing, обеспечивает более стабильный и быстрый отклик и генерацию контента.
Но вы должны знать, что эти функции и службы уже потребляют значительные ресурсы, занимая почти половину вычислительной мощности Microsoft Azure.
В настоящее время AIGC еще не выпустила суперприложения и все еще находится в процессе быстрой итерации, и можно даже сказать, что это все еще бета-тестовая версия.
Взаимодействие с ИИ через традиционные диалоговые окна не совсем соответствует ситуации, когда в 2023 году у каждого будет смартфон.
Сейчас AIGC можно рассматривать только как функцию, а грядущие Copilot, Firefly и т. д. больше похожи на продукты.
▲ Функция второго пилота Office 365
Но они до сих пор не открыты для публики, лежа один за другим в листе ожидания.
С определенной точки зрения, Microsoft, Google и Adobe все еще «полируют» свои продукты, но с другой точки зрения, если они хотят открыть дверь для всех или сказать, что ИИ становится вторым пилотом для всех, они все равно нужно пробить какое-то "узкое место".
Быстро развивающаяся AIGC может начать сталкиваться с узким местом
«Узким местом» здесь является не внешнее проявление, этика, законы и правила, с которыми сталкивается генеративный ИИ, или точность его реакции.
Вместо этого именно аппаратное обеспечение ИИ обеспечивает вычислительную мощность, а также различные облачные вычислительные мощности для обучения.
Microsoft продолжает вкладывать значительные средства в OpenAI, последовательно инвестируя миллиарды долларов и постепенно создавая новый bing на основе GPT-4 и новый Office, который все еще находится в списке ожидания.
В то же время, чтобы гарантировать, что новый bing и последующий новый Office с функцией Copilot могут реагировать стабильно и быстро.
Microsoft также предоставляет и резервирует половину вычислительной мощности и вычислительной мощности своей облачной службы Azure.
Это также привело к перегрузке внутренних вычислительных ресурсов Microsoft Azure. The Information провела интервью с внутренними сотрудниками Microsoft.В связи с ограниченными аппаратными вычислительными ресурсами Microsoft внедряет внутреннюю систему аппаратного списка ожидания.
Другие команды и отделы в Microsoft, разрабатывающие модели машинного обучения, хотят обратиться к облачным службам ИИ Azure, они должны быть одобрены и предоставлены пошаговые отчеты, а окончательное решение должен принять вице-президент.
Пока мы стоим в очереди, чтобы испытать новые сервисы генеративного ИИ, в дополнение к новому bing и новым сервисам Office и OpenAI, другие отделы Microsoft также ждут избыточной мощности облачных вычислений Azure.
Однако со стратегией Microsoft «Все в OpenAI» вычислительная мощность и емкость облака Azure также очень ограничены.
Помимо внутренних вызовов, Azure также предоставляет различные продукты и услуги, включая ИИ, вычисления, контейнеры, гибридное облако, Интернет вещей и т. д.
Как поставщик облачных услуг, Azure расширилась до более чем 60 регионов по всему миру, а ее внешние серверные продукты и доходы от облачных услуг составляют 36% от общего дохода Microsoft.
Однако, как и внутренняя команда Microsoft, клиенты, которые покупают Azure, также страдают от ограниченной вычислительной мощности, особенно если они хотят позвонить в Azure OpenAI, им все равно нужно присоединиться к списку ожидания.
Примерно с конца 2022 года Microsoft планирует добавить дополнительное оборудование (GPU или TPU) для увеличения вычислительной мощности.
А также достигли соглашения с Nvidia о добавлении десятков тысяч вычислительных карт H100 GPU в Azure, чтобы обеспечить более высокую эффективность обучения ИИ и эффективности рассуждений для последующего OpenAI.
Однако в настоящее время Microsoft и Nvidia не раскрывают информацию о развертывании H100 в Azure, и только небольшое количество команд в Microsoft имеют доступ к H100 (скорее всего, новый bing и Office), и большинство отделов по-прежнему исключены.
Приблизительная цена за штуку H100 может составлять около 240 000 юаней.
Не только Microsoft, но и поставщики облачных услуг, такие как Google и Oracle, также вкладывают значительные средства в оборудование, такое как графические процессоры, для расширения своих облачных сервисов, готовясь к вычислительной мощности до того, как AIGC полностью выйдет из строя.
▲ Генеральный директор Nvidia Хуан Ренсюнь и соучредитель и главный научный сотрудник OpenAI Илья Суцкевер
Однако с момента выпуска GTC 2022 и по настоящее время Nvidia не объявляла о поставках и продажах H100, и неизвестно, будет ли эффективным план расширения Microsoft для Azure.
В этом году на GTC 2023 Nvidia не добилась прогресса в аппаратном обеспечении H100 и A100, но подчеркивала преимущества Nvidia в оборудовании для облачных вычислений.
И ее главный технический директор также начал подчеркивать, что «криптовалюта не вносит никакого полезного вклада в общество», а также начал подчеркивать со стороны, что область AIGC будет той областью, на которой Nvidia сосредоточится в течение следующих 30 лет.
С непрерывным развитием поля AIGC примерно с октября 2022 года акции Nvidia также будут расти, преодолевая предыдущий спад бизнеса, вызванный рецессией криптовалюты.
В настоящее время рыночная стоимость Nvidia достигла пика, почти сравнявшись с суммой рыночной стоимости Intel, AMD и ARM.
Однако такая высокая рыночная стоимость, по-видимому, не улучшает предложение оборудования. очень вероятно, что будет очередная паника в индустриальных видеокартах.
Не только состояние аппаратной части, но и вычислительная матрица, состоящая из этих высокопроизводительных графических процессоров, обладает высокой мощностью: мощность одной вычислительной карты H100 с интерфейсом SXM достигает 700 Вт.
Энергопотребление вычислительных центров для обучения моделей ИИ и обработки больших данных на самом деле ошеломляет.
В 2021 году Дэвид Паттерсон и Джозеф Гонсалес из Калифорнийского университета показали , что учебная GPT-3 будет потреблять примерно 1,287 гигаватт-часа электроэнергии, что эквивалентно годовому потреблению электроэнергии 120 американскими домохозяйствами.
В то же время в документе также установлено, что учебный ГПТ-3 будет производить 502 тонны выбросов углерода, что эквивалентно годовому выбросу 110 автомобилей.
Они также подчеркнули, что это только стоимость обучения модели, и поскольку она наводняет рынок, она также будет потреблять больше ресурсов, которые могут быть выше, чем стоимость обучения.
OpenAI GPT-3 использует 175 миллиардов параметров или переменных, в то время как параметры GPT-4 оцениваются между 175 и 280 миллиардами миллиардов. Что касается энергопотребления, спрос на облачные вычисления будет только увеличиваться.
С этой целью генеральный директор OpenAI Сэм Альтман заявил в интервью The Verge, что OpenAI ищет эффективные способы повышения производительности и безопасности модели.
Другими словами, OpenAI также пытается сэкономить аппаратные и энергетические ресурсы для обучения и запуска моделей за счет более эффективных алгоритмов.
С поверхностной точки зрения механизм списка ожидания обеспечивает текущую работу AIGC и скорость отклика соответствующих служб.
Но на более глубоком уровне это также борьба за ресурсы, конкуренция между вычислительной мощностью и мощностью центров облачных вычислений с GPU и TPU в качестве ядра, а также конкуренция с высокими инвестициями и высоким энергопотреблением на макроуровне.
Пока что AIGC все еще находится в стадии «слепого ящика», и спрос и занятость ресурсов все еще неясны.
Тем не менее, нахождение в очереди ожидания различных служб ИИ действительно очень похоже на то, что происходит в научно-фантастических фильмах, где люди постоянно стоят в очереди, чтобы попасть на контролируемую ИИ фабрику, чтобы обеспечить ресурсы, необходимые для ее работы.
Список ожидания — это список ожидания в виртуальном мире, а в будущем это может быть и очередь, обслуживающая ИИ в реальном мире.
#Добро пожаловать, обратите внимание на официальный публичный аккаунт Айфанер в WeChat: Айфанер (идентификатор WeChat: ifanr), более интересный контент будет представлен вам как можно скорее.
Ай Фанер | Оригинальная ссылка · Просмотреть комментарии · Sina Weibo