Оказывается, не так уж и сложно сделать то, что делает OpenAI, за меньшие деньги.

Несмотря на то, что OpenAI продолжает настаивать на своем утверждении , что единственный путь к AGI лежит через огромные финансовые и энергетические затраты, независимые исследователи используют технологии с открытым исходным кодом, чтобы соответствовать производительности своих самых мощных моделей — и делают это за небольшую цену.
В прошлую пятницу объединенная команда из Стэнфордского университета и Вашингтонского университета объявила, что они обучили модель большого языка, ориентированную на математику и программирование, которая работает так же хорошо, как модели рассуждения OpenAI o1 и DeepSeek R1 . Его создание стоило всего 50 долларов США в виде кредитов на облачные вычисления. Сообщается, что команда использовала готовую базовую модель, а затем внедрила в нее экспериментальную модель Google Gemini 2.0 Flash Thinking Experimental . Процесс очистки ИИ включает в себя извлечение соответствующей информации для выполнения конкретной задачи из более крупной модели ИИ и передачу ее в меньшую.
Более того, во вторник исследователи из Hugging Face выпустили конкурента инструментов OpenAI Deep Research и Google Gemini (также) Deep Research , получившего название Open Deep Research , который они разработали всего за 24 часа. «Хотя мощные программы LLM теперь свободно доступны в открытом исходном коде, OpenAI мало что раскрывает об агентной структуре, лежащей в основе Deep Research», — написала Hugging Face в своем объявлении . «Поэтому мы решили начать 24-часовую миссию, чтобы воспроизвести их результаты и попутно открыть исходный код необходимой структуры!» Сообщается, что стоимость облачных вычислений составляет около 20 долларов, а для обучения потребуется менее 30 минут.
Модель Hugging Face впоследствии показала точность 55% в тесте General AI Assistants (GAIA), который используется для проверки возможностей агентных систем искусственного интеллекта . Для сравнения, Deep Research компании OpenAI показала точность от 67 до 73%, в зависимости от методологии реагирования. Конечно, 24-часовая модель работает не так хорошо, как предложение OpenAI, но для ее обучения не потребовались миллиарды долларов и энергетические мощности средней европейской страны.
Эти усилия последовали за январскими новостями о том, что команде из лаборатории Sky Computing Lab Калифорнийского университета в Беркли удалось обучить свою модель рассуждения Sky T1 примерно за 450 долларов в виде кредитов на облачные вычисления. Модель Sky-T1-32B-Preview, разработанная командой, оказалась равной ранней модели рассуждений o1-preview. По мере того, как появляется все больше конкурентов OpenAI, занимающихся доминированием в отрасли, с открытым исходным кодом, само их существование ставит под вопрос, является ли план компании потратить полтриллиона долларов на строительство центров обработки данных искусственного интеллекта и объектов по производству энергии действительно ответом.