Следующее землетрясение в сфере ИИ: почему настоящая опасность — это не убийца SaaS, а революция вычислительной мощности?

robot
Генерация тезисов в процессе

Автор: Брюс

В последнее время весь технологический и инвестиционный мир сосредоточен на одном: как AI-приложения «убивают» традиционный SaaS. После того как @AnthropicAI представили Claude Cowork, показывая, как легко он помогает писать письма, создавать презентации и анализировать Excel-таблицы, началась паника о «смерти программного обеспечения». Это действительно впечатляет, но если остановиться только на этом, можно упустить настоящий крупный сейсм.

Это похоже на то, как все смотрят вверх на беспилотные воздушные бои, не замечая, что под ногами движется вся континентальная плита. Настоящий шторм скрыт под водой, в уголке, который большинство не замечает: фундамент всей AI-экосистемы — вычислительные мощности — переживает «тихую революцию».

И эта революция может привести к тому, что продавец AI: Nvidia @nvidia, — организовавший грандиозное мероприятие, — завершит его раньше, чем все ожидали.

Два пересекающихся пути революции

Эта революция — не одно событие, а сплетение двух, казалось бы, независимых технологических линий. Они словно две наступающие армии, создающие давление на гегемонию GPU Nvidia.

Первая — революция в оптимизации алгоритмов.

Задумайтесь: действительно ли суперразуму нужно задействовать все нейроны при решении задач? Очевидно, нет. DeepSeek понял это и создал архитектуру MoE (смесь экспертов).

Можно представить её как компанию, в которой работают сотни специалистов из разных областей. Но при решении конкретной задачи вызывают только двух-трех наиболее релевантных экспертов, а не всех сразу. Вот в чем умность MoE: она позволяет огромной модели при каждом вычислении активировать лишь небольшую часть «экспертов», значительно экономя вычислительные ресурсы.

Что получается? Модель DeepSeek-V2, номинально содержащая 236 миллиардов «экспертов» (параметров), при работе активирует всего 21 миллиард — менее 10% от общего числа. А по эффективности она сравнима с GPT-4, который работает на 100% мощности. Что это значит? Возможности AI и затраты вычислительных ресурсов разъединены!

Раньше считалось, что чем мощнее AI, тем больше расходуется видеокарт. Теперь DeepSeek показывает, что с помощью умных алгоритмов можно добиться того же результата за десятую часть стоимости. Это ставит под сомнение необходимость в GPU Nvidia как таковых.

Вторая — революция в аппаратном обеспечении.

AI работает в двух фазах: обучение и вывод. Обучение — как школа, требует чтения тысяч книг, и тут GPU с их «суперпараллельностью» действительно хороши. Но вывод — это то, что важно в повседневном использовании AI, и тут важна скорость реакции.

У GPU есть встроенный недостаток: память (HBM) — внешняя, и при передаче данных возникает задержка. Это как повар, у которого все ингредиенты в холодильнике в соседней комнате — даже при быстром движении он всё равно тратит время. А компании вроде Cerebras и Groq создали специальные чипы для вывода, где память (SRAM) прямо припаяна к чипу, и данные доступны без задержек.

Рынок уже проголосовал деньгами. OpenAI жалуется на слабость GPU Nvidia в выводе, но тут же заключает контракт на 10 миллиардов долларов с Cerebras для аренды их решений. Nvidia сама в панике — она купила Groq за 20 миллиардов, чтобы не отставать в этой новой гонке.

Когда эти два пути пересекаются: ценовой взрыв

Теперь соединим эти два факта: модель DeepSeek, «сделанную тоньше» алгоритмом MoE, работает на чипе Cerebras, обеспечивающем «зеро-задержку».

Что произойдет?

Ценовой взрыв.

Во-первых, уменьшенная модель занимает очень мало места — её можно полностью поместить в встроенную память чипа. Во-вторых, без внешних задержек отклик AI станет невероятно быстрым. В итоге: затраты на обучение по архитектуре MoE снизились на 90%, а на вывод — за счет специализированного оборудования и разреженных вычислений — еще на порядок. Итоговая стоимость создания и эксплуатации мирового AI может составлять всего 10–15% от традиционных решений на GPU.

Это не просто улучшение — это смена парадигмы.

Гегемония Nvidia начинает таять

Теперь понятно, почему это более опасно, чем «Cowork-паника».

Сегодня капитализация Nvidia в десятки триллионов долларов основана на простом сценарии: AI — будущее, а его будущее — только на моих GPU. Но фундамент этого сценария начинает шататься.

На рынке обучения, даже если Nvidia продолжит монополизировать его, если клиенты смогут решать задачи за десятую часть стоимости карт, общий рынок может значительно сократиться.

На рынке вывода, где объем в десять раз больше, Nvidia уже не имеет абсолютного преимущества. Там ее конкурируют Google, Cerebras и другие игроки. Даже крупнейший клиент — OpenAI — уже уходит.

Если Уолл-стрит осознает, что «копалка» Nvidia — не единственный и даже не лучший выбор, то оценка, основанная на «вечной монополии», начнет рушиться. И все это понятно.

Итак, в ближайшие полгода главным черным лебедем может стать не очередной AI-аппликация, уничтожающая конкурента, а скромная техническая новость: новая статья о эффективности алгоритма MoE или отчет о росте доли рынка специализированных чипов для вывода. Эти новости тихо объявят о начале новой стадии в гонке за вычислительные мощности.

Когда «продавец лопат» перестает быть единственным выбором, его золотая эпоха, возможно, подходит к концу.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить