Der US-Chip-Startup Cerebras Systems plant, über die Börse mit dem Tickersymbol CBRS an die Börse zu gehen (IPO). VanEck, Leiter der Forschung für digitale Vermögenswerte, Matthew Sigel, äußerte sich kürzlich in einem Beitrag, Cerebras könnte seit dem Börsengang von Arm im Jahr 2023 das am stärksten beachtete Halbleiter-IPO des Marktes gewesen sein. Laut Sigel will Cerebras 28 Millionen Aktien zu 115 bis 125 US-Dollar je Aktie verkaufen und damit rund 3,5 Milliarden US-Dollar einsammeln; der VanEck-eigene Onchain Economy ETF (NODE) hat über die Konsortialbanken bereits eine „Oversubscription“ (vollständige Zuteilung) beantragt.
Es ist jedoch zu beachten, dass VanEck nicht der Underwriter (Konsortialbank) des Cerebras-IPO ist. Der Schwerpunkt von Sigels Artikel liegt darin, dass VanEck als Investor an eine Zuteilung im Rahmen des IPO interessiert ist, statt selbst eine Underwriting-Rolle zu übernehmen. Er deckt außerdem am Ende des Beitrags auf, dass VanEck einen Antrag auf eine Aktien-Zuteilung für das Cerebras-IPO eingereicht hat, und dass mindestens eine VanEck-Investmentfachperson Cerebras-Aktien bereits im Private-Market gehalten hat. Daher hat VanEck ein direktes finanzielles Interesse an der Bewertung und dem Emissionsergebnis des entsprechenden IPO.
Warum gilt Cerebras als besonders aussichtsreich? OpenAIs schnelleres Inferenzgeschäft ist von Nvidia abgegangen
Matthew Sigel ist der Ansicht, dass sich das Geschäftsmodell von Cerebras deutlich von dem von Arm unterscheidet. Der Wert von Arm entsteht aus Architektur-Lizenzen und Tantiemen; mit zunehmender Durchdringung der Architektur in mehr Geräte wächst dies verstärkt (Komponieren). Cerebras hingegen sei ein stark fokussiertes Produktunternehmen, dessen Kernprodukt Chips auf Wafer-Ebene sind und die speziell das Problem der AI-Inferenzgeschwindigkeit adressieren.
Sigel weist darauf hin, dass sich der Markt für KI-Infrastruktur in zwei Richtungen aufspaltet: Auf der einen Seite stehen Trainings- und Inferenz-Workloads mit GPU-Clustern im Zentrum, die auf Batch-Verarbeitung und Durchsatz ausgerichtet sind; auf der anderen Seite steht der Inferenzmarkt, der extrem latenzsensibel ist, etwa für AI Agents, Code-Assistenten, Echtzeit-Anwendungen und hochinteraktive Produkte. In letzterem Segment ist die Inferenzgeschwindigkeit nicht nur ein Kostenproblem, sondern beeinflusst direkt das Nutzererlebnis, die Preissetzung von Produkten und die Bindungsrate.
Er zitiert die Aussage des CEO von Cerebras, Andrew Feldman: „Ganz offensichtlich will NVIDIA das schnelle Inferenzgeschäft von OpenAI nicht verlieren, und wir haben diese Aufgabe von ihnen übernommen.“
Sigel meint, diese Aussage unterstreiche die strategische Bedeutung von Cerebras: Wenn OpenAIs Bedarf an Low-Latency-Inferenzanforderungen beginnt, von Cerebras übernommen zu werden, wäre CBRS nicht nur „ein weiteres KI-Infrastrukturunternehmen“, sondern könnte zum Wegweiser für eine „neue Hardware-Kategorie“ werden.
Cerebras bringt die Modelle in SRAM auf dem Chip unter und umgeht so den Engpass der GPU-Speicherbandbreite
Sigel führt den technischen Vorteil von Cerebras auf „Chips auf Wafer-Ebene“ und „On-Chip SRAM“ zurück. Anders als traditionelle GPU-Cluster, die Daten zwischen mehreren Chips und externem Speicher verschieben müssen, ermöglicht Cebreas’ Design, dass Modelle in großer Menge im SRAM innerhalb des Chips verbleiben. Dadurch sinken Engpässe bei der Speicherbandbreite und die Schwankungen der Latenz.
Laut Sigel kann Cerebras bei der Inferenzgeschwindigkeit gegenüber GPU-Lösungen um bis zu 15-mal schneller sein und zudem stabilere, besser vorhersagbare Latenzleistungen liefern. Für AI Agents, Echtzeit-Coding-Assistenten, Sprachinteraktion, Low-Latency-Suche und Inferenzdienste wird diese Art von „deterministischer Latenz“ zunehmend wertvoll.
Er erwähnt außerdem, dass das Management von Cerebras die Preise aufgrund von Nachfrageüberhang erhöht hat. Das bedeute, dass das aktuelle Hauptproblem des Unternehmens nicht mangelnde Nachfrage sei, sondern ein Angebotsengpass.
OpenAI als größtes Basisgeschäft: 20 Milliarden US-Dollar Vertrag stützen den Umsatzboden
Das wichtigste Investment-Argument in Sigels Artikel ist der langfristige Vertrag, den Cerebras mit OpenAI geschlossen hat.
Laut seiner Darstellung handelt es sich bei der Vereinbarung zwischen Cerebras und OpenAI um einen Take-or-pay-Vertrag über 20 Milliarden US-Dollar mit einer Vertragskapazität von 750MW bis einschließlich 2028. OpenAI habe zudem Optionen, die Kapazität auf etwa 2GW auszuweiten; der zusätzliche Vertragswert läge bei rund 34 Milliarden US-Dollar, der Preis bei etwa 27 Millionen US-Dollar pro MW.
Sigel sagt, dass dieser Deal durch eine Struktur aus einem Betriebskapital-Darlehen über 1 Milliarde US-Dollar und Warrants (Optionsscheinen) unterstützt werde und damit die Umsatzbasis für die Zukunft von Cerebras bilde. Das aktuelle RPO von Cerebras – also die Restabwicklungsverpflichtungen – liegt bei rund 24,6 Milliarden US-Dollar. Das Unternehmen erwarte, in den Jahren 2026 bis 2027 zusammen etwa 15% zu verbuchen, entsprechend etwa 3,7 Milliarden US-Dollar; in den Jahren 2028 bis 2029 dann weitere 43%, entsprechend etwa 10,6 Milliarden US-Dollar.
Codex Spark als Proxy-Indikator dafür, wie stark OpenAI die Leistung nutzt
Sigel erwähnt außerdem, dass externe Investoren die Auslastung der Produktionskapazitäten von Cerebras nicht direkt beobachten können. Deshalb betrachte er Codex Spark von OpenAI als den nächstliegenden öffentlich zugänglichen Proxy-Indikator.
Laut seiner Darstellung ist Codex Spark eine Low-Latency-Version des OpenAI Codex Coding Agent, die auf der Cerebras-Infrastruktur läuft. Das Produkt hatte im Januar 2026 etwa 600.000 wöchentlich aktive Nutzer, inzwischen sind es bereits über 4 Millionen; innerhalb von vier Monaten sei es um etwa das 7-Fache gewachsen, und derzeit sei es noch ausschließlich für ChatGPT Pro-Nutzer verfügbar.
Sigel ist der Ansicht, dass sich bei einer Ausweitung von Spark auf alle zahlenden ChatGPT-Nutzer die potenzielle Nutzerbasis in kurzer Zeit stark vergrößern könnte. Das würde nicht nur die Auslastung der 750MW-Vertragskapazität erhöhen, sondern auch die Wahrscheinlichkeit stärken, dass OpenAI seine Option zur Erweiterung um weitere 1,25GW wahrnimmt.
AWS, Meta, Oracle und IBM zählen ebenfalls zu den Kunden von Cerebras
Neben OpenAI nennt Sigel auch AWS, Meta, Oracle und IBM als wichtige Kooperationspartner von Cerebras. Besonders entscheidend sei die Beziehung zu AWS, weil Cerebras so über Amazon Bedrock in den Markt für Unternehmenskunden integriert werden kann, ohne vollständig auf ein eigenes Direct-Sales-Team angewiesen zu sein.
Er erwähnt zudem, dass AWS in Höhe von 270 Millionen US-Dollar in Eigenkapital in Cerebras investiert hat, während Meta möglicherweise Cerebras für Llama-Modell-Inferenz nutzen wird. Das bedeute, dass Cerebras – wenn es die Skalierbarkeit des OpenAI-Szenarios nachweisen kann – in Zukunft noch die Chance hat, sich von der Basis eines einzelnen großen Kunden hin zu breiteren Unternehmens- und Cloud-Plattform-Nachfrage auszudehnen.
ZK proof: Cerebras könnte Hardware für verifizierbare Rechenleistung im Blockchain-Kontext werden
Es lohnt sich außerdem, den Blickwinkel von Sigel hervorzuheben: Als Research-Leiter bei VanEck interpretiert er Cerebras auch besonders aus der Perspektive der On-Chain-Ökonomie.
Er ist der Ansicht, dass die Chip-Architektur von Cerebras über viel On-Chip-SRAM, sehr hohe Speicherbandbreite und stark parallelisierte Rechenfähigkeiten verfügt. Daher sei sie nicht nur für KI-Inferenz geeignet, sondern könnte auch zu einem Hardware-Beschleuniger für die Erzeugung von Zero-Knowledge-Proofs (ZK proof) werden.
ZK proof ist eine wichtige Technologie für Blockchain-Scaling und verifizierbare Berechnungen. Der Prozess ist rechenintensiv und extrem latenzsensibel. Sigel glaubt, dass Cerebras mit der Entwicklung von verifiable compute hin zu Echtzeit-Varianten „natürlich“ in solche Workloads einsteigen kann. Das sei einer der Gründe, warum der VanEck Onchain Economy ETF (NODE) eine Allokation in CBRS anstrebt.
Sigel räumt zudem ein, dass die Marge von Cerebras derzeit unter 40% liegt und damit unter dem liegt, was bei Halbleitern und Cloud-Peers typischerweise im Bereich von 55% bis 70% liegt. Er hält jedoch diese Gegenüberstellung für nicht vollständig fair.
Der Grund: Cerebras verkauft nicht nur Chips. Das Unternehmen könnte auch Cloud-Deployments bereitstellen, Systeme beim Kunden vor Ort installieren und sogar – je nach Kundenbedarf – beim Aufbau dedizierter Rechenzentrums-Kapazitäten helfen. So kann Cerebras den wirtschaftlichen Wert sowohl der Chip- als auch der Hosting-Ebene erfassen. Gleichzeitig führt das dazu, dass die Bruttomarge in den Finanzberichten niedriger ist als bei reinen Chip-Unternehmen.
Sigels Grundannahme ist, dass die Bruttomarge von Cerebras auf etwa 50% im Jahr 2030 steigen könnte – unter anderem durch Skalierung, verbesserte Kosten für Chips auf Wafer-Ebene sowie einen höheren Anteil von Software- und Cloud-Services. In einem optimistischen Szenario könnte die Bruttomarge sogar nahe an 60% liegen, da die aktuell erwarteten 24,6 Milliarden US-Dollar Backlog mit einer Marge von rund 60% umsetzbar sein dürften.
Teuer bewertet, aber mit drei positiven Bewertungs-Frameworks: Umsatzmultiplikator, Inferenz-TAM, Wert pro MW
Sigel weicht dem Thema „zu hohe Bewertung“ beim Cerebras-IPO nicht aus. Bei einem Preis von 125 US-Dollar je Aktie liegt CBRS bei etwa dem 52-fachen der erwarteten Umsätze für 2025; die rückblickende Bewertung sei damit nicht gerade günstig.
Er argumentiert jedoch, dass Multiples für eine Firma, deren künftige Umsätze aufgrund von Contract-Backlog voraussichtlich noch bis 2027 deutlich wachsen könnten, nur eine begrenzte Aussagekraft hätten. Bei Verwendung der erwarteten Umsätze für 2026 liegt CBRS bei etwa dem 16,7-fachen der Forward-Revenue, also nahe am Median der Halbleiter-Peers.
Sigel stellt drei Bewertungsrahmen vor
Erstens: Bewertung über Umsatzmultiples für 2028. Das Basisszenario geht davon aus, dass Cerebras 2028 Umsätze von 5,5 Milliarden US-Dollar erzielt. Bei einem 10-fachen Umsatzmultiple entspräche das einem Kurswert von rund 258 US-Dollar je Aktie – etwa 107% über dem IPO-Mittelkurs. Das optimistische Szenario nimmt Umsätze von 6,5 Milliarden US-Dollar und ein Umsatzmultiple von 12,5x an, was etwa 381 US-Dollar je Aktie entspräche.
Zweitens: Bewertung über TAM des Inferenzmarkts. Sigel zitiert Daten von Bloomberg Intelligence: Die Größe des Inferenzmarkts soll 2028 bei etwa 201 Milliarden US-Dollar liegen und 2029 bei etwa 292 Milliarden US-Dollar. Wenn Cerebras 2028 Umsätze von 5,5 Milliarden US-Dollar erzielt, entspräche das rund 2,7% Marktanteil; bei 6,5 Milliarden US-Dollar wären es rund 3,2%. Er hält diese Annahme nicht für übermäßig aggressiv.
Drittens: Bewertung über den geschätzten Wert pro MW Kapazität. Er nimmt als Referenz die Marktwertung von CoreWeave mit rund 20 Millionen US-Dollar pro MW und multipliziert diese mit der 750MW-Vertragskapazität von Cerebras und OpenAI. Damit könnte allein das OpenAI-Basisgeschäft einen Unternehmenswert von etwa 15 Milliarden US-Dollar tragen; wenn OpenAI seine Option auf 2GW erweitert, entspräche das einem Unternehmenswert von rund 40 Milliarden US-Dollar.
Sigel betont, dass CoreWeave im Kern ein Anbieter für die Miete von GPU-Compute-Infrastruktur ist. Cerebras hingegen besitzt zusätzlich proprietäre Chip-IP, eine Software-Stack-Schicht sowie die Wirtschaftlichkeit von Rechenzentrums-Kapazitäten. Daher sollte Cerebras theoretisch nicht niedriger bewertet werden als reine Infrastruktur-Lieferanten pro MW.
Haupt-Risiken: Kundenkonzentration, Kapazitäts- Ramp-up, TSMC-Lieferkette und technische Burggraben
Sigel listet auch die wichtigsten Risiken für Cerebras auf. Zunächst die Kundenkonzentration. Im Jahr 2025 steuerten die beiden Abu-Dhabi-bezogenen Kunden G42 und MBZUAI zusammen etwa 86% des Umsatzes bei – das wirkt zunächst stark konzentriert.
Er glaubt jedoch, dass der OpenAI-Vertrag das bisherige Problem der UAE-Kundenkonzentration strukturell in den Jahren 2026 bis 2028 ersetzt. AWS und weitere Partner dürften zudem zusätzliche Diversifizierung bringen.
Wichtiger sind seiner Ansicht nach jedoch Risiken wie: ob Cerebras die Kapazitätsausweitung rechtzeitig abschließen kann, ob die Lieferkette für die Chipfertigung auf Wafer-Ebene bei TSMC stabil ist, und ob eine nächste Generation von GPU oder anderen KI-Architekturen möglicherweise die Latenz-Lücke verringern kann – was den technischen Burggraben von Cerebras schwächen würde.
Zum Schluss sagt Sigel, dass VanEck als einer der größten Herausgeber von US-Halbleiter-ETFs (SMH) langfristig die Halbleiterindustrie erforscht. Zusätzlich stand VanEck bereits früher in Beziehung zur Cerebras-Kapazitätsbereitstellung über WhiteFiber (WYFI) und erhielt damit früher Einblick in die reale operative Ausweitung bei Cerebras.
Er sagt außerdem, dass der VanEck Onchain Economy ETF (NODE) bei den Konsortialbanken eine Oversubscription für das Cerebras-IPO beantragt hat. Der Grund geht über die Einschätzung des Inferenz-Marktes hinaus: Dazu gehört auch, dass Cerebras in Zukunft möglicherweise eine wichtige Hardware-Schicht für Blockchain-ZK proof, für sofort verifizierbare Berechnungen und für die On-Chain-Infrastruktur werden könnte.
Dieser Artikel: VacEck Research-Leiterin analysiert, warum die Bewertung teuer ist – ich bin trotzdem bullisch bezüglich Cerebras’ IPO als frühester Herausforderer von Nvidia – erscheint zuerst bei 鏈新聞 ABMedia.