Stablecoin-Emittent Tether kündigte heute (17.) eine bedeutende technologische Durchbruch bei seiner AI-Infrastruktur QVAC Fabric an: die weltweit erste plattformübergreifende BitNet LoRA-Feinabstimmungs-Framework, das es ermöglicht, große Sprachmodelle, die früher nur mit Unternehmens-GPUs und Cloud-Rechenleistung trainiert und inferiert werden konnten, jetzt auf handelsüblicher Hardware zu trainieren und auszuführen, sogar auf Smartphones.
Smartphones können jetzt auch LLMs trainieren: 1B Modelle in weniger als einer Stunde
Laut Tether-Daten wurde das Framework erfolgreich auf verschiedenen Geräten für die Feinabstimmung des BitNet-Modells eingesetzt, darunter die gängigen Samsung S25 und iPhone 16.
Samsung S25 (Adreno GPU):
125 Millionen Parameter Modell: ca. 10 Minuten Feinabstimmung
1 Milliarde Parameter Modell: ca. 1 Stunde 18 Minuten
iPhone 16 (Apple GPU):
Extremtests haben Feinabstimmungen von Modellen mit bis zu 13 Milliarden Parametern ermöglicht.
Früher wurden AI-Trainingsaufgaben, die auf NVIDIA High-End-GPUs liefen, auf Smartphones und Edge-Geräten komprimiert.
Schlüsseltechnologie BitNet + LoRA: KI-Kosten drastisch senken
Der Kern dieses Durchbruchs liegt in der Kombination zweier Technologien:
BitNet (1-bit LLM)
Komprimiert herkömmliche hochpräzise Gewichte auf nur noch drei Werte: -1, 0, 1, was den Speicher- und Rechenaufwand erheblich reduziert.
LoRA (Low-Rank Adaptation)
Trainiert nur eine geringe Anzahl an Parametern (bis zu 99% des Trainingsaufwands einsparbar), was die Feinabstimmungskosten deutlich senkt.
Durch die Kombination ermöglichen beide Technologien, dass Modelle unter extremen Ressourcenbeschränkungen laufen können.
Praktische Tests zeigen, dass BitNet-1B im VRAM 77,8% weniger verbraucht als Gemma-3-1B und 65,6% weniger als Qwen3-0.6B. Bei gleicher Hardware können etwa doppelt so große Modelle betrieben werden.
GPU-Entfesselung für Smartphone-AI: Leistung um das 11-fache gesteigert
Ein weiterer Durchbruch von QVAC ist, dass BitNet nun wirklich auf „Nicht-NVIDIA“-Ökosystemen läuft. Unterstützung für GPUs von AMD, Intel, Apple Silicon und sogar Smartphone-GPUs wie Adreno, Mali, Apple Bionic.
Große Sprachmodelle sind nicht mehr nur ein Patent der Tech-Giganten, AI wird dezentralisiert
Tether-CEO Paolo Ardoino sagte: „Intelligenz wird in Zukunft eine entscheidende Rolle für die gesellschaftliche Entwicklung spielen. Sie kann die Stabilität erhöhen, als Bindeglied in der Gesellschaft fungieren oder einzelne Eliten weiter stärken. Die Zukunft der künstlichen Intelligenz sollte für alle zugänglich, nutzbar und erschwinglich sein, anstatt nur wenigen Cloud-Dienstleistern vorbehalten zu sein.“
Traditionelle AI-Entwicklung ist stark auf Cloud und große GPU-Cluster angewiesen, was hohe Kosten verursacht und die Technologie auf wenige Tech-Giganten konzentriert. Tethers QVAC-Plattform ermöglicht bedeutungsvolles Training großer Modelle auf Consumer-Hardware, einschließlich Smartphones, und beweist, dass fortschrittliche KI dezentralisiert und inklusiv sein kann. In den kommenden Monaten wird weiter in Ressourcen und Kapital investiert, um sicherzustellen, dass KI jederzeit und überall auf lokalen Geräten nutzbar ist.
Dieser Artikel zeigt: AI ist nicht mehr nur ein Patent der Tech-Giganten! Tether bringt QVAC auf den Markt – die Zeit, in der jeder ein LLM hat, ist gekommen. Erstmals veröffentlicht bei Chain News ABMedia.