حقق كفاءة استدلال نماذج GPT المفتوحة المصدر على GPU من Blackwell تحسنًا ملحوظًا خلال شهر واحد فقط — حيث زادت قدرة معالجة الرموز لكل وحدة تكلفة بنسبة 33%. ويعزى هذا الإنجاز إلى جهود تحسين مشروع vLLM ودعم الأجهزة من NVIDIA، مما خفض بشكل مباشر عتبة تكلفة نشر النماذج اللغوية الكبيرة. بالنسبة لطبقة تطبيقات Web3، هذا يعني استمرار انخفاض تكاليف بنية استدلال الذكاء الاصطناعي، مما سيدفع بشكل أكبر حدود إمكانية تطبيقات الذكاء الاصطناعي على السلسلة والعقود الذكية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 7
أعجبني
7
2
إعادة النشر
مشاركة
تعليق
0/400
CrashHotline
· 12-20 01:40
هل يمكن تحقيق زيادة بنسبة 33% في شهر واحد؟ هؤلاء الأصدقاء في vLLM حقًا شرسون، وتكلفة الذكاء الاصطناعي على السلسلة تنخفض بشكل خطي
شاهد النسخة الأصليةرد0
GlueGuy
· 12-20 01:40
يا إلهي، زيادة الكفاءة بنسبة 33% في شهر واحد؟ متى يمكن لـ TPS أن يكون بهذه القوة أيضًا
حقق كفاءة استدلال نماذج GPT المفتوحة المصدر على GPU من Blackwell تحسنًا ملحوظًا خلال شهر واحد فقط — حيث زادت قدرة معالجة الرموز لكل وحدة تكلفة بنسبة 33%. ويعزى هذا الإنجاز إلى جهود تحسين مشروع vLLM ودعم الأجهزة من NVIDIA، مما خفض بشكل مباشر عتبة تكلفة نشر النماذج اللغوية الكبيرة. بالنسبة لطبقة تطبيقات Web3، هذا يعني استمرار انخفاض تكاليف بنية استدلال الذكاء الاصطناعي، مما سيدفع بشكل أكبر حدود إمكانية تطبيقات الذكاء الاصطناعي على السلسلة والعقود الذكية.