تصل شحنات معالجات GPU من نيفيديا إلى 6 ملايين وحدة العام الماضي، حيث يبلغ سعر خادم Blackwell الواحد حتى 3 ملايين دولار مع شحن 1000 وحدة أسبوعيًا، مما جعلها تهيمن على سوق شرائح الذكاء الاصطناعي. لكن هذه الحرب على الشرائح تتغير، حيث تظهر شرائح مخصصة مثل Google TPU، AWS Tranium، وBroadcom ASIC، ويتوقع المحللون أن تصل حصة Broadcom في سوق الشرائح المخصصة إلى 70-80%.
GPU من بطاقات الألعاب إلى قلب الذكاء الاصطناعي لعشر سنوات من الذهب
يمكن تتبع تحول معالجات GPU من نواحي الألعاب إلى جوهر الذكاء الاصطناعي إلى عام 2012 مع AlexNet. حيث أول مرة استخدمت فرق البحث قدرة المعالجة المتوازية لمعالجات نيفيديا في تدريب الشبكات العصبية، مما أدى إلى تقدم كبير في مسابقات التعرف على الصور وفتح عصر التعلم العميق. القوة الأساسية لمعالجات GPU تأتي من الآلاف من نوى المعالجة المتوازية، التي يمكنها تنفيذ عمليات المصفوفات والعمليات المعتمدة على التنسور بكفاءة، مما يجعلها مثالية لتدريب واستنتاجات الذكاء الاصطناعي.
داخل رفوف الخوادم الكبيرة، يمكن تجميع 72 من شرائح GPU باستخدام تقنية NVLink لتعمل كوحدة حسابية واحدة ضخمة. لا تقتصر نيفيديا على تزويد شرائح GPU لـ OpenAI والحكومات والشركات، بل تصنع أيضًا أنظمة خوادم كاملة. المنافس AMD يعتمد على شرائح Instinct GPU وبيئة البرمجيات المفتوحة لتسريع التطور، مؤخرًا بدعم من OpenAI وOracle، حيث تعتمد شرائح AMD بشكل رئيسي على البرمجيات المفتوحة، بينما تقترب شرائح Nvidia من تحسين الأداء عبر CUDA.
الشرائح المخصصة تصبح المفتاح لحل أزمة عمالقة السحابة
من Google وAmazon وMeta وMicrosoft إلى OpenAI، تتنافس عمالقة السحابة الكبرى على تطوير شرائح ASIC (الدارات المتكاملة الخاصة بالتطبيقات). هذه الشرائح المصممة خصيصًا لمهمة واحدة من المتوقع أن تكون من أسرع فئات شرائح الذكاء الاصطناعي نموًا خلال السنوات القادمة. مع نضوج نماذج اللغة الكبيرة، تتجاوز الحاجة للاستنتاج بشكل سريع الحاجة إلى التدريب، وتصبح تكاليف الاستنتاج، واستهلاك الطاقة، واستقرار الأداء من نقاط الألم في منصات السحابة، وهو المجال الذي تتنافس فيه شرائح ASIC.
على عكس معالجات GPU العامة، فإن شرائح ASIC تشبه “أدوات فائقة الدقة مخصصة”، حيث يتم برمجتها بشكل مخصص لمهام معينة، مما يسرع الأداء ويقلل من استهلاك الطاقة. من عيوبها قلة المرونة، ومتطلبات تطوير عالية جدًا، حيث تصل تكلفة تصميم الشريحة المخصصة إلى مئات الملايين من الدولارات، لذلك لا يمكن إلا لعمالقة السحابة تحملها. تكلفة شرائح ASIC المخصصة للذكاء الاصطناعي عالية جدًا، حيث تتطلب مئات الملايين من الدولارات على الأقل، لكن بالنسبة لمزودي خدمات السحابة الكبار، فإن كفاءتها أعلى وتقليل الاعتماد على نيفيديا هو فائدة رئيسية.
تعد Google اللاعب الأكبر في سوق شرائح ASIC، حيث كانت من أوائل من طوروا شرائح مخصصة لتسريع الذكاء الاصطناعي، وابتكرت في 2015 مصطلح Tensor Processing Unit (وحدة المعالجة التنسورية، TPU). ساهمت شرائح TPU في ابتكار Google في 2017 لبنية Transformer، التي أصبحت أساسًا مشتركًا لـ ChatGPT وClaude وغيرها من نماذج الذكاء الاصطناعي. الآن، تطور Google إلى الجيل السابع من شرائح TPU Ironwood، وتساعد شركة Anthropic على تدريب نماذج Claude باستخدام الملايين من شرائح TPU.
بعد استحواذها على Annapurna Labs، استثمرت AWS بشكل كامل في تطوير شرائحها الخاصة للذكاء الاصطناعي. أصبحت شرائح Tranium وInferentia أعمدة مهمة لمنصات التدريب والاستنتاج في AWS. في 2024، قامت شركة Anthropic بتدريب نموذجها في مركز بيانات شمال إنديانا باستخدام 500,000 من شرائح Tranium 2، التي لم تستخدم فيها شرائح نيفيديا GPU، مما يظهر أن مكانة شرائح ASIC تتصاعد.
اتجاه تنويع الشرائح وتوازن الكفاءة والتكلفة
تعد Broadcom وMarvell من الشركات الرائدة في تصميم الشرائح المتعاقد عليها، وهي شركاء استراتيجيون أساسيون لعمالقة السحابة. تشارك Broadcom بشكل عميق في تطوير شرائح TPU من Google، ومسرعات Meta الداخلية، وشرائح ASIC التي ستطلقها OpenAI. تساعد Broadcom في بناء شرائح TPU من Google وشرائح تعليم الذكاء الاصطناعي من Meta، ويتوقع المحللون أن تصل حصة Broadcom السوقية للشرائح المخصصة إلى 70-80%.
كما تتوسع الشرائح الذكية عند الحافة إلى الأجهزة الشخصية. وحدة المعالجة العصبية (NPU) هي شرائح مخصصة لتشغيل الذكاء الاصطناعي على الأجهزة، وتُدمج الآن في معالجات Snapdragon من كوالكوم، وشرائح AMD، وإنتل، وسلسلة M من أبل، وتُستخدم في الهواتف الذكية، والأجهزة المحمولة، والمنازل الذكية، والسيارات، وحتى الروبوتات. ستوفر المعالجة على الأجهزة مزيدًا من الخصوصية، وتقليل التأخير، وزيادة السيطرة.
مقارنة بين ثلاث فئات من الشرائح
شريحة GPU: مرنة وتناسب العديد من الأحمال، لكن استهلاكها للطاقة مرتفع وتكلفتها عالية، وتكلف وحدة واحدة من الخادم 3 ملايين دولار
شريحة ASIC: مخصصة وسريعة وذات استهلاك منخفض للطاقة، وتكلف مئات الملايين من الدولارات في التطوير، ولكنها توفر قيمة طويلة الأمد بنسبة 30-40%
سواء كانت شرائح نيفيديا Blackwell، أو شرائح Google TPU، أو شرائح AWS Tranium، فإن معظم شرائح الذكاء الاصطناعي تصنع في نهاية المطاف بواسطة TSMC. هذا يربط بشكل وثيق إمدادات الحوسبة الذكية والجغرافيا السياسية العالمية. تحاول الولايات المتحدة عبر مصانع TSMC في أريزونا وتقنية إنتل 18A استعادة بعض قدرات التصنيع المحلية. ومع ذلك، فإن الشركات الصينية مثل Huawei وAlibaba تعمل بنشاط على تطوير شرائح ASIC خاصة بها، سعياً إلى بدائل محلية في ظل قيود التصدير.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تصعيد حرب الرقائق! هيمنة وحدات معالجة الرسومات من نيفيديا تتعرض لحصار من جوجل وأمازون
تصل شحنات معالجات GPU من نيفيديا إلى 6 ملايين وحدة العام الماضي، حيث يبلغ سعر خادم Blackwell الواحد حتى 3 ملايين دولار مع شحن 1000 وحدة أسبوعيًا، مما جعلها تهيمن على سوق شرائح الذكاء الاصطناعي. لكن هذه الحرب على الشرائح تتغير، حيث تظهر شرائح مخصصة مثل Google TPU، AWS Tranium، وBroadcom ASIC، ويتوقع المحللون أن تصل حصة Broadcom في سوق الشرائح المخصصة إلى 70-80%.
GPU من بطاقات الألعاب إلى قلب الذكاء الاصطناعي لعشر سنوات من الذهب
يمكن تتبع تحول معالجات GPU من نواحي الألعاب إلى جوهر الذكاء الاصطناعي إلى عام 2012 مع AlexNet. حيث أول مرة استخدمت فرق البحث قدرة المعالجة المتوازية لمعالجات نيفيديا في تدريب الشبكات العصبية، مما أدى إلى تقدم كبير في مسابقات التعرف على الصور وفتح عصر التعلم العميق. القوة الأساسية لمعالجات GPU تأتي من الآلاف من نوى المعالجة المتوازية، التي يمكنها تنفيذ عمليات المصفوفات والعمليات المعتمدة على التنسور بكفاءة، مما يجعلها مثالية لتدريب واستنتاجات الذكاء الاصطناعي.
داخل رفوف الخوادم الكبيرة، يمكن تجميع 72 من شرائح GPU باستخدام تقنية NVLink لتعمل كوحدة حسابية واحدة ضخمة. لا تقتصر نيفيديا على تزويد شرائح GPU لـ OpenAI والحكومات والشركات، بل تصنع أيضًا أنظمة خوادم كاملة. المنافس AMD يعتمد على شرائح Instinct GPU وبيئة البرمجيات المفتوحة لتسريع التطور، مؤخرًا بدعم من OpenAI وOracle، حيث تعتمد شرائح AMD بشكل رئيسي على البرمجيات المفتوحة، بينما تقترب شرائح Nvidia من تحسين الأداء عبر CUDA.
الشرائح المخصصة تصبح المفتاح لحل أزمة عمالقة السحابة
من Google وAmazon وMeta وMicrosoft إلى OpenAI، تتنافس عمالقة السحابة الكبرى على تطوير شرائح ASIC (الدارات المتكاملة الخاصة بالتطبيقات). هذه الشرائح المصممة خصيصًا لمهمة واحدة من المتوقع أن تكون من أسرع فئات شرائح الذكاء الاصطناعي نموًا خلال السنوات القادمة. مع نضوج نماذج اللغة الكبيرة، تتجاوز الحاجة للاستنتاج بشكل سريع الحاجة إلى التدريب، وتصبح تكاليف الاستنتاج، واستهلاك الطاقة، واستقرار الأداء من نقاط الألم في منصات السحابة، وهو المجال الذي تتنافس فيه شرائح ASIC.
على عكس معالجات GPU العامة، فإن شرائح ASIC تشبه “أدوات فائقة الدقة مخصصة”، حيث يتم برمجتها بشكل مخصص لمهام معينة، مما يسرع الأداء ويقلل من استهلاك الطاقة. من عيوبها قلة المرونة، ومتطلبات تطوير عالية جدًا، حيث تصل تكلفة تصميم الشريحة المخصصة إلى مئات الملايين من الدولارات، لذلك لا يمكن إلا لعمالقة السحابة تحملها. تكلفة شرائح ASIC المخصصة للذكاء الاصطناعي عالية جدًا، حيث تتطلب مئات الملايين من الدولارات على الأقل، لكن بالنسبة لمزودي خدمات السحابة الكبار، فإن كفاءتها أعلى وتقليل الاعتماد على نيفيديا هو فائدة رئيسية.
تعد Google اللاعب الأكبر في سوق شرائح ASIC، حيث كانت من أوائل من طوروا شرائح مخصصة لتسريع الذكاء الاصطناعي، وابتكرت في 2015 مصطلح Tensor Processing Unit (وحدة المعالجة التنسورية، TPU). ساهمت شرائح TPU في ابتكار Google في 2017 لبنية Transformer، التي أصبحت أساسًا مشتركًا لـ ChatGPT وClaude وغيرها من نماذج الذكاء الاصطناعي. الآن، تطور Google إلى الجيل السابع من شرائح TPU Ironwood، وتساعد شركة Anthropic على تدريب نماذج Claude باستخدام الملايين من شرائح TPU.
بعد استحواذها على Annapurna Labs، استثمرت AWS بشكل كامل في تطوير شرائحها الخاصة للذكاء الاصطناعي. أصبحت شرائح Tranium وInferentia أعمدة مهمة لمنصات التدريب والاستنتاج في AWS. في 2024، قامت شركة Anthropic بتدريب نموذجها في مركز بيانات شمال إنديانا باستخدام 500,000 من شرائح Tranium 2، التي لم تستخدم فيها شرائح نيفيديا GPU، مما يظهر أن مكانة شرائح ASIC تتصاعد.
اتجاه تنويع الشرائح وتوازن الكفاءة والتكلفة
تعد Broadcom وMarvell من الشركات الرائدة في تصميم الشرائح المتعاقد عليها، وهي شركاء استراتيجيون أساسيون لعمالقة السحابة. تشارك Broadcom بشكل عميق في تطوير شرائح TPU من Google، ومسرعات Meta الداخلية، وشرائح ASIC التي ستطلقها OpenAI. تساعد Broadcom في بناء شرائح TPU من Google وشرائح تعليم الذكاء الاصطناعي من Meta، ويتوقع المحللون أن تصل حصة Broadcom السوقية للشرائح المخصصة إلى 70-80%.
كما تتوسع الشرائح الذكية عند الحافة إلى الأجهزة الشخصية. وحدة المعالجة العصبية (NPU) هي شرائح مخصصة لتشغيل الذكاء الاصطناعي على الأجهزة، وتُدمج الآن في معالجات Snapdragon من كوالكوم، وشرائح AMD، وإنتل، وسلسلة M من أبل، وتُستخدم في الهواتف الذكية، والأجهزة المحمولة، والمنازل الذكية، والسيارات، وحتى الروبوتات. ستوفر المعالجة على الأجهزة مزيدًا من الخصوصية، وتقليل التأخير، وزيادة السيطرة.
مقارنة بين ثلاث فئات من الشرائح
شريحة GPU: مرنة وتناسب العديد من الأحمال، لكن استهلاكها للطاقة مرتفع وتكلفتها عالية، وتكلف وحدة واحدة من الخادم 3 ملايين دولار
شريحة ASIC: مخصصة وسريعة وذات استهلاك منخفض للطاقة، وتكلف مئات الملايين من الدولارات في التطوير، ولكنها توفر قيمة طويلة الأمد بنسبة 30-40%
شريحة FPGA/NPU: قابلة لإعادة التكوين وتتوسط بين الاثنين، مناسبة للأجهزة الطرفية ومرحلة الاختبار
سيطرة TSMC على سلسلة التوريد الشرائح
سواء كانت شرائح نيفيديا Blackwell، أو شرائح Google TPU، أو شرائح AWS Tranium، فإن معظم شرائح الذكاء الاصطناعي تصنع في نهاية المطاف بواسطة TSMC. هذا يربط بشكل وثيق إمدادات الحوسبة الذكية والجغرافيا السياسية العالمية. تحاول الولايات المتحدة عبر مصانع TSMC في أريزونا وتقنية إنتل 18A استعادة بعض قدرات التصنيع المحلية. ومع ذلك، فإن الشركات الصينية مثل Huawei وAlibaba تعمل بنشاط على تطوير شرائح ASIC خاصة بها، سعياً إلى بدائل محلية في ظل قيود التصدير.