الزلزال القادم في الذكاء الاصطناعي: لماذا الخطر الحقيقي ليس قاتل SaaS، بل ثورة الحوسبة؟

robot
إنشاء الملخص قيد التقدم

كتابة: برويس

مؤخرًا، يراقب جميع قطاعات التكنولوجيا والاستثمار عن كثب أمرًا واحدًا: كيف تقتل تطبيقات الذكاء الاصطناعي الطرق التقليدية للبرمجيات كخدمة (SaaS). منذ أن عرضت @AnthropicAI نموذج كلود كوورك وكيف يمكنه بسهولة مساعدتك في كتابة البريد الإلكتروني، إعداد عروض تقديمية، وتحليل جداول إكسل، بدأ الذعر من فكرة أن «البرمجيات قد ماتت» ينتشر بسرعة. هذا الأمر مخيف حقًا، لكن إذا توقفت عند هذا الحد، فربما تفوتك الزلزال الحقيقي.

إنه مثل أن نرفع أعيننا لننظر إلى معركة الطائرات بدون طيار في السماء، بينما لا يلاحظ أحد أن القارة التي نعيش عليها تتغير ببطء تحت أقدامنا. العاصفة الحقيقية، مخفية تحت سطح الماء، في زاوية لا يراها الكثيرون: الأساس الذي يدعم عالم الذكاء الاصطناعي، وهو يتغير بشكل «ثورة صامتة».

وهذه الثورة قد تنهي بشكل مبكر حفلة NVIDIA، التي نظمتها بعناية، والتي يعتقد الجميع أنها ستستمر لوقت أطول.

طريقان يتقاطعان في الثورة

هذه الثورة ليست حدثًا واحدًا، بل هي نتيجة تداخل مسارين تقنيين يبدو أنهما مستقلان، لكنهما ينسجان معًا. كأنهما جيشان يحيطان بسيطرة NVIDIA على وحدات المعالجة الرسومية (GPU)، ويشكلان هجومًا من القبضة على الهيمنة.

المسار الأول هو ثورة تبسيط الخوارزميات.

هل فكرت يومًا أن دماغًا فائقًا قد لا يحتاج إلى تفعيل كل خلاياه عند التفكير؟ من الواضح أنه لا يحتاج. شركة DeepSeek أدركت ذلك، وابتكرت بنية MoE (نموذج الخبراء المختلط).

يمكنك تصورها كشركة توظف مئات الخبراء في مجالات مختلفة. وعند حل مشكلة، لا تحتاج إلى استدعاء الجميع، بل فقط اثنين أو ثلاثة من الأكثر صلة. هذه هي ذكاء MoE: فهي تجعل النموذج الضخم ينشط جزءًا صغيرًا فقط من «الخبراء» عند كل عملية حساب، مما يوفر بشكل كبير في استهلاك الحوسبة.

ماذا ستكون النتيجة؟ نموذج DeepSeek-V2، الذي يُقال إنه يضم 236 مليار «خبير» (معامل)، لكنه عند العمل ينشط فقط 21 مليار، أي أقل من 9% من الإجمالي. ومع ذلك، أداؤه يقارب أداء GPT-4 الذي يحتاج إلى تشغيل كامل قدراته. ماذا يعني هذا؟ لقد انفصلت قدرة الذكاء الاصطناعي عن استهلاك الحوسبة!

في السابق، كنا نعتقد أن كلما زادت قوة الذكاء الاصطناعي، زاد استهلاك البطاقة الرسومية. الآن، تقول لنا DeepSeek إن باستخدام خوارزميات ذكية، يمكن تحقيق نفس النتائج بتكلفة تصل إلى عشرة أضعاف أقل. هذا يضع علامة استفهام كبيرة على الحاجة الملحة لوحدات NVIDIA.

المسار الثاني هو ثورة «تغيير المسار» في الأجهزة.

الذكاء الاصطناعي يعمل في مرحلتين: التدريب والاستنتاج. التدريب يشبه الذهاب إلى المدرسة، حيث تحتاج لقراءة آلاف الكتب، وفي هذه المرحلة، تكون وحدات المعالجة الرسومية (GPU) ذات القدرة العالية على المعالجة المتوازية فعالة جدًا. أما الاستنتاج، فهو أكثر ارتباطًا بسرعة الاستجابة.

لكن GPU يعاني من عيب فطري أثناء الاستنتاج: ذاكرته (HBM) خارجية، وتوجد تأخيرات في نقل البيانات ذهابًا وإيابًا. كأنك طباخ يضع مكونات الطعام في ثلاجة في غرفة مجاورة، وكل مرة يحتاج إلى الذهاب لجلبها، حتى لو كان سريعًا، لن يكون سريعًا بما يكفي. أما شركات مثل Cerebras وGroq، فقد ابتكرت شرائح استنتاج مخصصة، حيث يتم لحام الذاكرة (SRAM) مباشرة على الشريحة، مما يتيح وصولًا «بدون تأخير» إلى المكونات.

السوق أظهر تصويتًا عمليًا بالمال. شركة OpenAI تشتكي من أن استنتاج NVIDIA غير كافٍ، وفي الوقت نفسه، وقعت عقدًا بقيمة 10 مليارات دولار مع Cerebras لاستئجار خدمات استنتاجهم. NVIDIA نفسها أصبحت قلقة، ودفعت 20 مليار دولار لشراء شركة Groq، بهدف عدم التخلف عن الركب في هذا المسار الجديد.

عندما يلتقي المساران: انهيار التكاليف

الآن، نضع هذين الأمرين معًا: نموذج DeepSeek «الرفيع» الذي يعتمد على خوارزمية MoE، يعمل على شريحة Cerebras «بدون تأخير».

ماذا يحدث؟

انهيار في التكاليف.

أولًا، النموذج المُبسط صغير جدًا، ويمكن تحميله بالكامل في ذاكرة الشريحة المدمجة. ثانيًا، مع عدم وجود عائق الذاكرة الخارجية، ستصبح سرعة استجابة الذكاء الاصطناعي مذهلة. النتيجة النهائية: تقل تكلفة التدريب بنسبة 90% بفضل بنية MoE، وتقل تكلفة الاستنتاج بفضل الأجهزة المخصصة والحسابات المتفرقة بمقدار كبير. وبحساب بسيط، فإن تكلفة تشغيل وامتلاك ذكاء اصطناعي عالمي المستوى قد تكون فقط 10-15% من تكلفة الحلول التقليدية باستخدام وحدات GPU.

هذه ليست مجرد تحسين، بل هي انتقال نمطي.

مقعد NVIDIA، يُسحب تدريجيًا من تحت السجاد

الآن، يجب أن تفهم لماذا هذا أكثر خطورة من «هلع العمل الجماعي» (Cowork).

القيمة السوقية لنفيديا اليوم، التي تقدر بعشرات التريليونات، مبنية على قصة بسيطة: أن الذكاء الاصطناعي هو المستقبل، وأن مستقبل الذكاء الاصطناعي يعتمد على وحدات GPU الخاصة بها. لكن الآن، تتزعزع هذه القصة من أساسها.

في سوق التدريب، حتى لو استمرت NVIDIA في الاحتكار، إذا استطاع العملاء إنجاز العمل باستخدام عُشر عدد البطاقات، فسيقل الحجم الإجمالي للسوق بشكل كبير.

وفي سوق الاستنتاج، الذي هو أكبر بعشرة أضعاف، NVIDIA لا تمتلك ميزة مطلقة، بل تواجه هجمات من شركات مثل Google وCerebras. وحتى أكبر عملائها، OpenAI، بدأت تتخلى عنها.

بمجرد أن تدرك وول ستريت أن «المعول» الخاص بنفيديا لم يعد الخيار الوحيد، أو حتى الأفضل، فكيف ستكون التقييمات المبنية على «الاحتكار الدائم»؟ الجميع يعرف الإجابة.

لذا، ربما يكون أكبر حدث غير متوقع في الأشهر الستة القادمة ليس أن تطبيقًا للذكاء الاصطناعي قد أزال آخر، بل خبر تقني بسيط: مثل ورقة بحث جديدة عن كفاءة خوارزمية MoE، أو تقرير يُظهر زيادة حصة السوق الخاصة بشرائح الاستنتاج المخصصة، والذي يعلن بشكل غير مباشر أن حرب الحوسبة دخلت مرحلة جديدة.

عندما لم يعد «البائع» الوحيد للأدوات هو الخيار الوحيد، قد تنتهي حقبة الذهب الخاصة به.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.33Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.34Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.35Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.36Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.39Kعدد الحائزين:2
    0.07%
  • تثبيت