قبل يومين عندما كنت أتابع تدفق المعلومات، شعرت فجأة:
الذكاء الاصطناعي الحالي يشبه صديقًا ماهرًا في الكلام لكنه لا يحب شرح العمليات. يقول كلامًا واثقًا، ولكن إذا سألت عن كيف توصل إلى استنتاجه، غالبًا ما يبتسم فقط. لكن المشكلة هي، عندما يبدأ الذكاء الاصطناعي في التعامل مع المال، العقود، والتنفيذ التلقائي، فإن هذا "عدم الشرح" يبدأ في إثارة القلق.
وفي هذا السياق بالذات، قررت أن أطلع بجدية على ما تقوم به @inference_labs.
نقطة اهتمامهم مباشرة وواقعية جدًا: مستقبلًا، لا يمكن الاعتماد فقط على نتائج الذكاء الاصطناعي، بل يجب أن يكون بالإمكان إثبات أنه قام بالحسابات، وأنه فعلاً نفذ العمليات، ولم يتم التلاعب به. لذا، اقترحوا مفهوم Proof of Inference، وباختصار، هو تزويد كل نتيجة استنتاجية للذكاء الاصطناعي بـ"إيصال قابل للتحقق". لا حاجة للثقة على السلسلة، فقط التحقق منك.
هذه النقطة مهمة جدًا في المرحلة الحالية. العملاء، وكلاء الذكاء الاصطناعي، العقود الذكية، أنظمة اتخاذ القرار الآلي، بدأت تتصل بالمال والعقود، وإذا كانت النتائج غير قابلة للتحقق، فإن النظام بأكمله قد يتوقف عن العمل في أي وقت. ليس أن النموذج غير ذكي، بل أن لا أحد يجرؤ على استخدامه.
الأكثر إثارة للاهتمام هو أنهم لم يتبعوا الطريق القديم الذي ينقل كل شيء إلى السلسلة. تدريب واستنتاج على السلسلة، مكلف، منخفض الكفاءة، ويستهلك بشكل كبير من الأجهزة، وهذا غير قابل للتنفيذ في الواقع. فكرة Inference Labs تشبه البنية التحتية: يتم إجراء الاستنتاج خارج السلسلة، وتوليد إثبات؛ وعندما يكون هناك حاجة فعلية للثقة، يتم التحقق من الإثبات على السلسلة. ما هو مهم يُثقل، وما يمكن تخفيفه يُخفف.
الخصوصية أيضًا من النقاط التي يؤكدون عليها مرارًا وتكرارًا. هل النموذج ملكك؟ هل البيانات المدخلة حساسة؟ هل يمكن سرقة المعلمات الداخلية؟ هذه كلها متطلبات صارمة في التطبيقات العملية. يستخدمون zkML كجوهر، ويضعون أدوات مثل FHE وMPC ضمن تصميم شبكة أكبر، الهدف ليس التباهي، بل ضمان الصحة، وإخفاء الأشياء التي لا ينبغي الكشف عنها.
من وجهة نظر المستخدم، أكبر تغيير في هذه المنظومة هو "العتبة". في السابق، إذا أردت بناء ذكاء اصطناعي لامركزي، كان عليك فهم النموذج، والتحقق، والتحسين، وتكوين الأجهزة، وكان الأمر معقدًا جدًا. من خلال Proof of Inference والرهانات المتحركة، قاموا بأتمتة كل هذه الأمور. تستخدم ذكاءً لامركزيًا، لكن التجربة تشبه استدعاء خدمة قياسية.
وأمر آخر أعتبره مهمًا جدًا، هو موقفهم من الشفافية والمجتمع. الكود والوثائق يمكن قراءتها بسهولة، وليست مشاريع صندوق أسود تقدم نتائج فقط دون توجيه. ما يطرحه مفهوم auditable autonomy هو أن الذكاء الاصطناعي يجب أن يكون مستقلًا، ولكن قابلًا للمراجعة.
بالنظر إلى الوقت الحالي، أصبح الذكاء الاصطناعي يتجه من عرض القدرات إلى تحمل المسؤولية. من يستطيع جعل الذكاء الاصطناعي قويًا وقابلًا للتحقق والثقة، هو من سيحصل على فرصة ليكون المكون الأساسي في المرحلة القادمة. ما تقدمه Inference Labs ليس مجرد دعاية، بل هو هيكل يبدو أنه يمكن أن يستمر طويلًا.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
قبل يومين عندما كنت أتابع تدفق المعلومات، شعرت فجأة:
الذكاء الاصطناعي الحالي يشبه صديقًا ماهرًا في الكلام لكنه لا يحب شرح العمليات.
يقول كلامًا واثقًا، ولكن إذا سألت عن كيف توصل إلى استنتاجه، غالبًا ما يبتسم فقط.
لكن المشكلة هي، عندما يبدأ الذكاء الاصطناعي في التعامل مع المال، العقود، والتنفيذ التلقائي، فإن هذا "عدم الشرح" يبدأ في إثارة القلق.
وفي هذا السياق بالذات، قررت أن أطلع بجدية على ما تقوم به @inference_labs.
نقطة اهتمامهم مباشرة وواقعية جدًا:
مستقبلًا، لا يمكن الاعتماد فقط على نتائج الذكاء الاصطناعي، بل يجب أن يكون بالإمكان إثبات أنه قام بالحسابات، وأنه فعلاً نفذ العمليات، ولم يتم التلاعب به.
لذا، اقترحوا مفهوم Proof of Inference، وباختصار، هو تزويد كل نتيجة استنتاجية للذكاء الاصطناعي بـ"إيصال قابل للتحقق".
لا حاجة للثقة على السلسلة، فقط التحقق منك.
هذه النقطة مهمة جدًا في المرحلة الحالية.
العملاء، وكلاء الذكاء الاصطناعي، العقود الذكية، أنظمة اتخاذ القرار الآلي، بدأت تتصل بالمال والعقود، وإذا كانت النتائج غير قابلة للتحقق، فإن النظام بأكمله قد يتوقف عن العمل في أي وقت.
ليس أن النموذج غير ذكي، بل أن لا أحد يجرؤ على استخدامه.
الأكثر إثارة للاهتمام هو أنهم لم يتبعوا الطريق القديم الذي ينقل كل شيء إلى السلسلة.
تدريب واستنتاج على السلسلة، مكلف، منخفض الكفاءة، ويستهلك بشكل كبير من الأجهزة، وهذا غير قابل للتنفيذ في الواقع.
فكرة Inference Labs تشبه البنية التحتية:
يتم إجراء الاستنتاج خارج السلسلة، وتوليد إثبات؛
وعندما يكون هناك حاجة فعلية للثقة، يتم التحقق من الإثبات على السلسلة.
ما هو مهم يُثقل، وما يمكن تخفيفه يُخفف.
الخصوصية أيضًا من النقاط التي يؤكدون عليها مرارًا وتكرارًا.
هل النموذج ملكك؟ هل البيانات المدخلة حساسة؟ هل يمكن سرقة المعلمات الداخلية؟ هذه كلها متطلبات صارمة في التطبيقات العملية.
يستخدمون zkML كجوهر، ويضعون أدوات مثل FHE وMPC ضمن تصميم شبكة أكبر، الهدف ليس التباهي، بل ضمان الصحة، وإخفاء الأشياء التي لا ينبغي الكشف عنها.
من وجهة نظر المستخدم، أكبر تغيير في هذه المنظومة هو "العتبة".
في السابق، إذا أردت بناء ذكاء اصطناعي لامركزي، كان عليك فهم النموذج، والتحقق، والتحسين، وتكوين الأجهزة، وكان الأمر معقدًا جدًا.
من خلال Proof of Inference والرهانات المتحركة، قاموا بأتمتة كل هذه الأمور.
تستخدم ذكاءً لامركزيًا، لكن التجربة تشبه استدعاء خدمة قياسية.
وأمر آخر أعتبره مهمًا جدًا، هو موقفهم من الشفافية والمجتمع.
الكود والوثائق يمكن قراءتها بسهولة، وليست مشاريع صندوق أسود تقدم نتائج فقط دون توجيه.
ما يطرحه مفهوم auditable autonomy هو أن الذكاء الاصطناعي يجب أن يكون مستقلًا، ولكن قابلًا للمراجعة.
بالنظر إلى الوقت الحالي، أصبح الذكاء الاصطناعي يتجه من عرض القدرات إلى تحمل المسؤولية.
من يستطيع جعل الذكاء الاصطناعي قويًا وقابلًا للتحقق والثقة، هو من سيحصل على فرصة ليكون المكون الأساسي في المرحلة القادمة.
ما تقدمه Inference Labs ليس مجرد دعاية، بل هو هيكل يبدو أنه يمكن أن يستمر طويلًا.
على الأقل، هو يعالج مشكلة حقيقية.
@inference_labs #Yap @KaitoAI #KaitoYap #Inference