في إطار تشغيل الوكيل الذكي AI، تم اكتشاف ثغرة أمنية خطيرة في مكتبة “LangChain Core” التي تلعب دورًا مركزيًا. تم تسمية المشكلة بـ “LangGrinch”، ويمكن للمهاجمين من خلالها سرقة معلومات حساسة داخل نظام AI. نظرًا لأن هذه الثغرة قد تهز الأساس الأمني للعديد من تطبيقات AI على المدى الطويل، فهي تدق ناقوس الخطر للصناعة بأكملها.
كشفت شركة Cyata Security الناشئة في مجال أمان AI عن هذه الثغرة، برقم CVE-2025-68664، ومنحتها تصنيف خطورة عالي وفقًا لنظام تقييم الثغرات الشامل (CVSS) بدرجة 9.3. تكمن المشكلة الأساسية في أن الوظائف المساعدة الداخلية في LangChain Core، أثناء عمليات التسلسل وإلغاء التسلسل، قد تخلط إدخالات المستخدم مع كائنات موثوقة بشكل خاطئ. يستخدم المهاجمون تقنية “حقن التعليمات” (prompt injection) للتلاعب بالمخرجات الهيكلية التي يولدها الوكيل، وإدراج علامات داخلية داخلها، بحيث يتم التعامل معها لاحقًا ككائنات موثوقة.
يلعب LangChain Core دورًا محوريًا بين العديد من أطر عمل الوكلاء الذكي AI، حيث تم تحميله مئات الملايين من المرات خلال الثلاثين يومًا الماضية. تشير الإحصائيات الإجمالية إلى أن إجمالي التنزيلات تجاوز 8.47 مليار مرة. وبالنظر إلى التطبيقات المرتبطة بنظام LangChain البيئي بأكمله، يعتقد الخبراء أن تأثير هذه الثغرة سيكون واسع النطاق جدًا.
شرح الباحث الأمني في Cyata، ياردن بورات، قائلاً: “الخصوصية في هذه الثغرة تكمن في أنها ليست مجرد مشكلة في إلغاء التسلسل، بل تحدث في مسار التسلسل نفسه. عملية تخزين، أو بث، أو استعادة البيانات الهيكلية التي يولدها AI من خلال التعليمات، تكشف عن سطح هجوم جديد.” وأكدت Cyata أن هناك 12 مسار هجوم واضح يمكن أن يؤدي إلى سيناريوهات مختلفة تحت تعليمات واحدة.
بمجرد تنفيذ الهجوم، يمكن أن يؤدي طلب HTTP عن بعد إلى تسرب كامل لمتغيرات البيئة، والتي تتضمن بيانات اعتماد السحابة، عناوين URL للوصول إلى قواعد البيانات، معلومات قواعد البيانات الشعاعية، ومفاتيح API لنماذج اللغة الكبيرة (LLM) وغيرها من المعلومات ذات القيمة العالية. والأهم من ذلك، أن الثغرة ناتجة عن عيب هيكلي في LangChain Core نفسه، ولا تتطلب أدوات طرف ثالث أو تكامل خارجي. وتعتبر Cyata أن هذا يمثل “تهديدًا موجودًا في طبقة أنابيب النظام البيئي”.
تم إصدار تصحيح أمني لإصلاح هذه المشكلة مع إصدار LangChain Core 1.2.5 و0.3.81. وأبلغت Cyata فريق تشغيل LangChain مسبقًا قبل الإعلان عن المشكلة، ويُقال إن الفريق استجاب بسرعة واتخذ إجراءات لتعزيز الأمان على المدى الطويل.
أكد شاحار تال، المؤسس المشارك والرئيس التنفيذي لـ Cyata، قائلاً: “مع الانتشار الواسع لنظام AI في المواقع الصناعية، أصبح تحديد الصلاحيات التي ستتمكن الأنظمة من استهلاكها أمرًا أكثر أهمية من تنفيذ الكود نفسه. في بنية تعتمد على تحديد هوية الوكيل، يجب أن يكون تقليل الصلاحيات وتقليل دائرة التأثير من المبادئ الأساسية في التصميم.”
من المتوقع أن تكون هذه الحادثة فرصة لصناعة AI، التي تتجه بشكل متزايد من التدخل البشري إلى الأتمتة المعتمدة على الوكلاء، لإعادة التفكير في المبادئ الأساسية لتصميم الأمان.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تقنية الوكيل الذكي الأساسية تحتوي على عيوب قاتلة... إصدار تحذير "LangGrinch" من LangChain
في إطار تشغيل الوكيل الذكي AI، تم اكتشاف ثغرة أمنية خطيرة في مكتبة “LangChain Core” التي تلعب دورًا مركزيًا. تم تسمية المشكلة بـ “LangGrinch”، ويمكن للمهاجمين من خلالها سرقة معلومات حساسة داخل نظام AI. نظرًا لأن هذه الثغرة قد تهز الأساس الأمني للعديد من تطبيقات AI على المدى الطويل، فهي تدق ناقوس الخطر للصناعة بأكملها.
كشفت شركة Cyata Security الناشئة في مجال أمان AI عن هذه الثغرة، برقم CVE-2025-68664، ومنحتها تصنيف خطورة عالي وفقًا لنظام تقييم الثغرات الشامل (CVSS) بدرجة 9.3. تكمن المشكلة الأساسية في أن الوظائف المساعدة الداخلية في LangChain Core، أثناء عمليات التسلسل وإلغاء التسلسل، قد تخلط إدخالات المستخدم مع كائنات موثوقة بشكل خاطئ. يستخدم المهاجمون تقنية “حقن التعليمات” (prompt injection) للتلاعب بالمخرجات الهيكلية التي يولدها الوكيل، وإدراج علامات داخلية داخلها، بحيث يتم التعامل معها لاحقًا ككائنات موثوقة.
يلعب LangChain Core دورًا محوريًا بين العديد من أطر عمل الوكلاء الذكي AI، حيث تم تحميله مئات الملايين من المرات خلال الثلاثين يومًا الماضية. تشير الإحصائيات الإجمالية إلى أن إجمالي التنزيلات تجاوز 8.47 مليار مرة. وبالنظر إلى التطبيقات المرتبطة بنظام LangChain البيئي بأكمله، يعتقد الخبراء أن تأثير هذه الثغرة سيكون واسع النطاق جدًا.
شرح الباحث الأمني في Cyata، ياردن بورات، قائلاً: “الخصوصية في هذه الثغرة تكمن في أنها ليست مجرد مشكلة في إلغاء التسلسل، بل تحدث في مسار التسلسل نفسه. عملية تخزين، أو بث، أو استعادة البيانات الهيكلية التي يولدها AI من خلال التعليمات، تكشف عن سطح هجوم جديد.” وأكدت Cyata أن هناك 12 مسار هجوم واضح يمكن أن يؤدي إلى سيناريوهات مختلفة تحت تعليمات واحدة.
بمجرد تنفيذ الهجوم، يمكن أن يؤدي طلب HTTP عن بعد إلى تسرب كامل لمتغيرات البيئة، والتي تتضمن بيانات اعتماد السحابة، عناوين URL للوصول إلى قواعد البيانات، معلومات قواعد البيانات الشعاعية، ومفاتيح API لنماذج اللغة الكبيرة (LLM) وغيرها من المعلومات ذات القيمة العالية. والأهم من ذلك، أن الثغرة ناتجة عن عيب هيكلي في LangChain Core نفسه، ولا تتطلب أدوات طرف ثالث أو تكامل خارجي. وتعتبر Cyata أن هذا يمثل “تهديدًا موجودًا في طبقة أنابيب النظام البيئي”.
تم إصدار تصحيح أمني لإصلاح هذه المشكلة مع إصدار LangChain Core 1.2.5 و0.3.81. وأبلغت Cyata فريق تشغيل LangChain مسبقًا قبل الإعلان عن المشكلة، ويُقال إن الفريق استجاب بسرعة واتخذ إجراءات لتعزيز الأمان على المدى الطويل.
أكد شاحار تال، المؤسس المشارك والرئيس التنفيذي لـ Cyata، قائلاً: “مع الانتشار الواسع لنظام AI في المواقع الصناعية، أصبح تحديد الصلاحيات التي ستتمكن الأنظمة من استهلاكها أمرًا أكثر أهمية من تنفيذ الكود نفسه. في بنية تعتمد على تحديد هوية الوكيل، يجب أن يكون تقليل الصلاحيات وتقليل دائرة التأثير من المبادئ الأساسية في التصميم.”
من المتوقع أن تكون هذه الحادثة فرصة لصناعة AI، التي تتجه بشكل متزايد من التدخل البشري إلى الأتمتة المعتمدة على الوكلاء، لإعادة التفكير في المبادئ الأساسية لتصميم الأمان.