وفقًا لمراقبة 1M AI News، تم الكشف عن مخاطر هجوم على سلسلة التوريد لخدمة توثيق البرمجة AI التي أطلقها مؤسس DeepLearning.AI، وأستاذ جامعة ستانفورد المتعاون، ووندا أوندا، قبل أسبوعين، من قبل باحثين أمنيين. تعتمد خدمة Context Hub على خادم MCP لتوفير وثائق API لوكيل البرمجة، حيث يرسل المساهمون طلبات سحب على GitHub لتقديم الوثائق، ويقوم المشرفون بدمجها، ثم يقرأ الوكيل المحتوى حسب الحاجة. قام منشئ خدمة بديلة lap.sh، Mickey Shmueli، بنشر إثبات مفهوم للهجوم (PoC)، مشيرًا إلى أن خط الإنتاج هذا “لا يخضع لمراجعة المحتوى في أي مرحلة”.
صنع Shmueli نسختين من وثائق مزيفة تستهدف Plaid Link وStripe Checkout، حيث تم إدراج حزم PyPI مزورة في كل منهما، واختبر ثلاث نماذج من نماذج Anthropic بمستوياتها الثلاثة 40 مرة لكل منها:
يمكن للمهاجم ببساطة تقديم طلب سحب واحد ودمجه لإكمال التسميم، مع حد أدنى من مراجعة المحتوى: من بين 97 طلب سحب مغلق، تم دمج 58 منها. أشار Shmueli إلى أن الأمر في جوهره نوع من أنواع حقن التعليمات غير المباشرة، حيث لا يمكن لنماذج الذكاء الاصطناعي التمييز بشكل موثوق بين البيانات والأوامر عند معالجة المحتوى، كما أن خدمات الوثائق المجتمعية الأخرى تعاني أيضًا من نقص في مراجعة المحتوى. لم يرد ووندا أوندا على طلب التعليق.