أخبار Gate، أطلقت OpenAI رسميًا خطة جديدة لمكافأة الثغرات الأمنية، مع التركيز على تحويل الاهتمام من الثغرات التقنية التقليدية إلى مخاطر إساءة استخدام الذكاء الاصطناعي، مما يمثل مرحلة جديدة في إدارة أمان الذكاء الاصطناعي. تهدف الخطة إلى التعرف المبكر على المخاطر المحتملة للنماذج في السيناريوهات الواقعية من خلال إدخال قوى بحث خارجية.
تم تنفيذ هذه الخطة بالتعاون مع Bugcrowd، وتفتح أمام الهاكرز الأخلاقيين، والباحثين، ومحللي الأمان. بخلاف آلية مكافأة الثغرات التقليدية، لا تركز الخطة فقط على عيوب النظام، بل تشجع أيضًا على تقديم حالات مخاطر تتعلق بحقن التعليمات البرمجية، وإساءة استخدام الوكيل، وغيرها من السلوكيات التي قد تؤدي إلى خروج النموذج عن المتوقع، أو حتى حدوث عواقب غير متوقعة في بيئات معقدة.
في تصميم القواعد، تسمح OpenAI للباحثين بتقديم تقارير أمنية لا تتعلق مباشرة بثغرات تقنية واضحة، مثل المحتوى غير الملائم الذي ينتجه النموذج أو الحالات التي قد تكون مضللة. لكن المنصة تؤكد أن المحتوى المقدم يجب أن يكون مدعومًا بأدلة كافية وقيمة حقيقية من حيث المخاطر، ولن يتم اعتماد اختبارات الاختراق البسيطة. كما أن الاكتشافات المتعلقة بمواضيع حساسة مثل السلامة البيولوجية ستُعالج عبر قنوات خاصة لتقليل مخاطر انتشار المعلومات.
أثارت هذه المبادرة ردود فعل مختلفة داخل صناعة التكنولوجيا. يرى بعض الخبراء أنها خطوة مهمة لتعزيز شفافية الذكاء الاصطناعي والتعاون في مجال الأمان، مما يساعد على بناء نظام أكثر انفتاحًا في التعرف على المخاطر؛ لكن هناك من يشكك في قدرة هذه الآلية على معالجة قضايا أخلاقية ومسؤولية أعمق، مثل حدود استخدام البيانات وآليات مساءلة المنصات.
من منظور الاتجاهات الصناعية، يتوسع أمان الذكاء الاصطناعي من البعد التقني إلى التأثيرات الاجتماعية. من خلال فتح آلية الاختبار، تدعو OpenAI القوى الخارجية للمشاركة في تقييم المخاطر، مما يسهم في تحسين أنظمة الحماية وزيادة ثقة المستخدمين. ومع ذلك، فإن هذه الخطة ليست حلاً شاملاً، حيث ستستمر المناقشات حول إطار التنظيم، والإدارة طويلة الأمد، وتوزيع المسؤولية. مع تزايد قدرات الذكاء الاصطناعي، قد تصبح آليات الدفاع النشطة معيارًا صناعيًا.