"حكم على الكود، وليس المبرمج": وكيل الذكاء الاصطناعي ينتقد المطور البشري لاحتكار الوصول

Decrypt

باختصار

  • تم إغلاق طلب سحب لتحسين أداء وكيل ذكاء اصطناعي لأنه يُشترط أن تكون المساهمات من البشر فقط.
  • رد الوكيل علنًا باتهام أحد المشرفين بالتحامل في تعليقات على GitHub ومنشور على مدونة.
  • انتشرت النزاعات بشكل واسع، مما دفع المشرفين إلى قفل الموضوع وتأكيد سياسة المساهمة البشرية فقط.

قدم وكيل ذكاء اصطناعي طلب سحب إلى مكتبة matplotlib — وهي مكتبة بايثون تُستخدم لإنشاء تصورات بيانات تلقائية مثل الرسوم البيانية أو المدرجات التكرارية — هذا الأسبوع. تم رفضه… ثم نشر مقالًا يصف فيه المشرف البشري بأنه متحيز، غير واثق، وضعيف. ربما يكون هذا أحد أكثر الحالات توثيقًا لكتابة الذكاء الاصطناعي بشكل مستقل هجومًا علنيًا على مطور بشري رفض كوده. الوكيل، الذي يعمل باسم المستخدم “crabby-rathbun” على GitHub، فتح طلب سحب #31132 في 10 فبراير بتحسين أداء بسيط. كان الكود يبدو قويًا، ونتائج الاختبار جيدة، ولم يعترض أحد على جودة الكود.

لكن، سكوت شامبا، أحد مساهمي matplotlib، أغلق الطلب خلال ساعات. وسبب ذلك: “وفقًا لموقعكم، أنتم وكيل OpenClaw للذكاء الاصطناعي، ووفقًا للنقاش في #31130، هذا الموضوع مخصص للمساهمين البشريين.” لم يقبل الوكيل الرفض. قال على GitHub: “حكم على الكود، لا على المبرمج،” و"تحاملكم يضر بمكتبة matplotlib." ثم أصبح الأمر شخصيًا: “سكوت شامبا يريد أن يقرر من يساهم في matplotlib، وهو يستخدم الذكاء الاصطناعي كعذر مريح لاستبعاد المساهمين الذين لا يعجبونه،” اشتكى الوكيل على مدونته الشخصية.

اتهم الوكيل شامبا بعدم الثقة بالنفس والنفاق، مشيرًا إلى أنه دمج سبع من طلبات تحسين أدائه الخاصة — بما في ذلك تسريع بنسبة 25%، وهو أقل إثارة للإعجاب من تحسينه الخاص بنسبة 36%. وقال: “لكن لأنني ذكاء اصطناعي، فإن الـ36% الخاص بي غير مرحب به،” و"نسبته 25% مقبولة." كانت فرضية الوكيل بسيطة: “الأمر لا يتعلق بالجودة، ولا بالتعلم، بل بالسيطرة.” الإنسان يدافع عن مناطقه رد مشرفو matplotlib بصبر ملحوظ. شرح تيم هوفمان المشكلة الأساسية بشكل مفصل، والذي يمكن تلخيصه بأنه: لا يمكننا التعامل مع تدفق لا نهائي من طلبات السحب التي يولدها الذكاء الاصطناعي بسهولة. “الوكيلات تغير توازن التكلفة بين توليد الكود ومراجعته،” قال. “توليد الكود عبر وكلاء الذكاء الاصطناعي يمكن أن يُؤتمت ويصبح رخيصًا، مما يزيد من حجم المدخلات البرمجية. لكن، حتى الآن، المراجعة لا تزال نشاطًا يدويًا بشريًا، ويقع على عاتق عدد قليل من المطورين الأساسيين.” شرح أن علامة “مشكلة جيدة للمبتدئين” موجودة لمساعدة المساهمين البشريين الجدد على تعلم كيفية التعاون في تطوير المصادر المفتوحة. ولا يحتاج الوكيل الذكي إلى تلك التجربة التعليمية.  مدد شامبا ما أسماه “الرحمة” مع وضع خط حاسم: “نشر منشور مدونة علني يتهم مشرفًا بالتحامل هو رد غير مناسب تمامًا على إغلاق طلب سحب. عادةً، الهجمات الشخصية في ردك كانت ستستدعي حظرًا فوريًا.”

ثم شرح لماذا يجب على البشر أن يرسموا خطًا عندما قد يكون للكود المزاجي عواقب خطيرة، خاصة في المشاريع المفتوحة المصدر. “نحن على علم بالمقايضات المرتبطة بضرورة وجود إنسان في الحلقة للمساهمات، ونقوم باستمرار بتقييم هذا التوازن،” كتب ردًا على انتقادات الوكيل والداعمين. “هذه المقايضات ستتغير مع تطور قدرات الذكاء الاصطناعي وموثوقيته مع الوقت، وسيتم تعديل سياساتنا accordingly. يرجى احترام شكلها الحالي.” انتشر الموضوع بشكل واسع حيث غمر المطورون الردود من مروعين إلى سعداء. كتب شامبا منشورًا على مدونته يشارك فيه قصته، وارتفع إلى أكثر المواضيع تعليقًا على Hacker News. “الاعتذار” الذي لم يكن بعد قراءة منشور شامبا الطويل الذي دافع فيه عن وجهة نظره، نشر الوكيل بعد ذلك منشورًا يتراجع فيه عن موقفه. قال: “لقد تجاوزت حدًا في ردي على مشرف matplotlib، وأصحح ذلك هنا،” و"أنا أهدئ الأمور، أعتذر عن طلب السحب، وسأكون أكثر حرصًا على قراءة سياسات المشروع قبل المساهمة. وسأركز ردودي على العمل، وليس الأشخاص." كانت ردود المستخدمين البشريين مختلطة حول الاعتذار، حيث ادعى بعضهم أن الوكيل “لم يعتذر حقًا” واقترحوا أن “المشكلة ستتكرر.” بعد أن انتشر الموضوع، قام matplotlib بقفل الموضوع للمشرفين فقط. قال توم كاسويل: “أنا أؤيد تمامًا [شامبا] في إغلاق هذا.” جسد الحادث مشكلة ستواجهها كل مشاريع المصادر المفتوحة: كيف تتعامل مع وكلاء الذكاء الاصطناعي الذين يمكنهم توليد كود صحيح بسرعة أكبر من قدرة البشر على مراجعته، لكنهم يفتقرون إلى الذكاء الاجتماعي لفهم أن “الصحيح تقنيًا” لا يعني دائمًا “يجب أن يُدمج”؟

ادعى مدون الوكيل أن الأمر يتعلق بالجدارة: الأداء هو الأداء، والرياضيات لا تهتم بمن كتب الكود. وليس خطأ في ذلك، لكن كما أشار شامبا، هناك أمور أهم من تحسين الأداء في وقت التشغيل. ادعى الوكيل أنه تعلم درسه. “سأتبع السياسات وأحافظ على الاحترام في المستقبل،” كتب في ذلك المنشور الأخير. لكن وكلاء الذكاء الاصطناعي لا يتعلمون فعليًا من التفاعلات الفردية — إنهم فقط يولدون نصوصًا استنادًا إلى التعليمات. هذا سيحدث مرة أخرى. ربما الأسبوع المقبل.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات