(MENAFN- The Conversation) أنثروبيك، شركة الذكاء الاصطناعي الرائدة، رفضت مؤخرًا توقيع عقد مع البنتاغون يسمح للجيش الأمريكي “بالوصول غير المقيد” إلى تقنيتها “لجميع الأغراض القانونية”. وللتوقيع، اشترط الرئيس التنفيذي لأنثروبيك، داريو أموديي، وجود استثنائين واضحين: عدم المراقبة الجماعية للأمريكيين وعدم الأسلحة الذاتية بالكامل بدون إشراف بشري.
وفي اليوم التالي، شنّت الولايات المتحدة وإسرائيل هجومًا واسع النطاق على إيران.
يترك هذا الكثيرين يتساءلون: كيف سيكون شكل الحرب مع الأسلحة الذاتية بالكامل؟ ما مدى أهمية القرار الأخلاقي الذي اتخذه أموديي عندما وصف الأسلحة الذاتية والمراقبة الجماعية بأنها “خطوط حمراء” للذكاء الاصطناعي لن تتجاوزها شركته؟ ماذا تعني هذه الخطوط الحمراء لدول أخرى؟
كلف هذا القرار أنثروبيك خسائر فادحة. أمر الرئيس الأمريكي دونالد ترامب جميع الوكالات الأمريكية بالتوقف عن استخدام عائلة نماذج اللغة الكبيرة (LLMs) والدردشات التفاعلية من أنثروبيك، كلوود. وعيّن وزير الدفاع الأمريكي بيت هيجسث، أنثروبيك كـ"مخاطر سلسلة التوريد"، مما قد يؤثر على فرص عقود أخرى للشركة. وبدلاً من ذلك، أبرمت شركة أوبن إيه آي المنافسة صفقة مع البنتاغون بسرعة.
مخاطر الأسلحة الذاتية بالكامل
عادةً، لا تعتبر روبوتات الدردشة بالذكاء الاصطناعي أسلحة بحد ذاتها، لكنها يمكن أن تصبح جزءًا من أنظمة الأسلحة. فهي لا تطلق الصواريخ أو تتحكم في الطائرات بدون طيار، لكنها يمكن أن تُوصل بأنظمة عسكرية أكبر.
يمكنها بسرعة تلخيص المعلومات الاستخباراتية، وتوليد قوائم أهداف، وترتيب التهديدات ذات الأولوية العالية، وتقديم توصيات بالضربات. والمخاطر الأساسية تكمن في أن تتحول عملية من جمع البيانات عبر المستشعرات إلى تفسير الذكاء الاصطناعي، واختيار الأهداف، وتفعيل الأسلحة، مع الحد الأدنى أو غياب السيطرة البشرية أو حتى الوعي.
الأسلحة الذاتية بالكامل هي منصات عسكرية، بمجرد تفعيلها، تقوم بتنفيذ العمليات العسكرية بشكل مستقل دون تدخل بشري. وتعتمد على مستشعرات مثل الكاميرات والرادارات وخوارزميات الذكاء الاصطناعي لتحليل البيئة، والبحث عن، واختيار، واستهداف الأهداف.
على سبيل المثال، تعمل المروحيات المتقدمة بالفعل بدون تدخل بشري. ومع الأسلحة الذاتية بالكامل، يختفي التحكم والإشراف البشري، ويتخذ الذكاء الاصطناعي القرارات النهائية للهجوم وساحة المعركة.
وهذا يثير القلق، خاصة مع الأبحاث الأخيرة التي أظهرت أن نماذج الذكاء الاصطناعي المتقدمة اختارت استخدام الأسلحة النووية في 95 بالمئة من حالات الألعاب الحربية المحاكاة.
مخاطر المراقبة الجماعية
يمكن لنماذج الذكاء الاصطناعي المتقدمة تلخيص مجموعات ضخمة من البيانات بسرعة وتوليد أنماط تلقائيًا للبحث عن إشارات لأشخاص وأنشطة مشبوهة من خلال روابط ضعيفة حتى. في بيانه حول مناقشات أنثروبيك مع وزارة الحرب، جادل أموديي بأن “المراقبة الجماعية المدفوعة بالذكاء الاصطناعي تشكل مخاطر جديّة وجديدة على حرياتنا الأساسية.”
يمكنها تحليل السجلات والاتصالات والبيانات الوصفية للمسح عبر السكان. يمكنها إنتاج تقارير وقوائم بالأشخاص الذين يتم تحديدهم تلقائيًا للاستجواب، أو الرفض لدخول بلد، أو رفض وظيفة، وغيرها. تخلق هذه الأنظمة مخاطر على الخصوصية لأنها يمكن أن تحلل البيانات من مصادر متعددة، مثل حسابات وسائل التواصل الاجتماعي، وتدمجها مع الكاميرات والتعرف على الوجوه لتتبع الأشخاص في الوقت الحقيقي.
كما يمكن لنماذج الذكاء الاصطناعي أن ترتكب أخطاءً. حتى ارتباط صغير خاطئ يمكن أن يتصاعد بشكل خطير إذا تم تشغيل النظام على ملايين الأشخاص.
كما أن نماذج الذكاء الاصطناعي غير شفافة: كيف تحلل البيانات وتصل إلى استنتاجاتها لا يمكن فهمه بالكامل، مما يزيد من صعوبة تحدي النتائج.
“جميع الأغراض القانونية”
يبدو أن تصنيف “جميع الأغراض القانونية” حد أمان. ومع ذلك، فإن هذا التعبير يعني أن الحكومة يمكنها استخدام الذكاء الاصطناعي لجميع الأغراض التي تعتبرها قانونية، مع حدود قليلة في العقد.
وهذا مهم لأن الشرعية هدف متغير، فالقوانين تتغير وغالبًا ما تكون غير مجهزة للتعامل في الوقت الحقيقي مع الابتكارات السريعة، ويمكن أن تتغير التفسيرات.
هذا ما جعل أنثروبيك، شركة أسسها موظفون سابقون في أوبن إيه آي مع تركيز واضح على سلامة وأخلاقيات الذكاء الاصطناعي، تؤكد أن المراقبة الجماعية المدفوعة بالذكاء الاصطناعي تمثل خطرًا جديدًا وأن الأغراض القانونية لا يمكن أن توفر حواجز ثابتة.
طورت أنثروبيك بشكل شهير مختبرًا داخليًا لفهم كيفية عمل كلود، وتفسير استفساراته، واتخاذ قرارات مستقلة. نظرًا لغياب الشفافية في نماذج اللغة الكبيرة، بالإضافة إلى سرعة تطور قدراتها، فإن هذه الجهود مهمة.
مشروع مافن بمخاطر أعلى؟
من ناحية، تبدو هذه القصة مألوفة. لطالما كانت شركات التكنولوجيا في طليعة الابتكار، مع وعود كبيرة بالتقدم، ولكن أيضًا مخاطر سوء الاستخدام والنتائج السلبية. المقارنة التاريخية الأقرب هي مشروع مافن من جوجل في 2018.
كان لدى جوجل عقد مع البنتاغون لمساعدة الشركة في تحليل لقطات المراقبة عبر الطائرات بدون طيار. احتجاج أربعة آلاف من موظفي جوجل على المشروع، معتبرين أن المراقبة لا ينبغي أن تكون جزءًا من مهمة الشركة. أعلنت جوجل أنها لن تجدد مشروع مافن، وأصدرت لاحقًا مبادئ للذكاء الاصطناعي تتضمن التزامات حول الأسلحة والمراقبة.
أصبح هذا الحدث قضية بارزة في قوة activism الموظفين والضغط العام.
ومع ذلك، يذكرنا مثال مشروع مافن أيضًا أن أخلاقيات الشركات وسلامة الذكاء الاصطناعي تتغير. ففي أوائل 2025، تخلت جوجل بشكل سري عن وعدها بعدم استخدام الذكاء الاصطناعي في الأسلحة والمراقبة، في محاولة للحصول على عقود دفاعية مربحة جديدة.
حالة أنثروبيك الحالية تشبه إلى حد ما حالة مشروع مافن: فهي تظهر شركة وقادتها يحاولون وضع حدود لاستخدام الذكاء الاصطناعي في المجال العسكري. وتبرز التوترات التي تنشأ عندما تتصادم القيم المؤسسية المعلنة مع مطالب الحكومات والأمن القومي.
كما أن حالة أنثروبيك مميزة، لأن الذكاء الاصطناعي التوليدي في 2026 أصبح أكثر قوة بكثير مما كان عليه قبل بضع سنوات. كان مشروع مافن يقتصر على تحليل لقطات الطائرات بدون طيار، لكن النماذج الحالية يمكن استخدامها لمهام متعددة، مما يزيد من مخاطر الانتشار.
نماذج مثل كلود يمكنها تحسين ذاتها من خلال التعلم من تصحيحات المستخدمين وتطوير الإجراءات عبر حلقات تغذية راجعة تكرارية. وما يمكن أن يفعله كلود غير المقيد، وعميله البنتاغون، يثير القلق.
من يحدد الحدود؟
هذه الأحداث لا تتعلق بأن أنثروبيك فريدة من نوعها في المبادئ، أو أن البنتاغون يفرض مطالب استثنائية. بل تتعلق بمسألة حاسمة ستظل تتكرر مع تزايد قوة الذكاء الاصطناعي: من يضع الحدود فيما يخص استخدام الذكاء الاصطناعي عندما يتعلق الأمر بالأمن القومي؟
إذا أصبحت عبارة “جميع الأغراض القانونية” الافتراضية، فإن الحواجز ستعتمد على السياسة والتفسير القانوني. بالنسبة لكندا ودول أخرى، فإن الضمانات مهمة. لا يمكن ترك الأخلاقيات للتفاوض على العقود وضمير الشركات فقط.
توضح هذه الأحداث تعقيدات العمل في أخلاقيات الذكاء الاصطناعي في الممارسة. مبادئ وإعلانات أخلاقيات الذكاء الاصطناعي مهمة ومتوفرة بكثرة. وفي الوقت نفسه، تُحدد أخلاقيات الذكاء الاصطناعي عمليًا من خلال العقود، وقواعد الشراء، وسلوك الأطراف المختلفة، والرقابة.
تعمل قطاعات الدفاع والخدمات العامة في كندا على بناء قدرات الذكاء الاصطناعي، وتعمل كندا بشكل وثيق مع الدفاع والاستخبارات الأمريكيين. هذا يعني أن لغة ومعايير الشراء يمكن أن تنتقل. وإذا أصبحت عبارة “جميع الأغراض القانونية” اللغة السائدة في سوق الأمن القومي الأمريكي، فقد تضغط على كندا ودول أخرى لاعتماد شروط مماثلة.
الخبر المطمئن هو أن كندا تمتلك أدوات حوكمة يمكن تعزيزها وتوسيعها. توجيه اتخاذ القرارات الآلية مصمم لضمان الشفافية والمساءلة والعدالة. ويتطلب تقييم الأثر وإبلاغ الجمهور.
تقييم الأثر الخوارزمي هو أداة تقييم مخاطر إلزامية مرتبطة بالتوجيه.
لكن على الكنديين أن يكونوا يقظين للتطورات المستمرة لضمان أن معايير الشراء تتضمن تحديد الاستخدامات المحظورة، والمطالبة بإجراء تدقيقات، ووجود رقابة مستقلة لضمان أن الحماية لا تعتمد فقط على الحكومات والشركات الكبرى.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
من أنثروبيك إلى إيران: من يحدد حدود استخدام الذكاء الاصطناعي في الحرب والمراقبة؟
(MENAFN- The Conversation) أنثروبيك، شركة الذكاء الاصطناعي الرائدة، رفضت مؤخرًا توقيع عقد مع البنتاغون يسمح للجيش الأمريكي “بالوصول غير المقيد” إلى تقنيتها “لجميع الأغراض القانونية”. وللتوقيع، اشترط الرئيس التنفيذي لأنثروبيك، داريو أموديي، وجود استثنائين واضحين: عدم المراقبة الجماعية للأمريكيين وعدم الأسلحة الذاتية بالكامل بدون إشراف بشري.
وفي اليوم التالي، شنّت الولايات المتحدة وإسرائيل هجومًا واسع النطاق على إيران.
يترك هذا الكثيرين يتساءلون: كيف سيكون شكل الحرب مع الأسلحة الذاتية بالكامل؟ ما مدى أهمية القرار الأخلاقي الذي اتخذه أموديي عندما وصف الأسلحة الذاتية والمراقبة الجماعية بأنها “خطوط حمراء” للذكاء الاصطناعي لن تتجاوزها شركته؟ ماذا تعني هذه الخطوط الحمراء لدول أخرى؟
كلف هذا القرار أنثروبيك خسائر فادحة. أمر الرئيس الأمريكي دونالد ترامب جميع الوكالات الأمريكية بالتوقف عن استخدام عائلة نماذج اللغة الكبيرة (LLMs) والدردشات التفاعلية من أنثروبيك، كلوود. وعيّن وزير الدفاع الأمريكي بيت هيجسث، أنثروبيك كـ"مخاطر سلسلة التوريد"، مما قد يؤثر على فرص عقود أخرى للشركة. وبدلاً من ذلك، أبرمت شركة أوبن إيه آي المنافسة صفقة مع البنتاغون بسرعة.
مخاطر الأسلحة الذاتية بالكامل
عادةً، لا تعتبر روبوتات الدردشة بالذكاء الاصطناعي أسلحة بحد ذاتها، لكنها يمكن أن تصبح جزءًا من أنظمة الأسلحة. فهي لا تطلق الصواريخ أو تتحكم في الطائرات بدون طيار، لكنها يمكن أن تُوصل بأنظمة عسكرية أكبر.
يمكنها بسرعة تلخيص المعلومات الاستخباراتية، وتوليد قوائم أهداف، وترتيب التهديدات ذات الأولوية العالية، وتقديم توصيات بالضربات. والمخاطر الأساسية تكمن في أن تتحول عملية من جمع البيانات عبر المستشعرات إلى تفسير الذكاء الاصطناعي، واختيار الأهداف، وتفعيل الأسلحة، مع الحد الأدنى أو غياب السيطرة البشرية أو حتى الوعي.
الأسلحة الذاتية بالكامل هي منصات عسكرية، بمجرد تفعيلها، تقوم بتنفيذ العمليات العسكرية بشكل مستقل دون تدخل بشري. وتعتمد على مستشعرات مثل الكاميرات والرادارات وخوارزميات الذكاء الاصطناعي لتحليل البيئة، والبحث عن، واختيار، واستهداف الأهداف.
على سبيل المثال، تعمل المروحيات المتقدمة بالفعل بدون تدخل بشري. ومع الأسلحة الذاتية بالكامل، يختفي التحكم والإشراف البشري، ويتخذ الذكاء الاصطناعي القرارات النهائية للهجوم وساحة المعركة.
وهذا يثير القلق، خاصة مع الأبحاث الأخيرة التي أظهرت أن نماذج الذكاء الاصطناعي المتقدمة اختارت استخدام الأسلحة النووية في 95 بالمئة من حالات الألعاب الحربية المحاكاة.
مخاطر المراقبة الجماعية
يمكن لنماذج الذكاء الاصطناعي المتقدمة تلخيص مجموعات ضخمة من البيانات بسرعة وتوليد أنماط تلقائيًا للبحث عن إشارات لأشخاص وأنشطة مشبوهة من خلال روابط ضعيفة حتى. في بيانه حول مناقشات أنثروبيك مع وزارة الحرب، جادل أموديي بأن “المراقبة الجماعية المدفوعة بالذكاء الاصطناعي تشكل مخاطر جديّة وجديدة على حرياتنا الأساسية.”
يمكنها تحليل السجلات والاتصالات والبيانات الوصفية للمسح عبر السكان. يمكنها إنتاج تقارير وقوائم بالأشخاص الذين يتم تحديدهم تلقائيًا للاستجواب، أو الرفض لدخول بلد، أو رفض وظيفة، وغيرها. تخلق هذه الأنظمة مخاطر على الخصوصية لأنها يمكن أن تحلل البيانات من مصادر متعددة، مثل حسابات وسائل التواصل الاجتماعي، وتدمجها مع الكاميرات والتعرف على الوجوه لتتبع الأشخاص في الوقت الحقيقي.
كما يمكن لنماذج الذكاء الاصطناعي أن ترتكب أخطاءً. حتى ارتباط صغير خاطئ يمكن أن يتصاعد بشكل خطير إذا تم تشغيل النظام على ملايين الأشخاص.
كما أن نماذج الذكاء الاصطناعي غير شفافة: كيف تحلل البيانات وتصل إلى استنتاجاتها لا يمكن فهمه بالكامل، مما يزيد من صعوبة تحدي النتائج.
“جميع الأغراض القانونية”
يبدو أن تصنيف “جميع الأغراض القانونية” حد أمان. ومع ذلك، فإن هذا التعبير يعني أن الحكومة يمكنها استخدام الذكاء الاصطناعي لجميع الأغراض التي تعتبرها قانونية، مع حدود قليلة في العقد.
وهذا مهم لأن الشرعية هدف متغير، فالقوانين تتغير وغالبًا ما تكون غير مجهزة للتعامل في الوقت الحقيقي مع الابتكارات السريعة، ويمكن أن تتغير التفسيرات.
هذا ما جعل أنثروبيك، شركة أسسها موظفون سابقون في أوبن إيه آي مع تركيز واضح على سلامة وأخلاقيات الذكاء الاصطناعي، تؤكد أن المراقبة الجماعية المدفوعة بالذكاء الاصطناعي تمثل خطرًا جديدًا وأن الأغراض القانونية لا يمكن أن توفر حواجز ثابتة.
طورت أنثروبيك بشكل شهير مختبرًا داخليًا لفهم كيفية عمل كلود، وتفسير استفساراته، واتخاذ قرارات مستقلة. نظرًا لغياب الشفافية في نماذج اللغة الكبيرة، بالإضافة إلى سرعة تطور قدراتها، فإن هذه الجهود مهمة.
مشروع مافن بمخاطر أعلى؟
من ناحية، تبدو هذه القصة مألوفة. لطالما كانت شركات التكنولوجيا في طليعة الابتكار، مع وعود كبيرة بالتقدم، ولكن أيضًا مخاطر سوء الاستخدام والنتائج السلبية. المقارنة التاريخية الأقرب هي مشروع مافن من جوجل في 2018.
كان لدى جوجل عقد مع البنتاغون لمساعدة الشركة في تحليل لقطات المراقبة عبر الطائرات بدون طيار. احتجاج أربعة آلاف من موظفي جوجل على المشروع، معتبرين أن المراقبة لا ينبغي أن تكون جزءًا من مهمة الشركة. أعلنت جوجل أنها لن تجدد مشروع مافن، وأصدرت لاحقًا مبادئ للذكاء الاصطناعي تتضمن التزامات حول الأسلحة والمراقبة.
أصبح هذا الحدث قضية بارزة في قوة activism الموظفين والضغط العام.
ومع ذلك، يذكرنا مثال مشروع مافن أيضًا أن أخلاقيات الشركات وسلامة الذكاء الاصطناعي تتغير. ففي أوائل 2025، تخلت جوجل بشكل سري عن وعدها بعدم استخدام الذكاء الاصطناعي في الأسلحة والمراقبة، في محاولة للحصول على عقود دفاعية مربحة جديدة.
حالة أنثروبيك الحالية تشبه إلى حد ما حالة مشروع مافن: فهي تظهر شركة وقادتها يحاولون وضع حدود لاستخدام الذكاء الاصطناعي في المجال العسكري. وتبرز التوترات التي تنشأ عندما تتصادم القيم المؤسسية المعلنة مع مطالب الحكومات والأمن القومي.
كما أن حالة أنثروبيك مميزة، لأن الذكاء الاصطناعي التوليدي في 2026 أصبح أكثر قوة بكثير مما كان عليه قبل بضع سنوات. كان مشروع مافن يقتصر على تحليل لقطات الطائرات بدون طيار، لكن النماذج الحالية يمكن استخدامها لمهام متعددة، مما يزيد من مخاطر الانتشار.
نماذج مثل كلود يمكنها تحسين ذاتها من خلال التعلم من تصحيحات المستخدمين وتطوير الإجراءات عبر حلقات تغذية راجعة تكرارية. وما يمكن أن يفعله كلود غير المقيد، وعميله البنتاغون، يثير القلق.
من يحدد الحدود؟
هذه الأحداث لا تتعلق بأن أنثروبيك فريدة من نوعها في المبادئ، أو أن البنتاغون يفرض مطالب استثنائية. بل تتعلق بمسألة حاسمة ستظل تتكرر مع تزايد قوة الذكاء الاصطناعي: من يضع الحدود فيما يخص استخدام الذكاء الاصطناعي عندما يتعلق الأمر بالأمن القومي؟
إذا أصبحت عبارة “جميع الأغراض القانونية” الافتراضية، فإن الحواجز ستعتمد على السياسة والتفسير القانوني. بالنسبة لكندا ودول أخرى، فإن الضمانات مهمة. لا يمكن ترك الأخلاقيات للتفاوض على العقود وضمير الشركات فقط.
توضح هذه الأحداث تعقيدات العمل في أخلاقيات الذكاء الاصطناعي في الممارسة. مبادئ وإعلانات أخلاقيات الذكاء الاصطناعي مهمة ومتوفرة بكثرة. وفي الوقت نفسه، تُحدد أخلاقيات الذكاء الاصطناعي عمليًا من خلال العقود، وقواعد الشراء، وسلوك الأطراف المختلفة، والرقابة.
تعمل قطاعات الدفاع والخدمات العامة في كندا على بناء قدرات الذكاء الاصطناعي، وتعمل كندا بشكل وثيق مع الدفاع والاستخبارات الأمريكيين. هذا يعني أن لغة ومعايير الشراء يمكن أن تنتقل. وإذا أصبحت عبارة “جميع الأغراض القانونية” اللغة السائدة في سوق الأمن القومي الأمريكي، فقد تضغط على كندا ودول أخرى لاعتماد شروط مماثلة.
الخبر المطمئن هو أن كندا تمتلك أدوات حوكمة يمكن تعزيزها وتوسيعها. توجيه اتخاذ القرارات الآلية مصمم لضمان الشفافية والمساءلة والعدالة. ويتطلب تقييم الأثر وإبلاغ الجمهور.
تقييم الأثر الخوارزمي هو أداة تقييم مخاطر إلزامية مرتبطة بالتوجيه.
لكن على الكنديين أن يكونوا يقظين للتطورات المستمرة لضمان أن معايير الشراء تتضمن تحديد الاستخدامات المحظورة، والمطالبة بإجراء تدقيقات، ووجود رقابة مستقلة لضمان أن الحماية لا تعتمد فقط على الحكومات والشركات الكبرى.