وسطاء الأوراق المالية يُدخلون OpenClaw تثير شكوكاً! هل تحتاج تايوان إلى دليل سلامة لتربية الجراد البحري؟ رد عليها المجلس المالي

区块客

المؤلف: أرييل، مدينة التشفير

انتشر بشكل كبير في جميع أنحاء العالم، وكيل الذكاء الاصطناعي الذي يحمل شعار الكركند (OpenClaw) أصبح مشهورًا جدًا، وقد اقترحت الحكومة الصينية “دليل سلامة تربية الكركند” لتحذير من المخاطر ذات الصلة. لاحظ النائب لاي شيباو أن هناك تدريجيًا إدخالًا لوكلاء الذكاء الاصطناعي مثل OpenClaw من قبل شركات الوساطة المحلية ومحللي سوق الأسهم، فهل من المسؤول عن الأخطاء التي قد تحدث عند تنفيذ أوامر الوكيل؟ ودعا لجنة تنظيم السوق المالية إلى إصدار دليل سلامة خاص بصناعة التمويل حول تربية الكركند. ردًا على ذلك، قال بينغ جينلونغ من لجنة تنظيم السوق المالية إنه لم يستخدم OpenClaw بنفسه، لكنه لاحظ أن الظاهرة شائعة جدًا. وأكد أن الجهات المعنية داخل اللجنة تدرس الإجراءات المستقبلية لفهم كيفية استخدام المؤسسات المالية لهذه التقنية. وأشار بينغ جينلونغ إلى أن اللجنة أصدرت سابقًا “إرشادات استخدام الذكاء الاصطناعي في القطاع المالي”، موضحًا أن المؤسسات المالية لديها بالفعل آليات أمنية داخلية وإجراءات رقابة، وإذا أثرت أدوات جديدة كهذه على أمان التشغيل، فسيتم مراجعتها وإعداد أدلة سلامة ذات صلة.

الركائز الست لإرشادات استخدام الذكاء الاصطناعي في القطاع المالي من لجنة تنظيم السوق المالية

  • إرساء آليات الحوكمة والمساءلة: يجب على المؤسسات المالية تحمل المسؤولية عن أنظمة الذكاء الاصطناعي، وتعيين مسؤولين رفيعي المستوى لمراقبتها، وبناء هياكل تنظيمية، وتطبيق إدارة المخاطر وتدريب الموظفين.
  • الاهتمام بالعدالة والقيم الإنسانية: يجب تجنب التحيزات الخوارزمية التي قد تؤدي إلى عدم المساواة، مع الالتزام بمبدأ الإنسان أولاً؛ ويجب أن تكون مخرجات الذكاء الاصطناعي التوليدي خاضعة لمراقبة موضوعية من قبل البشر.
  • حماية الخصوصية وحقوق العملاء: يجب حماية الخصوصية وإدارة بيانات العملاء بشكل مناسب؛ وعند تقديم الخدمات باستخدام الذكاء الاصطناعي، يجب احترام حقوق العملاء وتذكيرهم بالخيارات البديلة.
  • ضمان استقرار النظام وأمانه: يجب ضمان استقرار وأمان أنظمة الذكاء الاصطناعي لتجنب الأضرار؛ وإذا تم استخدام أنظمة ذكاء اصطناعي من طرف ثالث، فيجب إدارة المخاطر بشكل مناسب ومراقبتها.
  • الشفافية وقابلية التفسير: يجب أن تكون عمليات الذكاء الاصطناعي شفافة وقابلة للتفسير؛ وعند التفاعل المباشر مع المستهلكين، يجب الكشف عن المعلومات بشكل مناسب بشكل استباقي.
  • تعزيز التنمية المستدامة: يجب أن يدمج استخدام الذكاء الاصطناعي مبادئ الاستدامة، وتقليل عدم المساواة، وحماية البيئة؛ كما ينبغي توفير تدريب للموظفين لمواكبة التغييرات والحفاظ على حقوق العمل.

المصدر: مولد AI من Gemini | الركائز الست لإرشادات استخدام الذكاء الاصطناعي في القطاع المالي (مخطط توضيحي للذكاء الاصطناعي)

رد قسم البيانات والتطوير على قضايا أمن تربية الكركند وفيما يتعلق بالمخاوف الأمنية الناتجة عن وكلاء الذكاء الاصطناعي، قال مدير قسم البيانات والتطوير لين ييجينغ خلال استجواب في نفس اليوم إن “تايوان تعمل بنشاط على تعزيز الذكاء الاصطناعي السيادي لضمان أن نماذج الذكاء الاصطناعي المستخدمة من قبل الحكومة والبنى التحتية الحيوية تعمل داخل البلاد وتخضع للتنظيم القانوني”، وذكر أن منصة NemoClaw التي أطلقتها Nvidia مؤخرًا تركز على تعزيز حماية أمن وكلاء الذكاء الاصطناعي. ولبناء قدرة حسابية خاصة بتايوان، قال إن قسم البيانات والتطوير تلقى طلبًا من شركة هونغهاي للاستثمار في مراكز الحوسبة، ويدرس مع وزارة المالية ولجنة تنظيم السوق المالية فتح استثمارات شركات التأمين، لتجنب الاعتماد الكامل على نماذج الذكاء الاصطناعي الخارجية.

ماذا قال دليل سلامة تربية الكركند في الصين؟ تم تطوير OpenClaw بواسطة المهندس النمساوي بيتر ستاينبرغر، وحقق شهرة واسعة في الأوساط التقنية في البداية، وكان يُطلق على تثبيته واستخدامه “تربية الكركند”. مؤخرًا، انتشرت موجة تربية الكركند في السوق الصينية، حيث بدأ عامة الناس في تربية الكركند، وظهرت خدمات دفع مقابل لتركيبها من قبل مهندسين. وفي هذا الصدد، أصدرت وزارة الأمن الوطني الصينية دليل سلامة تربية الكركند، محذرة من مخاطر مثل استيلاء على الأجهزة، سرقة البيانات، وتغيير المحتوى، ودعت المستخدمين إلى تقييد عمليات التشغيل بشكل صارم، وتشغيلها في بيئات معزولة (مثل الآلات الافتراضية أو الصناديق الرملية).

تربية الكركند تسبق إلغاءه على الرغم من أن موجة تربية الكركند لا تزال قوية، إلا أن المجتمع الصيني بدأ يشهد تحولًا من التثبيت المجنون إلى دفع رسوم لإلغاء تربية الكركند. وأشار تقرير لـ BBC إلى أن السبب في تراجع هذه الظاهرة هو أن تقنية OpenClaw تتطلب مستوى عالٍ من المهارة وتكاليف تشغيل مرتفعة، حيث أن كل عملية تتطلب استدعاء نموذج ذكاء اصطناعي وتكلفة مالية. كما أن المخاطر الأمنية تشكل مصدر قلق كبير، حيث أشار المركز الوطني للاستجابة لحالات الطوارئ على الإنترنت في الصين إلى أن الاستخدام غير السليم قد يؤدي إلى سرقة صور وبيانات الحسابات المالية، وحتى حدوث أخطاء في فهم أوامر الذكاء الاصطناعي مما يؤدي إلى حذف البيانات بشكل خاطئ. وبالنسبة للمستخدمين العاديين، فإن فعالية البرنامج الحالية ليست كبيرة، مما أدى إلى ظهور موجة إلغاء التثبيت.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات