فيضان صور الحرب المزيفة بالذكاء الاصطناعي: كيف اجتاحت المعلومات الكاذبة حول النزاع الإيراني وسائل التواصل الاجتماعي

ChainNewsAbmedia

عندما اندلعت حرب روسيا وأوكرانيا في عام 2022، كانت وسائل التواصل الاجتماعي مليئة بالصور المزيفة ذات الجودة الرديئة — سواء كانت صورًا مركبة باستخدام فوتوشوب، أو لقطات مأخوذة من ألعاب فيديو، أفلام، أو أخبار قديمة مع علامات خاطئة. واليوم، تظهر نفس الأساليب مرة أخرى في سياق الحرب الإيرانية، ولكن مع أداة خداع جديدة لم تكن منتشرة في 2022: أدوات الذكاء الاصطناعي التي يمكن لأي شخص استخدامها بسهولة، والتي تنتج مقاطع فيديو وصور عالية الجودة تبدو حقيقية بشكل مخادع.

وأشار أستاذ الأدلة الرقمية في جامعة كاليفورنيا بيركلي، هاني فريد، إلى أنه قبل عشر سنوات، كانت الأخبار المزيفة المشابهة قليلة جدًا، وغالبًا ما يتم كشفها بسرعة؛ أما الآن، فهناك المئات منها، وتصل درجة واقعيّتها إلى درجة مدهشة. وقال: «ليس فقط واقعيًا، بل يتطور ويؤثر بشكل عميق على الناس. يصدقها الجميع ويواصلون إعادة نشرها وتداولها.»

انتشار الذكاء الاصطناعي التوليدي يخفض عتبة التزوير بشكل كبير

قال الصحفي المخضرم في BBC Verify، والشخص الذي يتابع الأخبار المزيفة في ساحات القتال، شايان سرداريزاده، إن التغيير الأهم خلال العام الماضي هو انخفاض عتبة الوصول إلى أدوات الذكاء الاصطناعي التوليدي، «الآن يمكن لأي شخص إنتاج مقاطع فيديو وصور مقنعة جدًا، وتبدو وكأنها من مشاهد حرب كبيرة، ويصعب تمييز حقيقتها بالعين المجردة أو من قبل غير المختصين.»

بعد أقل من أسبوعين من بدء الحرب في إيران، أكد خبراء مثل سرداريزاده أن العديد من الفيديوهات المزيفة التي أنشأها الذكاء الاصطناعي حصدت مئات الملايين من المشاهدات على منصات التواصل الاجتماعي.

ما هي الصور المزيفة التي تنتشر حاليًا؟

تشمل المحتويات المزيفة التي تم التعرف عليها حتى الآن نطاقًا واسعًا، منها:

صور خيالية لصواريخ إيرانية تهاجم تل أبيب

مشاهد هلع من الناس يفرون من مطار تل أبيب أثناء الهجوم

فيديو لقوات خاصة أمريكية يُجبرها جنود إيرانيون على التوقف بالسلاح

لقطات تُزعم أنها تظهر تدمير منشآت عسكرية إيرانية (ثلاثة منها من إنتاج الذكاء الاصطناعي، وواحدة حدثت العام الماضي)

مركبات عمليات برية أمريكية داخل إيران

مشاهد لحطام طائرة أمريكية تسقط في شوارع طهران

أما الصور الثابتة المزيفة، فتشمل مشاهد لمواقع عسكرية أمريكية وقنصليات محترقة بعد هجوم إيراني، وصور لمرشد إيران الأعلى خامنئي تحت الأنقاض، ومشاهد لمواطنين إيرانيين ينوحون على ضحايا، وحتى صور مزورة لخرائط فضائية تدعي أنها تظهر أضرارًا في قاعدة بحرينية تابعة للجيش الأمريكي.

وهذه مجرد قمة جبل الجليد من الأخبار المزيفة المرتبطة بإيران التي تنتشر حاليًا.

تراخي الرقابة على المنصات يصعب وقف الأخبار المزيفة

على الرغم من أن سرداريزاده وغيرهم يواصلون كشف الأخبار المزيفة يوميًا، إلا أن المحتوى المزيف الجديد يظهر بسرعة تفوق قدرة التصدي له، ويبدو واقعيًا لدرجة يصعب على المستخدم العادي تمييزه أثناء تصفح الأخبار.

بعض الأخبار المزيفة المنتشرة على نطاق واسع، واضحة أنها من حسابات موالية لإيران، وتستخدم لأغراض دعائية. لكن الدوافع وراء صناعة المزيد من الأخبار المزيفة غالبًا ما تكون غير واضحة — قد تكون لزيادة المشاهدات، أو النفوذ، أو الأرباح، أو ببساطة لأنها سهلة الإنتاج.

وأشار فريد إلى أن الوضع الحالي يمثل تحديًا كبيرًا: «المحتوى أكثر واقعية، وأكثر عددًا، وأكثر انتشارًا — هذه هي واقعنا الآن، وهو فوضوي جدًا.»

أعلنت منصة X الأسبوع الماضي أنه إذا نشر منشئ محتوى مدفوع صورًا من ساحات القتال لم يُذكر فيها مصدر الذكاء الاصطناعي، فسيتم إيقاف أرباحه لمدة 90 يومًا، وإذا تكرر الأمر، فسيتم حظره بشكل دائم. لكن فريد أعرب عن شكوكه بشأن فعالية تطبيق هذه السياسة، حيث إن الغالبية العظمى من مستخدمي X ليسوا من ضمن برامج الدفع للمبدعين. ولم ترد شركة TikTok أو Meta (المالكة لفيسبوك وإنستغرام) على طلبات التعليق من CNN.

الأمر الأكثر قلقًا هو أن روبوت الدردشة الذكي الخاص بـ X، المعروف باسم Grok، قد تم ذكره عدة مرات من قبل سرداريزاده، وأُتهم بأنه يساهم في نشر المعلومات المضللة — حيث يُبلغ المستخدمين بشكل خاطئ أن العديد من الفيديوهات التي أنشأها الذكاء الاصطناعي حقيقية.

كيف تتجنب الوقوع في فخ الأخبار المزيفة؟

قال فريد بصراحة إن «الطرق التي كانت تُستخدم قبل شهور للتعرف على الصور المزيفة باستخدام الذكاء الاصطناعي، أصبحت الآن تقريبًا غير فعالة. في السابق، كان يمكن ملاحظة عدد أصابع اليد أو نسبة الأطراف، لكن الآن، أصبح الذكاء الاصطناعي يصحح هذه الأخطاء بذكاء.»

واقترح أن الحل الجذري هو الاعتماد على مصادر إخبارية موثوقة، وعدم الاعتماد على حسابات مجهولة على وسائل التواصل الاجتماعي. «في أوقات الصراعات العالمية، وسائل التواصل ليست المكان الذي تحصل منه على المعلومات.»

وللمستخدمين الذين يضطرون إلى تصفح وسائل التواصل بشكل متكرر، ينصح الخبراء بـ:

تبطيء وتيرتك: عند مشاهدة صور أو فيديوهات مثيرة، خذ بضع ثوانٍ للتحقق قبل إعادة نشرها أو تصديقها

ملاحظة التفاصيل: هل الصوت والصورة متزامنان؟ هل ملامح الصورة تتوافق مع البيئة الواقعية؟ لا تزال هناك عيوب في الذكاء الاصطناعي، وبعض المحتوى المولد لا يخلو من علامات مائية

التحقق من مصادر موثوقة: تأكد من وجود تقارير من وسائل إعلام موثوقة أو خبراء متخصصين حول الصورة أو الفيديو

مراقبة التعليقات: أحيانًا يمكن للمستخدمين العاديين تقديم اعتراضات فعالة

استخدام أدوات كشف الذكاء الاصطناعي: رغم أنها ليست مثالية، إلا أنها تظل ذات قيمة مرجعية

المستقبل يثير القلق، والتحديات أكبر

دعا سرداريزاده الجمهور إلى «تدريب أعينهم» على التعرف على علامات المحتوى الذي أنشأه الذكاء الاصطناعي. لكنه اعترف أيضًا: «كشف المحتوى الذي أنشأه الذكاء الاصطناعي أصبح صعبًا جدًا، والاتجاه يشير إلى أنه سيصبح أكثر صعوبة في المستقبل.»

تحت ضغط التطور المستمر لتقنيات الذكاء الاصطناعي التوليدي، وتراخي الرقابة على المنصات الاجتماعية، تتوسع ساحة الأخبار المزيفة بسرعة غير مسبوقة، وكل مستخدم للهاتف هو في مقدمة هذه المعركة المعلوماتية.

هذه المقالة حول انتشار الصور المزيفة الناتجة عن الذكاء الاصطناعي في سياق الحرب، وكيفية تأثيرها على وسائل التواصل الاجتماعي، نُشرت أولاً على ABMedia.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات