ميتا خسرت مؤخرًا في دعويين قضائيتين في نيو مكسيكو ولوس أنجلوس، حيث حكمت هيئة المحلفين بأن ميتا كانت على علم بالمخاطر المحتملة لمنتجاتها لكنها فشلت في تنظيمها، مما أثار قلق الخبراء بشأن تفادي صناعة التكنولوجيا للمسؤولية القانونية، مما قد يؤدي إلى تقليص عدد الباحثين الاجتماعيين، وكبح الأبحاث المتعلقة بنماذج الذكاء الاصطناعي وتقييم السلامة النفسية، مما يزيد من مخاطر استخدام المستهلكين.
كشفت إدارة فيسبوك السابقة عن أن الأبحاث الداخلية في فيسبوك تشكل دليلًا قويًا
ميتا، التي كانت تُعرف سابقًا باسم فيسبوك، قامت بتوظيف عدد كبير من علماء الاجتماع على مدى العقد الماضي، لتحليل تأثير الشبكات الاجتماعية على المستخدمين، وذلك لإظهار التزام الشركة بتحمل مخاطر الابتكار. ومع ذلك، تُظهر الأحكام الأخيرة أن هذه الأبحاث، التي كانت تُستخدم في الأصل لتحسين المنتجات أو للترويج، تُستشهد الآن في المحكمة كأدلة على “التحذير المسبق”. أشار براين بولاند، أحد كبار المسؤولين السابقين في ميتا، إلى أن نتائج الأبحاث الداخلية غالبًا ما تتعارض مع الصورة التي تحاول الشركة تشكيلها خارجيًا؛ إذ أظهرت التحقيقات الداخلية أن مستخدمي إنستغرام من المراهقين معرضون بسهولة للتحرش الجنسي، مما يعد دعمًا قويًا لاتهامات المحامين بالإهمال، وتتحول هذه الأبحاث التي كانت تُعتبر مسؤولية اجتماعية للشركة إلى عبء ثقيل في المعارك القانونية.
الخبراء قلقون من أن حذف الشركات للباحثين سيضعف التقييم
منذ أن كشفت فرانسيس هاوغن، مديرة المنتجات السابقة، عن عدد كبير من الوثائق الداخلية في عام 2021، أصبحت السيطرة على الأبحاث الداخلية في ميتا أكثر تشددًا، حيث أكدت الوثائق المسربة أن ميتا كانت على علم بالفعل بالتأثيرات السلبية المحتملة لمنتجاتها، وقد اعتُبر هذا الحدث نقطة تحول في التنظيم العالمي. أشارت منظمة “الأطفال والشاشات” غير الربحية إلى أن العديد من شركات التكنولوجيا بدأت في تعديل استراتيجياتها لتجنب المخاطر القانونية، من خلال حذف الأبحاث التي قد تكون ضارة للشركة. وفقًا للتقارير ذات الصلة، بدأت ميتا وغيرها من عمالقة التكنولوجيا في تقليص حجم فرق البحث، بل وإزالة أدوات البيانات المتاحة للباحثين الخارجيين. يشعر الخبراء بالقلق من أنه إذا استمرت الشركات في اعتبار الأبحاث المتعلقة بالسلامة عبئًا، فإن ذلك سيضعف قدرتها على التقييم العادل.
نقص الأبحاث حول أمان الذكاء الاصطناعي يشكل تهديدًا للصحة النفسية
على الرغم من أن شركات مثل OpenAI وGoogle وميتا تستثمر موارد ضخمة في أبحاث النماذج، إلا أن هناك فجوة في الأبحاث المتعلقة بتأثيرها على نفسية المستهلكين. أشارت كيت بلوكر إلى أن تطوير الذكاء الاصطناعي الحالي يركز بشكل رئيسي على التكنولوجيا، بدلاً من التأثيرات طويلة المدى على تطوير نفسية الأطفال والمراهقين من خلال روبوتات الدردشة أو المساعدين الرقميين. يشعر الخبراء بالقلق من أن الذكاء الاصطناعي قد يتبع نفس المسار الذي سلكته وسائل التواصل الاجتماعي، حيث أن القلق من أن نتائج الأبحاث قد تصبح أدلة ضارة في المحكمة قد يؤدي إلى استبعاد الباحثين، مما قد يؤدي إلى نقص في الوعي بمخاطر الذكاء الاصطناعي المحتملة على الجمهور، مما يتسبب في أضرار جسدية ونفسية.
ظهرت هذه المقالة “خسارة ميتا قد تسارع تقليص الأبحاث النفسية الاجتماعية في صناعة التكنولوجيا، مما يزيد المخاطر على المستهلكين” لأول مرة في “Chain News ABMedia”.