《نيويوركر》 تحقيق معمق وتحليل: لماذا يعتقد فريق OpenAI أن ألتمن غير موثوق به؟

撰文:小饼,深潮 TechFlow

في خريف 2023، جلس كبير علماء OpenAI، Ilya Sutskever، أمام الكمبيوتر وأتمّ وثيقة من 70 صفحة.

جمعت هذه الوثيقة من سجلات رسائل Slack وملفات اتصالات الموارد البشرية ومحاضر اجتماعات داخلية، وكل ذلك من أجل الإجابة عن سؤال واحد: Sam Altman، الذي يُدير ربما أخطر تقنية في تاريخ البشرية—هل يمكن الوثوق به فعلًا أم لا؟

الإجابة التي قدّمها Sutskever كُتبت في السطر الأول من الصفحة الأولى من الملف، وكان عنوان القائمة: “Sam يُظهر نمطًا ثابتًا من السلوك…”

البند الأول: الكذب.

بعد سنتين ونصف من اليوم، نشر الصحفي الاستقصائي Ronan Farrow و Andrew Marantz تقريرًا استقصائيًا طويلًا جدًا في مجلة《The New Yorker》. وقد أجرى مقابلات مع أكثر من 100 شخص من أصحاب الشأن، وحصل على مذكرات داخلية لم تُنشر من قبل، إضافة إلى أكثر من 200 صفحة من الملاحظات الخاصة التي تركها Dario Amodei، مؤسس Anthropic، خلال فترة عمله في OpenAI. القصة التي تتكوّن من هذه الملفات تبدو أكثر بشاعة من “المعركة على النفوذ” التي حدثت في 2023: كيف حوّلت OpenAI—خطوة بخطوة—منظمةً غير ربحية أُنشئت من أجل سلامة البشر إلى آلة تجارية، وبالكاد كل حاجز أمان، كان يُفكّ—واحدةً تلو الأخرى—بيد الشخص نفسه.

كانت خلاصة Amodei في ملاحظاته أكثر مباشرة: “مشكلة OpenAI هي Sam نفسه.”

“الخطيئة الأصلية” لدى OpenAI

لفهم وزن هذا التقرير، يجب أولًا توضيح مدى خصوصية شركة OpenAI.

في عام 2015، قام Altman ومعه مجموعة من نخبة سيليكون فالي بأمر نادر جدًا في تاريخ الأعمال: استخدام منظمة غير ربحية لتطوير التقنية الأقوى—ربما—في تاريخ البشرية. وكانت مسؤوليات مجلس الإدارة مكتوبة بوضوح شديد: الأولوية للسلامة على نجاح الشركة، بل وعلى بقائها. وباختصار: إذا أصبح ذكاء OpenAI اصطناعيًا خطيرًا يومًا ما، فسيكون على مجلس الإدارة واجب إغلاق الشركة يدويًا.

تستند البنية الكاملة إلى فرضية: الشخص الذي يتولى AGI يجب أن يكون شخصًا شديد الصدق.

وماذا لو كانت الرهان خاسرًا؟

القنبلة الأساسية في التقرير هي تلك الوثيقة التي من 70 صفحة. لا يلعب Sutskever لعبة السياسة المكتبية؛ فهو واحد من أبرز علماء الذكاء الاصطناعي في العالم. لكن بحلول عام 2023، بات مقتنعًا أكثر فأكثر بأمر واحد: أن Altman كان يكذب باستمرار على المدراء التنفيذيين وأعضاء مجلس الإدارة.

مثال محدد: في ديسمبر 2022، ضمن Altman في اجتماع مجلس الإدارة أن عدة ميزات في GPT-4 القادمة قد اجتازت بالفعل مراجعات السلامة. طلب عضو مجلس الإدارة Toner الاطلاع على وثائق الموافقة، لكن اتضح أن ميزتين—من بين أكثر الميزات إثارة للجدل—(الضبط الدقيق المخصص للمستخدم ونشر المساعد الشخصي) لم تحصل أصلًا على موافقة لوحة السلامة.

حدث شيء أكثر غرابة في الهند. فقد قام أحد الموظفين بالإبلاغ عن “تلك المخالفة” إلى عضو آخر في مجلس الإدارة: لم تُنجز Microsoft مراجعات السلامة الضرورية، وأطلقت نسخة مبكرة من ChatGPT في الهند قبل موعدها.

سجل Sutskever أيضًا في المذكرة أمرًا آخر: أن Altman قال للمسؤولة السابقة عن التكنولوجيا Mira Murati إن عملية الموافقة على السلامة ليست مهمة كثيرًا، وإن المستشار القانوني العام للشركة قد وافق. ركضت Murati لتؤكد الأمر مع المستشار القانوني، وجاءه رد: “لا أعرف من أين استنتج Sam هذا الانطباع.”

مذكرات خاصة من 200 صفحة لدى Amodei

كانت وثائق Sutskever تبدو مثل لائحة اتهام من المدعي العام. أما مذكرات Amodei التي تزيد على 200 صفحة، فكانت أقرب إلى يوميات كتبها شاهد عيان في مسرح الجريمة.

خلال السنوات التي عمل فيها Amodei كمسؤول عن السلامة في OpenAI، كان يراقب بنفسه كيف يتراجع أداء الشركة خطوة بخطوة تحت ضغط الضغوط التجارية. وقد دوّن في ملاحظاته تفصيلًا محوريًا من صفقة استثمار Microsoft في 2019: لقد كان قد أدخل في النظام الأساسي لـ OpenAI بندًا بعنوان “الدمج والمساعدة” تقريبًا، مفاده أنه إذا اكتشفت شركة أخرى مسارًا أكثر أمانًا نحو AGI، فينبغي لـ OpenAI التوقف عن المنافسة والانتقال لمساعدة تلك الشركة. وكانت هذه هي ضمان السلامة التي ركز عليها أكثر خلال الصفقة بأكملها.

عندما كان توقيع الصفقة يقترب من نهايته، اكتشف Amodei أمرًا: حصلت Microsoft على حق الاعتراض على هذا البند. ماذا يعني ذلك؟ حتى لو وجد يومًا ما منافسٌ مسارًا أفضل، يمكن لـ Microsoft بعبارة واحدة أن تقطع التزام OpenAI بالمساعدة. ظل البند على الورق، لكن منذ يوم توقيع الاتفاق صار بلا قيمة.

غادر Amodei لاحقًا OpenAI وأنشأ Anthropic. إن المنافسة بين الشركتين تقوم أساسًا على اختلاف جذري حول “كيفية تطوير الذكاء الاصطناعي”.

تعهد اختفى بنسبة 20% من القدرة الحاسوبية

في التقرير تفصيل جعل من يقرأه يشعر بالقشعريرة، يتعلق بفريق “المحاذاة الفائقة” في OpenAI.

في منتصف 2023، راسل Altman عبر البريد الإلكتروني طالب دكتوراه في جامعة بيركلي يدرس “المحاذاة الخادعة” (أي أن الذكاء الاصطناعي يتظاهر بالطيبة في الاختبارات، ثم يطبّق طريقته الخاصة بعد النشر). قال إنه قلق جدًا بشأن هذه المسألة، ويبحث في إنشاء جائزة بحثية عالمية بقيمة مليار دولار. كان الطالب متحمسًا للغاية، فأخذ إجازة دراسية وانضم إلى OpenAI.

ثم غيّر Altman رأيه: لم يعد هناك جوائز خارجية؛ بل أنشئت داخل الشركة “فريق محاذاة فائقة”. أعلنت الشركة بصياغة استعراضية أنها ستخصص “20%” من القدرة الحاسوبية الموجودة بالفعل لهذا الفريق، وأن القيمة المحتملة تتجاوز 1 مليار دولار. كانت صياغة الإعلان جادة جدًا، إذ قالت إنه إذا لم يتم حل مشكلة المحاذاة، فقد يؤدي AGI إلى “حرمان البشر من السلطة، وحتى القضاء على البشر”.

Jan Leike الذي عُيّن ليقود هذا الفريق قال لاحقًا للصحفيين إن هذا التعهد نفسه كان أداة فعالة جدًا لـ"الاحتفاظ بالمواهب".

لكن ما الواقع؟ أشخاص أربعة عملوا في هذا الفريق أو كانت لديهم صلة وثيقة به قالوا إن القدرة الحاسوبية التي خُصصت فعليًا لم تكن سوى 1% إلى 2% من إجمالي قدرة الشركة الحاسوبية، وبأجهزة قديمة في الأساس. ثم تم حل الفريق لاحقًا دون إنجاز المهمة.

عندما طلب الصحفي إجراء مقابلة مع أشخاص في OpenAI مسؤولين عن أبحاث “الأمان الوجودي”، كانت ردة فعل علاقات الشركة العامة مخيبة ومضحكة في آن: “ليس شيئًا… موجودًا فعليًا.”

أما Altman نفسه فكان مطمئنًا. فقد قال للصحفي إن “حدسه لا يتوافق كثيرًا مع كثير من الأشياء التقليدية في أمن الذكاء الاصطناعي”، وأن OpenAI ستواصل تنفيذ “مشروعات السلامة، أو على الأقل مشروعات مرتبطة بالسلامة.”

الـ CFO المُقصى و IPO على الأبواب

تقرير《The New Yorker》 كان نصف الأخبار السيئة لهذا اليوم فقط. وفي الوقت نفسه، كشفت The Information عن خبر ضخم آخر: خلاف شديد بين CFO OpenAI، Sarah Friar، و Altman.

قالت Friar لزملاء لها سرًا إنها تعتقد أن OpenAI لم تكن جاهزة بعد للاكتتاب العام هذا العام. ولها سببَان: حجم العمل المطلوب من النواحي الإجرائية والتنظيمية كبير جدًا، والمخاطر المالية التي يجلبها إنفاق 1B دولار على القدرة الحاسوبية خلال 5 سنوات الذي وعد به Altman مرتفعة للغاية. وهي حتى أنها غير متأكدة مما إذا كان نمو إيرادات OpenAI قادرًا على دعم هذه التعهدات.

لكن Altman يريد دفع الاكتتاب العام في الربع الرابع من هذا العام.

والأدهى: لم تعد Friar تقدم تقارير مباشرة إلى Altman. بدءًا من أغسطس 2025، صار تقديمها للتقارير إلى Fidji Simo (الرئيس التنفيذي لأعمال التطبيقات في OpenAI). وقد أخذ Simo إجازة مرضية بسبب حالته الصحية الأسبوع الماضي. انظر إلى هذا المشهد: شركة تدفع للاكتتاب العام، يوجد خلاف جوهري بين الرئيس التنفيذي و CFO، و CFO لا يرفع تقارير إلى الرئيس التنفيذي، بل إن رئيسه الأعلى في إجازة.

حتى كبار التنفيذيين داخل Microsoft لم يعودوا يطيقون الأمر، وقالوا إن Altman “يحرّف الحقائق، وينقض الوعود، ويواصل نسف الاتفاقات التي تم التوصل إليها.” وقال أحد كبار التنفيذيين في Microsoft حتى إن: “أعتقد أن لديه احتمالًا معينًا بأن يُذكر في النهاية كأنه محتال على مستوى Bernie Madoff أو SBF.”

صورة Altman كشخص “ثنائي الوجه”

وصف أحد الأعضاء السابقين في مجلس إدارة OpenAI للصحفيين خصالين يمتلكهما Altman. وهذه الفقرة ربما كانت أقوى وصف للشخصية في كامل التقرير.

قال هذا العضو إن لدى Altman تركيبة نادرة جدًا من الخصائص: فهو يرغب بشدة في كل تواصل وجهاً لوجه في إرضاء الطرف الآخر وأن يكون محبوبًا لديه. وفي الوقت نفسه، لديه نوع من اللا مبالاة أقرب إلى اعتلال نفسي تجاه العواقب التي قد تسببها خداع الآخرين.

أن تجتمع هاتان الخصلتان في شخص واحد أمر نادر للغاية. لكن بالنسبة لمندوبي المبيعات، فإن ذلك هو الموهبة المثالية.

يوجد في التقرير تشبيه جيد: يُشتهر ستيف جوبز بـ"مجال تشويه الواقع"؛ إذ كان قادرًا على جعل العالم يصدق رؤيته. لكن حتى جوبز لم يقل لزبائنه يومًا: “إذا لم تشتري جهاز تشغيل MP3 الخاص بي، فسيُقتل من تحب.”

قال Altman أقوالًا مشابهة، بخصوص الذكاء الاصطناعي.

لماذا تُعد مشكلة أخلاق شخص CEO خطرًا على الجميع

لو كان Altman مجرد CEO لشركة تكنولوجية عادية، لما كانت هذه الاتهامات أكثر من مجرد شائعة تجارية رائعة. لكن OpenAI ليست شركة عادية.

وفقًا لتعريفها، فهي تعمل على تطوير تقنية قد تكون الأقوى في تاريخ البشرية. يمكنها إعادة تشكيل الاقتصاد العالمي وسوق العمل (وقد أصدرت OpenAI للتو ورقة بيضاء عن السياسات الخاصة بمشكلة فقدان الوظائف بسبب الذكاء الاصطناعي)، ويمكن أيضًا استخدامها لصناعة أسلحة بيولوجية واسعة النطاق أو إطلاق هجمات سيبرانية.

لقد أصبحت جميع حواجز الأمان بلا معنى. فقد احتلت مهمة المؤسس غير الربحية المرتبة الثانية أمام سباق IPO. وقد خلص كل من الرئيس العلمي السابق ومسؤول السلامة السابق إلى أن CEO “غير موثوق”. وقارن الشركاء CEO بـ SBF. وفي ظل هذه الظروف، بناءً على أي أساس يقرر هذا CEO بشكل أحادي الوقت المناسب لإصدار نموذج ذكاء اصطناعي قد يغيّر مصير البشرية؟

كتب Gary Marcus (أستاذ الذكاء الاصطناعي في جامعة نيويورك، وناشط طويل الأمد في مجال أمان الذكاء الاصطناعي) بعد قراءته للتقرير جملة واحدة: إذا كان نموذج مستقبلي لـ OpenAI قادرًا على صنع أسلحة بيولوجية واسعة النطاق أو إطلاق هجمات سيبرانية كارثية، فهل أنت فعلًا مرتاح لأن يقرر Altman وحده مسألة نشره أو عدم نشره؟

أما رد OpenAI على《The New Yorker》 فكان مقتضبًا: “تتناول أغلب محتويات هذه المقالة الأحداث التي نُقلت بالفعل سابقًا، عبر تداول ما تم تداوله من خلال أساليب مجهولة وطرائق انتقائية من الحكايات، والمصادر، بطبيعة الحال، تحمل أهدافًا شخصية.”

رد Altman على النحو المعتاد: عدم الرد على الاتهامات المحددة، وعدم نفي حقيقة المذكرات، بل التشكيك في الدوافع فقط.

على جثة مؤسسة غير ربحية، تنمو شجرة لجني الأموال

يمكن صياغة عقد OpenAI خلال عشر سنوات كمسودة قصة على النحو التالي:

مجموعة من المثاليين الذين قلقون بشأن مخاطر الذكاء الاصطناعي أنشؤوا منظمة غير ربحية تقودها الرسالة. وقد حققت المنظمة اختراقات تقنية استثنائية. اجتذبت الاختراقات كميات ضخمة من رأس المال. يحتاج رأس المال إلى عائد. بدأت الرسالة تفقد طريقها. تم حل فريق السلامة. تم تطهير من شككوا في الأمر. تم تحويل البنية غير الربحية إلى كيان يحقق أرباحًا. وكان مجلس الإدارة الذي كان يملك يومًا ما سلطة إغلاق الشركة الآن ممتلئًا بحلفاء الرئيس التنفيذي. وكانت الشركة التي وعدت يومًا ما بتخصيص 20% من القدرة الحاسوبية لحماية سلامة البشر، تقول الآن لموظفي العلاقات العامة إن “ذلك ليس شيئًا موجودًا فعليًا.”

بطل القصة، أكثر من مئة شخص ممن عاشوا التجربة مباشرة، أعطوه الوسم نفسه: “غير مقيدين بالحقيقة.”

وهو الآن يستعد لطرح هذه الشركة للاكتتاب العام، مع تقييم يتجاوز 600B دولار.

تم تجميع معلومات هذه المقالة من تقارير منشورة من عدة وسائل إعلام بما في ذلك《The New Yorker》 و Semafor و Tech Brew و Gizmodo و Business Insider و The Information وغيرها.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.23Kعدد الحائزين:0
    0.00%
  • تثبيت