Согласно мониторингу 1M AI News, в журнале “The Atlantic” опубликованы отрывки из новой книги историка технологий и финансового историка Себастьяна Моллаби “The Infinity Machine”, основанные на непрерывных интервью с 2023 по 2026 год, восстанавливающие эволюцию концепции безопасности ИИ сооснователя Google DeepMind Демиса Хасабиса с момента приобретения Google в 2014 году.
В свои ранние годы Хасабис задумал, чтобы одна научная команда безопасно строила суперразум от имени всего человечества, даже планировал в критические моменты вывести ведущих исследователей в секретное убежище, подобно Манхэттенскому проекту. Один из недавно присоединившихся исследователей вспоминает, как Хасабис в конце собеседования предупредил его быть готовым “в любой момент полететь в секретное место в Марокко”.
Когда Google приобрел DeepMind в 2014 году, Хасабис выдвинул редкое условие: создать независимый внешний надзорный комитет, строго запрещающий военные приложения, и Google не должен был полностью контролировать развертывание технологий. Google согласился. В следующем году он собрал секретную встречу в штаб-квартире Маска в Хоторне, Калифорния, пытаясь объединить потенциальных конкурентов на едином фронте, но это привело к обратному результату: Маск вскоре объединился с Сэмом Альтманом для создания OpenAI.
После этого Хасабис инициировал секретную операцию с кодовым названием “Project Mario”, пытаясь вернуть контроль над управлением от Google, сформировал юридическую команду, получил обещание финансирования в 1 миллиард долларов от соучредителя LinkedIn Рейда Хоффмана и рассматривал возможность отделения DeepMind от Google. Эта борьба продолжалась три года и в конечном итоге потерпела неудачу. Соучредитель Мустафа Сулейман также в 2019 году был вынужден покинуть компанию.
В конце 2022 года, после выхода ChatGPT, Хасабис полностью отказался от высокомерного подхода, сосредоточенного только на полезной науке. Он сказал Моллаби: “Это время войны”, а затем полностью погрузился в конкуренцию с Gemini и ChatGPT. Триллионы долларов хлынули в гонку вооружений ИИ, и ни государственное регулирование, ни корпоративная структура управления не смогли остановить конкуренцию. Философия безопасности Хасабиса также претерпела кардинальные изменения: “Безопасность не в структуре управления, даже если есть управляющий комитет, в критический момент он, скорее всего, не примет правильного решения.” Его новая стратегия заключается в том, чтобы обеспечить себе “место за столом для принятия решений, чтобы иметь возможность участвовать в определении решений, когда возникают проблемы с безопасностью”. Тем временем Google активно продвигает ИИ в американскую оборонную систему, что резко контрастирует с военным запретом, который Хасабис установил в свое время для приобретения.