Bên cạnh "Vụ lừa dối của OpenAI": Một ví dụ điển hình về thất bại hệ thống

Viết bài: Trung tâm Nghiên cứu Web 4

Vấn đề triết học lớn nhất không phải là “có thể tin tưởng ai đó hay không”, mà là “làm thế nào để thiết kế một cơ chế khiến niềm tin trở nên không còn cần thiết”. Nếu không, chúng ta đang dùng bộ khung quản trị của thế kỷ 19 để đối phó với một cuộc chơi quyền lực mạnh mẽ nhất của thế kỷ 21.

01 Một báo cáo điều tra khiến chấn động Silicon Valley

Ngày 6 tháng 4 năm 2026, tạp chí The New Yorker đăng một bài điều tra chuyên sâu hoàn thành trong 18 tháng, vạch trần một đoạn chuyện nội bộ trong OpenAI—đến nay vẫn khiến nhiều người trong cuộc còn sợ hãi.

Tư liệu cốt lõi của bài báo là một bản ghi nhớ nội bộ dài bảy mươi trang do cựu nhà khoa học trưởng của OpenAI Ilya Sutskever tổng hợp vào mùa thu năm 2023, cùng hơn hai trăm trang ghi chú cá nhân do đồng sáng lập Anthropic Dario Amodei lưu giữ. Sau khi bài báo được đăng tải, toàn bộ bằng chứng đều hướng đến cùng một kết luận: người đứng đầu OpenAI, Sam Altman, có một mô hình hành vi “lừa dối một cách nhất quán”.

Đây không phải là một mẩu tin đồn công nghệ thông thường. Đây là một câu hỏi có tính hệ thống về việc liệu những người quản lý cấp cao nhất của một trong những công ty công nghệ mạnh nhất trong lịch sử nhân loại có đáng để được tin tưởng hay không.

02 Đây không phải là vấn đề riêng của Altman

Nếu bạn chỉ hiểu sự việc theo góc nhìn đó, thì bạn đã bỏ lỡ câu hỏi thực sự quan trọng.

Truyền thông đại chúng đang đặt câu hỏi: Altman có đáng được tin tưởng không?

Nhưng câu hỏi đáng được đặt ra thực sự là: khi một công nghệ đủ sức thay đổi nền văn minh nhân loại được giao phó cho một bộ “thiết kế thể chế dựa vào tự giác”, thì khủng hoảng không phải là điều bất ngờ, mà là điều tất yếu.

Chúng tôi gọi hiện tượng này là: sự trục trặc mang tính cấu trúc trong quản trị AI.

Không phải vấn đề của riêng Altman. Đây là căn bệnh chung của cả ngành AI.

Niềm tin là một trong những từ xuất hiện với tần suất cao nhất trong lĩnh vực AI. Hầu như mọi công ty AI đều sẽ nói với bạn: hãy tin chúng tôi, chúng tôi đặt an toàn lên hàng đầu, công nghệ của chúng tôi sẽ mang lại lợi ích cho con người. Nhưng cuộc điều tra của The New Yorker lại vạch ra một sự thật phũ phàng: OpenAI chưa bao giờ xây dựng bất kỳ cấu trúc thể chế nào khiến niềm tin trở nên không còn cần thiết.

Quyết định then chốt của tổ chức này do một người đưa ra, hoặc tối đa chỉ là vài người. Không có cơ chế giám sát, kiềm chế từ bên ngoài. Không có cơ chế minh bạch mang tính bắt buộc. Những lời cam kết chỉ là công cụ, không phải ràng buộc.

Trong “Thần thoại về Sisyphus”, Camus viết: “Đánh giá xem cuộc đời có đáng để sống hay không tương đương với việc trả lời câu hỏi căn bản của triết học.” Cũng logic đó áp dụng cho lĩnh vực AI: khi công nghệ đủ sức thay đổi nền văn minh, mà các ràng buộc của thể chế lại mong manh đến vậy, vậy làm sao để xây dựng một hệ thống không cần dựa vào sự liêm chính cá nhân của từng cá nhân?

03 Danh sách những lời cam kết bị phản bội

Cuộc điều tra của The New Yorker liệt kê một danh sách đầy đủ về “những lời cam kết bị phản bội”.

Mục thứ nhất là cuộc đàm phán năm 2019 với Microsoft. Khi đó OpenAI đang chuyển từ một tổ chức phi lợi nhuận sang một thực thể “lợi nhuận có giới hạn”, đồng sáng lập Anthropic Dario Amodei trong lúc đàm phán đã nêu ra điều khoản an toàn cốt lõi “hợp nhất và hỗ trợ”—tức là nếu có công ty khác tiến gần hơn về mặt an toàn tới AGI, thì OpenAI phải ngừng cạnh tranh và sáp nhập vào đối phương. Đây là ngưỡng tối thiểu trong phần tham gia đàm phán của ông. Sau khi hợp đồng được ký kết, Amodei phát hiện Microsoft nắm quyền phủ quyết đối với việc sáp nhập này, khiến điều khoản trở nên vô nghĩa. Khi ông đưa vấn đề ra đối chất trực diện với Altman, ban đầu Altman phủ nhận sự tồn tại của điều khoản đó, cho đến khi Amodei yêu cầu đồng nghiệp làm chứng ngay tại chỗ, Altman mới thừa nhận và biện hộ rằng “không nhớ rõ”. Trong các ghi chú cá nhân, Amodei viết: “80% điều lệ đã bị phản bội.”

Mục thứ hai là lời cam kết về năng lực tính toán năm 2023. OpenAI từng công khai tuyên bố thành lập “nhóm siêu căn chỉnh”, cam kết sẽ đưa 20% năng lực tính toán của công ty vào đó. Nhưng người trong cuộc tiết lộ rằng năng lực tính toán mà nhóm này thực tế nhận được chỉ là 1% đến 2%, và lại dùng những con chip cũ kỹ nhất, kém nhất. Khi người phụ trách Jan Leike phản đối, phản hồi của ban lãnh đạo lạnh lùng và vô cảm: “Cam kết này vốn dĩ chưa bao giờ thực tế.” Lưu ý ở đây cách “chọn lọc ghi nhớ”: cam kết làm 20%, thực tế là 1%-2%, rồi sau đó lại tuyên bố “cam kết không thực tế”. Không phải sai lệch trong triển khai, mà là sự quên lãng mang tính hệ thống.

Đây không phải là vấn đề về đạo đức. Đây là biểu hiện tất yếu của sự thất bại của thể chế. Khi quyền lực tập trung vào tay một người, và người đó có xu hướng vô thức làm suy yếu lực ràng buộc của các cam kết, thì các cam kết chắc chắn sẽ bị quên một cách có hệ thống, bị định nghĩa lại, và bị hợp lý hóa. Đây không phải là khiếm khuyết của riêng Altman, mà là đặc điểm chung của mọi cấu trúc quyền lực tập trung.

04 Vì sao người thổi còi rồi lúc nào cũng thất bại

Trong một bản ghi nhớ gửi ban giám đốc, Ilya Sutskever từng viết một đoạn—đại ý là: bất kỳ ai theo đuổi việc xây dựng một công nghệ có thể thay đổi nền văn minh sẽ gánh lấy trách nhiệm chưa từng có, nhưng cuối cùng, những người ở các vị trí đó thường lại là những người hứng thú với quyền lực.

Ở đây có một nghịch lý sâu sắc: những người cần bị ràng buộc nhất thường lại là những người khao khát được nắm quyền lực nhất. Và thiết kế thể chế hiện tại lại chẳng hề chuẩn bị cho nghịch lý đó.

Khi Ilya quyết định phát tín hiệu cảnh báo từ bên trong, anh không báo cáo lên các cơ quan giám sát bên ngoài vì ngành AI gần như không có giám sát từ bên ngoài; anh cũng không tổ chức việc nhân viên cùng hành động tập thể, bởi anh là một nhà khoa học, không phải một nhà hoạt động. Toàn bộ “đòn bài” của anh chỉ là một tài liệu, và khả năng trong ban giám đốc có những người mang lòng tốt hay không.

Kết quả thì chúng ta đều biết: vào tháng 11 năm 2023, ban giám đốc đúng là đã sa thải Altman, nhưng chỉ sau năm ngày, dưới áp lực gấp ba—vốn, dư luận và lợi ích của nhân viên—ban giám đốc đã hoàn toàn tan rã; Altman trở lại với vị thế vương giả, còn Ilya, người đã cố gắng thổi còi, bị đẩy ra khỏi trung tâm quyền lực.

Đây không chỉ là câu chuyện về việc “Altman quá mạnh”. Đây là câu chuyện về thiết kế thể chế: trong một tổ chức có mức độ tập trung quyền lực rất cao, sự thất bại của cơ chế thổi còi là mang tính cấu trúc, không phải ngẫu nhiên. Lý do rất đơn giản—“đòn bài” của người thổi còi là danh tiếng và triển vọng nghề nghiệp dựa trên việc thông đồng với chủ lao động. Chỉ cần tổ chức lựa chọn phủ nhận, trì hoãn và gạt ra rìa, thì cá nhân gần như không thể cưỡng lại được. Bản chất của cấu trúc tập trung là biến hệ thống khiến tiếng nói bên ngoài khó đi vào, còn tiếng nói bên trong lại khó được khuếch đại.

Cũng câu chuyện tương tự xảy ra với Dario Amodei. Khi ông nhận ra không thể thay đổi từ bên trong văn hóa an toàn của OpenAI, ông đã chọn một con đường khác: rời đi, sáng lập Anthropic, và thực hiện các giá trị của chính mình thông qua chính tổ chức của mình. Đây là một cuộc rút lui đáng tự hào, nhưng không phải chiến thắng của hệ thống—vì nó phụ thuộc vào niềm tin cá nhân của người sáng lập, chứ không dựa vào bất kỳ sự đảm bảo nào từ thể chế.

Vấn đề cốt lõi của quản trị AI không phải là “làm thế nào để nuôi dưỡng thêm những nhà lãnh đạo AI có lương tâm”, mà là “làm thế nào để thiết kế một bộ thể chế vận hành bình thường ngay cả khi người lãnh đạo thiếu lương tâm”.

05 Blockchain không phải là “thuốc vạn năng”, nhưng thiếu mảnh ghép đó thì không thể xong

Tôi đưa ra một nhận định có thể khiến độc giả ngoài vòng blockchain cảm thấy bất ngờ: giá trị cốt lõi của blockchain không phải là phát hành tiền, không phải là đầu cơ Web 3, mà là một đổi mới mô hình mang tính mô thức trong công nghệ quản trị—đó là việc “ngoại hóa niềm tin”.

“Ngoại hóa niềm tin” nghĩa là gì? Các thể chế truyền thống dựa vào “niềm tin vào một tổ chức hoặc một cá nhân”. Còn blockchain lại hoàn toàn khác: chuyển niềm tin từ con người sang quy tắc và mã code. Không phụ thuộc vào bên thứ ba đáng tin cậy, mà dựa vào các quy tắc minh bạch và các bằng chứng có thể xác minh được.

Những khiếm khuyết trong quản trị AI nằm chính ở chỗ nó hoàn toàn thiếu cơ chế niềm tin được ngoại hóa như vậy. Những cam kết của OpenAI do chính OpenAI tự đánh giá việc thực thi. Đây không phải là giám sát, mà là chấm điểm tự thân. Thế giới bên ngoài không thể tự xác minh rằng họ thực sự dùng 20% năng lực tính toán cho nghiên cứu an toàn hay không, cũng không thể tự kiểm chứng quy trình công bố mô hình của họ có thực sự được hội đồng an toàn phê duyệt hay chưa. Tính minh bạch là một lựa chọn, không phải là một yêu cầu mang tính cấu trúc.

Blockchain mang đến một con đường khả dĩ để giải quyết vấn đề này. Không phải nói rằng chỉ cần đưa mô hình AI lên chuỗi là sẽ giải quyết được—vì công nghệ không thể thay thế cho vấn đề thể chế—mà là việc có các cơ chế ghi chép minh bạch và có thể xác minh sẽ khiến hành vi của hệ thống AI trở nên rõ ràng hơn, dễ kiểm toán hơn. Ví dụ, một nhật ký ra quyết định AI dựa trên blockchain có thể khiến mọi lần cập nhật mô hình quan trọng và mọi quyết định phân bổ năng lực tính toán đều được ghi lại trên chuỗi và không thể bị sửa đổi. Việc này không làm cho hệ thống AI trở nên hoàn hảo, nhưng ít nhất sẽ khiến “quên lãng có tính hệ thống đối với cam kết” trở nên khó xảy ra hơn.

Tất nhiên, đây chỉ là một hướng đi, không phải “đũa thần”. Bản thân công nghệ không thể thay thế quản trị. Nhưng trong thời đại mà quản trị AI gần như còn trống rỗng, bất kỳ phương án nào có thể làm quyền lực minh bạch hơn, việc kiềm chế trở nên có cấu trúc hơn, đều đáng được thảo luận nghiêm túc.

06 Một cuộc chất vấn sâu hơn

Bài học thực sự từ khủng hoảng của OpenAI không nằm ở việc Altman là người như thế nào.

Mà nằm ở: khi một công nghệ có thể quyết định hướng đi của nền văn minh nhân loại lại rơi vào một khung thể chế “dựa vào tự giác”, thì rủi ro không đến từ việc công nghệ mất kiểm soát, mà đến từ việc thể chế vận hành thất bại.

Trong lịch sử nhân loại, mỗi cuộc cách mạng công nghệ lớn đều đi kèm với việc cập nhật mô hình quản trị. Năng lượng hạt nhân đã mang lại Cơ quan Năng lượng Nguyên tử Quốc tế và hệ thống không phổ biến vũ khí hạt nhân. Internet mang lại các quy định về bảo vệ dữ liệu và luật quy định an ninh mạng. Bất kỳ công nghệ nào đủ sức thay đổi cấu trúc quyền lực đều buộc con người phải thiết lập một khung thể chế mới để quản lý.

AGI là công nghệ đầu tiên mà loài người vẫn chưa kịp xây dựng một khung quản trị hiệu quả, nhưng lại có thể thay đổi nền văn minh. Khung đó không thể dựa vào đạo đức cá nhân của bất kỳ người sáng lập nào, cũng không thể dựa vào lời hứa tự nguyện của bất kỳ công ty nào. Nó phải là một hệ thống thể chế mang tính cấu trúc, có kiểm soát và có kiềm chế, không phụ thuộc vào sự tự giác của bất kỳ ai.

Và hiện tại chúng ta vẫn chưa có.

Đối với bản ghi nhớ 70 trang của Ilya Sutskever, cuộc điều tra của The New Yorker đã tái hiện phần nội dung cốt lõi: Ilya đã thể hiện rõ ràng quan điểm của mình với ban giám đốc—ông cho rằng Altman không nên trở thành người nắm nút bấm AGI.

Tài liệu này chính là ngòi nổ cho vụ “cung biến” trong OpenAI vào năm 2023 gây chấn động toàn cầu. Ban giám đốc quả thực đã dựa vào đó để đưa ra quyết định sa thải. Nhưng trong suốt năm ngày sau đó, toàn bộ cấu trúc quyền lực của ngành lại đưa ra lựa chọn khác.

Đây không phải là câu chuyện về việc “người tốt chiến thắng kẻ xấu” hay “kẻ xấu chiến thắng người tốt”. Đây là câu chuyện về thể chế. Trong một thể chế tốt, một số hành vi của Altman sẽ bị kiềm chế; trong một thể chế thất bại, ngay cả những người thổi còi thiện chí nhất cũng sẽ bị quyền lực phản công lại.

Loài người đang bước vào một thời đại mà AGI có thể thay đổi nền văn minh. Và những thể chế mà chúng ta dùng để quản lý thời đại đó vẫn dừng lại ở thế kỷ 19.

Đây không phải là thất bại của bất kỳ một cá nhân nào. Đây là một ví dụ điển hình về thất bại kinh điển trong thiết kế thể chế.

Và bài học thực sự không phải là “đừng tin Altman”—mà là phải xây dựng một bộ thể chế để bất kỳ ai cũng có thể bị chất vấn, bị kiềm chế, và không thể thoát khỏi sự ràng buộc minh bạch.

Niềm tin là cần thiết. Nhưng trong thời đại AI, niềm tin vẫn là chưa đủ. Chúng ta cần đến một bộ thể chế khiến niềm tin trở nên không còn cần thiết.

(Bài viết tổng hợp từ cuộc điều tra của The New Yorker ngày 6 tháng 4 năm 2026, tuyên bố chính thức của OpenAI và tài liệu công khai. Dữ liệu tính đến ngày 4 tháng 4 năm 2026.)

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.24KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.29KNgười nắm giữ:2
    0.12%
  • Vốn hóa:$2.25KNgười nắm giữ:0
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.22KNgười nắm giữ:1
    0.00%
  • Ghim