Trước đây cựu Giám đốc AI của Tesla và thành viên sáng lập OpenAI Andrej Karpathy đã chia sẻ trên X những phương pháp luận cốt lõi về cách cá nhân ông sử dụng mô hình ngôn ngữ lớn (LLM): giá trị lớn nhất của LLM không phải là giúp bạn “lược bỏ việc viết”, mà là giúp bạn “nâng cấp việc đọc”. Ông đưa ra một quy trình đọc theo ba lớp, định vị LLM như một “bộ khuếch đại đọc”, quan điểm này thách thức nhận thức phổ biến của nhiều người khi xem AI như một bộ tăng tốc viết.
Ba lớp đọc: từ văn bản gốc đến phân tích hậu nghiệm bằng LLM
Quy trình xử lý thông tin mà Karpathy mô tả gồm ba lớp: lớp thứ nhất là đọc chính tài liệu nguyên gốc; lớp thứ hai là để LLM tạo bản tóm tắt nhằm nhanh chóng nắm bắt luận điểm cốt lõi; lớp thứ ba — cũng là lớp quan trọng nhất — là yêu cầu LLM thực hiện “phân tích hậu nghiệm” (meta-analysis), đánh giá trong tài liệu này những quan điểm nào đối với hệ thống kiến thức hiện có của chính mình là “mới mẻ” hoặc “gây bất ngờ”.
Điểm tinh tế của phương pháp này nằm ở chỗ: nó không dùng AI để thay thế phán đoán của con người, mà dùng AI để tối ưu “sự phân bổ sự chú ý” của con người. Khi mỗi ngày cần tiêu hóa một lượng lớn thông tin, việc lọc độ mới mẻ ở lớp thứ ba có thể giúp người đọc tập trung hiệu quả vào nội dung thực sự xứng đáng để đọc sâu.
Vì sao “khuếch đại việc đọc” quan trọng hơn “tăng tốc viết”
Phần lớn người dùng ChatGPT hoặc Claude có các kịch bản chính là tạo ra văn bản — viết thư, viết báo cáo, viết mã code. Quan điểm của Karpathy lại hoàn toàn ngược lại: ông cho rằng giá trị của LLM ở đầu vào (giúp bạn hấp thụ thông tin tốt hơn) lớn hơn nhiều so với giá trị ở đầu ra (giúp bạn tạo ra văn bản nhanh hơn).
Lý do đằng sau là: trong công việc tri thức, chất lượng quyết định phụ thuộc vào chất lượng hấp thụ thông tin. Nếu bạn đọc đúng thứ, hiểu đúng phần then chốt, thì việc tạo ra sản phẩm tự nhiên sẽ theo kịp. Ngược lại, nếu chỉ dùng AI để tăng tốc tạo ra sản phẩm nhưng chất lượng đầu vào không thay đổi, thì tối đa cũng chỉ là “tạo ra nội dung tầm thường nhanh hơn”.
Rủi ro và điểm mù: cần có đủ kiến thức chuyên ngành làm chỗ dựa
Phương pháp này có một giả định tiên đề: người dùng bản thân cần phải có đủ kiến thức chuyên ngành để đánh giá liệu phân tích của LLM có chính xác hay không. Nếu một người hoàn toàn xa lạ với blockchain, yêu cầu LLM đánh giá “độ mới mẻ” của một bài luận DeFi, thì rất có thể họ sẽ bị dẫn dắt bởi bản tóm tắt mà LLM tự tin nhưng sai.
Ngoài ra, cũng có những nhà nghiên cứu có quan điểm khác, cho rằng năng lực viết của LLM mới là sự gia tăng năng suất lớn nhất, còn phần trợ giúp đọc chỉ là thứ yếu. Sự khác biệt giữa hai quan điểm, về bản chất, phản ánh sự khác nhau về mức độ ưu tiên giữa “đầu vào vs. đầu ra” trong các kiểu công việc khác nhau — công việc định hướng nghiên cứu thì cần khuếch đại việc đọc nhiều hơn, còn công việc định hướng thực thi thì cần tăng tốc viết nhiều hơn.
Gợi ý cho người làm công việc tri thức
Khung tư duy của Karpathy mang lại một cách dùng AI thực tiễn cho tất cả những người làm công việc tri thức cần tiêu hóa lượng lớn thông tin: thay vì để AI viết thay bạn, hãy để AI giúp bạn xây dựng một đường dây “kiểm soát chất lượng đầu vào”. Cụ thể có thể là: mỗi ngày dùng LLM quét hơn 20 bài viết trong ngành, để AI đánh dấu những quan điểm nào là mới mẻ, rồi để chính bạn quyết định đâu là phần đáng để đi sâu thành bài báo hoặc tiến hành nghiên cứu. Cách này không làm bạn mất năng lực phán đoán; ngược lại, trong thời đại quá tải thông tin, nó giúp sự chú ý hữu hạn tập trung vào đúng nơi thực sự quan trọng.
Bài viết này về phương pháp đọc ba lớp bằng LLM do Karpathy đề xuất: giá trị lớn nhất của AI không nằm ở việc viết, mà ở việc giúp bạn hiểu thế giới — lần đầu xuất hiện tại Chain News ABMedia.