Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
AI đã đọc 《1984》, quyết định cấm nó
Tác giả: Curi, Shenchao TechFlow
Tuần trước, một trường trung học ở Manchester, Anh, đã dùng AI để kiểm tra thư viện của mình.
AI đã lập danh sách 193 cuốn sách bị thu hồi, mỗi cuốn đều có lý do. Cuốn “1984” của George Orwell rõ ràng nằm trong danh sách, lý do là “có chủ đề tra tấn, bạo lực và ép buộc tình dục”.
“1984” viết về một thế giới mà chính phủ giám sát mọi thứ, viết lại lịch sử, quyết định công dân có thể xem gì và không thể xem gì. Bây giờ, AI đã làm điều tương tự cho một trường học, và nó có thể hoàn toàn không biết mình đang nói gì.
Thủ thư của trường đã cảm thấy điều này không hợp lý và từ chối thực hiện tất cả các gợi ý mà AI đưa ra.
Trường ngay lập tức tiến hành điều tra nội bộ với lý do “an toàn cho trẻ em”, buộc tội cô đã đưa những cuốn sách không phù hợp vào thư viện, và báo cáo lên chính quyền địa phương. Cô đã nghỉ bệnh do áp lực và cuối cùng từ chức.
Thật vô lý, kết luận điều tra của chính quyền địa phương xác nhận rằng cô đã vi phạm quy trình an toàn cho trẻ em, và khiếu nại đã được chấp nhận.
Chủ tịch Hiệp hội Thư viện Trường học Anh, Caroline Roche, cho biết kết luận này có nghĩa là cô sẽ không bao giờ có thể làm việc ở bất kỳ trường nào nữa.
Những người chống lại phán quyết của AI đã mất việc, trong khi những người ký đồng ý với phán quyết của AI thì không gặp vấn đề gì.
Sau đó, trường đã thừa nhận trong tài liệu nội bộ rằng tất cả các phân loại và lý do đều được AI tạo ra, nguyên văn là: “Mặc dù phân loại do AI tạo ra, nhưng chúng tôi cho rằng phân loại này khá chính xác.”
Một trường học đã giao phó việc “cuốn sách nào phù hợp để học sinh đọc” cho AI, AI đã trả lại một câu trả lời mà chính nó cũng không hiểu, và sau đó một nhà quản lý con người đã không xem xét kỹ lưỡng đã đóng dấu phê duyệt.
Sau khi vụ việc được tổ chức tự do ngôn luận của Anh, Index on Censorship, phanh phui, các vấn đề phát sinh không chỉ dừng lại ở kệ sách của một trường học:
Khi AI bắt đầu quyết định cho con người nội dung nào là phù hợp, nội dung nào là nguy hiểm, ai sẽ đánh giá rằng phán quyết của AI là đúng?
Wikipedia đóng cửa với AI
Cùng tuần đó, một tổ chức khác đã hành động để trả lời câu hỏi này.
Trường đã để AI quyết định người có thể đọc gì. Trang bách khoa trực tuyến lớn nhất thế giới, Wikipedia, đã có lựa chọn ngược lại: không để AI quyết định viết gì trong bách khoa.
Cùng tuần đó, Wikipedia tiếng Anh đã chính thức thông qua một chính sách mới, cấm việc sử dụng mô hình ngôn ngữ lớn để tạo ra hoặc viết lại nội dung bài viết. Kết quả bỏ phiếu là 44 phiếu ủng hộ, 2 phiếu chống.
Nguyên nhân trực tiếp là một tài khoản AI có tên TomWikiAssist. Vào đầu tháng 3 năm nay, tài khoản này đã tự tạo và chỉnh sửa nhiều bài viết trên Wikipedia, và sau khi bị cộng đồng phát hiện, đã được xử lý khẩn cấp.
AI viết một bài chỉ mất vài giây, nhưng tình nguyện viên lại mất hàng giờ để xác minh thực tế, nguồn gốc và cách diễn đạt trong một bài viết do AI tạo ra.
Cộng đồng biên tập của Wikipedia chỉ có số lượng người nhất định. Nếu AI có thể sản xuất nội dung vô hạn, các biên tập viên con người không thể kiểm soát kịp.
Đó chưa phải là phần rắc rối nhất. Wikipedia là một trong những nguồn dữ liệu huấn luyện quan trọng nhất cho các mô hình AI toàn cầu. AI học kiến thức từ Wikipedia, sau đó sử dụng những gì đã học để viết các bài viết mới trên Wikipedia, và các bài viết mới lại được các mô hình AI thế hệ tiếp theo dùng để huấn luyện.
Một khi thông tin sai do AI tạo ra bị xáo trộn vào, nó sẽ khuếch đại liên tục trong chu trình này, trở thành một kiểu đầu độc AI theo cách “matryoshka”:
AI ô nhiễm dữ liệu huấn luyện, dữ liệu huấn luyện lại ô nhiễm AI.
Tuy nhiên, chính sách của Wikipedia cũng để lại hai lỗ hổng cho AI, biên tập viên có thể sử dụng AI để chỉnh sửa văn bản của chính họ, hoặc sử dụng AI hỗ trợ dịch thuật. Nhưng chính sách đặc biệt cảnh báo rằng, AI có thể “vượt quá yêu cầu của bạn, thay đổi ý nghĩa của văn bản, làm cho nó không khớp với nguồn tham khảo”.
Con người viết có thể sai sót, Wikipedia đã dựa vào sự hợp tác của cộng đồng trong hơn hai mươi năm để sửa chữa. Cách mà AI mắc lỗi lại khác, những gì nó tạo ra trông còn giống thật hơn cả sự thật, và có thể được sản xuất hàng loạt.
Một trường học tin tưởng vào phán quyết của AI, kết quả là đã mất một thủ thư. Wikipedia chọn không tin tưởng, trực tiếp đóng cửa.
Nhưng nếu ngay cả những người tạo ra AI cũng bắt đầu không tin tưởng thì sao?
Những người tạo ra AI, họ cũng sợ hãi trước tiên
Các tổ chức bên ngoài đang đóng cửa với AI, các công ty AI cũng đang thu hẹp lại.
Cùng tuần đó, OpenAI đã đình chỉ vô thời hạn chế độ “người lớn” của ChatGPT. Tính năng này ban đầu dự kiến ra mắt vào tháng 12 năm ngoái, cho phép người dùng trưởng thành đã qua xác minh độ tuổi trò chuyện tình dục với ChatGPT.
CEO Sam Altman đã dự đoán vào tháng 10 năm ngoái, nguyên văn là sẽ “đối xử với người dùng trưởng thành như đối xử với người lớn”.
Kết quả là sau ba lần trì hoãn, tính năng này đã bị hủy bỏ hoàn toàn.
Theo báo Financial Times của Anh, hội đồng tư vấn sức khỏe nội bộ của OpenAI đã hoàn toàn phản đối tính năng này. Những lo ngại của các cố vấn rất cụ thể: người dùng sẽ phát triển sự phụ thuộc cảm xúc không lành mạnh vào AI, và trẻ vị thành niên sẽ tìm cách vượt qua xác minh độ tuổi.
Một cố vấn đã nói thẳng hơn: nếu không có cải tiến đáng kể, thứ này có thể trở thành một “huấn luyện viên tự sát gợi cảm”.
Tỷ lệ sai sót của hệ thống xác minh độ tuổi vượt quá 10%. Với quy mô 800 triệu người dùng hoạt động hàng tuần của ChatGPT, 10% có nghĩa là hàng triệu người có thể bị phân loại sai.
Chế độ người lớn không phải là sản phẩm duy nhất bị hủy bỏ trong tháng này. Công cụ video AI Sora, tính năng thanh toán tức thì tích hợp trong ChatGPT, cũng đồng loạt bị ngừng. Altman cho biết công ty muốn tập trung vào các lĩnh vực cốt lõi, cắt bỏ “các nhiệm vụ phụ”.
Nhưng OpenAI cũng đang chuẩn bị cho IPO.
Một công ty đang chạy đua để niêm yết, gắt gao cắt bỏ các tính năng có thể gây tranh cãi, hành động này có thể gọi chính xác hơn là không phải là sự tập trung.
Năm tháng trước, Altman còn nói rằng sẽ đối xử với người dùng trưởng thành như đối xử với người lớn, năm tháng sau ông phát hiện rằng công ty của mình vẫn chưa rõ AI có thể cho phép người dùng tiếp xúc với nội dung gì, không thể tiếp xúc với nội dung gì.
Ngay cả những người tạo ra AI cũng không có câu trả lời. Vậy ai sẽ là người vạch ra ranh giới đó?
Khoảng cách không thể theo kịp
Nếu bạn đặt ba sự việc này cùng nhau, rất dễ dàng rút ra một kết luận cốt lõi:
Tốc độ sản xuất nội dung của AI và tốc độ kiểm tra nội dung của con người đã không còn ở cùng một cấp độ.
Lựa chọn của trường học ở Manchester, đặt trong bối cảnh này rất dễ hiểu. Để cho thủ thư đọc hết 193 cuốn sách rồi đưa ra phán quyết, sẽ mất bao lâu? Để cho AI chạy một lượt, chỉ mất vài phút.
Hiệu trưởng đã chọn phương án vài phút đó, bạn nói ông ấy thực sự tin tưởng vào khả năng phán đoán của AI không? Tôi nghĩ nhiều hơn là vì ông ấy không muốn tốn thời gian đó.
Đây là một vấn đề kinh tế. Chi phí sản xuất gần như bằng không, trong khi chi phí kiểm duyệt hoàn toàn do con người gánh chịu.
Vì vậy, mỗi tổ chức bị ảnh hưởng bởi AI, buộc phải đối phó theo cách thô bạo nhất: Wikipedia thì trực tiếp cấm, OpenAI thì cắt bỏ dòng sản phẩm. Không có phương án nào là kết quả của sự suy nghĩ sâu sắc, tất cả đều là kết quả của việc không kịp suy nghĩ rõ ràng, trước tiên là chặn lại rồi tính sau.
“Chặn lại rồi tính sau” đang trở thành chuẩn mực.
Khả năng của AI cứ vài tháng lại được cải tiến một lần, trong khi cuộc thảo luận về nội dung mà AI có thể chạm vào, thậm chí vẫn chưa có một khuôn khổ quốc tế hoàn chỉnh nào. Mỗi tổ chức chỉ quan tâm đến ranh giới trong phạm vi của mình, các ranh giới giữa các tổ chức mâu thuẫn với nhau, cũng không ai phối hợp.
Tốc độ của AI vẫn đang gia tăng. Số lượng người kiểm duyệt sẽ không tăng lên. Khoảng cách này chỉ sẽ ngày càng rộng, cho đến một ngày xảy ra một sự việc nghiêm trọng hơn nhiều so với việc cấm “1984”.
Đến lúc đó nếu còn vạch ranh giới, có thể đã muộn.