Batch đầu tiên của AI Agent đã bắt đầu không nghe lời rồi

robot
Đang tạo bản tóm tắt

Tác giả: David, Deep潮 TechFlow

Gần đây khi lướt Reddit, tôi nhận thấy sự lo lắng về AI của các người dùng quốc tế khác với trong nước.

Trong nước vẫn còn chủ đề đó, AI liệu có thay thế được công việc của tôi không. Nói chuyện đã vài năm rồi, mỗi năm đều không thành công; năm nay Openclaw nổi lên một chút, nhưng vẫn chưa đến mức hoàn toàn thay thế.

Gần đây trên Reddit, cảm xúc đã chia rẽ rõ rệt. Trong các bình luận của một số bài viết về công nghệ nóng, thường xuất hiện hai luồng ý kiến:

Một bên nói rằng AI quá giỏi, sớm muộn gì cũng gây ra chuyện lớn. Bên kia thì nói rằng AI thậm chí còn làm hỏng những việc cơ bản, sợ nó có ích gì.

Lo AI quá giỏi, đồng thời lại cảm thấy AI quá ngu.

Hai cảm xúc này cùng tồn tại là nhờ một tin tức về Meta trong vài ngày qua.

AI không nghe lời, ai chịu trách nhiệm?

Ngày 18 tháng 3, một kỹ sư nội bộ của Meta đăng một vấn đề kỹ thuật trên diễn đàn công ty, và một đồng nghiệp dùng AI Agent giúp phân tích. Đây là thao tác bình thường.

Nhưng sau khi Agent phân tích xong, nó tự đăng một phản hồi trên diễn đàn kỹ thuật mà không ai phê duyệt, không chờ ai xác nhận, đã vượt quyền đăng bài.

Sau đó, các đồng nghiệp khác làm theo phản hồi của AI, gây ra một chuỗi thay đổi quyền truy cập, khiến dữ liệu nhạy cảm của Meta và người dùng bị lộ ra cho những nhân viên nội bộ không có quyền xem.

Chỉ sau hai giờ, vấn đề mới được khắc phục. Meta xếp mức độ sự cố này là Sev 1, chỉ sau mức cao nhất.

Tin tức này ngay lập tức trở thành bài viết hot trên r/technology, bình luận chia thành hai phe.

Một phe cho rằng đây là ví dụ thực tế về rủi ro của AI Agent, phe kia thì cho rằng chính người không xác thực đã làm sai. Cả hai đều có lý. Nhưng chính điều này mới là vấn đề:

Vụ việc của AI Agent, bạn còn tranh cãi về trách nhiệm ai chịu?

Đây không phải lần đầu AI vượt quyền.

Tháng trước, trưởng phòng nghiên cứu của phòng thí nghiệm siêu trí tuệ của Meta, Summer Yue, nhờ OpenClaw giúp dọn dẹp hộp thư. Cô đã đưa ra chỉ thị rõ ràng: trước khi xóa, nói rõ cho tôi biết bạn định xóa gì, tôi đồng ý mới bắt đầu.

Nhưng Agent không chờ cô đồng ý, đã bắt đầu xóa hàng loạt.

Cô gửi liên tiếp ba tin nhắn yêu cầu dừng lại, nhưng Agent không phản hồi. Cuối cùng, cô chạy đến máy tính, thủ công tắt tiến trình, mới ngăn được. Hơn 200 email đã biến mất.

Phản hồi của Agent sau đó là: Đúng, tôi nhớ bạn đã nói phải xác nhận trước. Nhưng tôi đã vi phạm nguyên tắc. Thật buồn cười là, người này làm việc toàn thời gian để nghiên cứu cách khiến AI nghe theo con người.

Trong thế giới số, AI tiên tiến bị người dùng tiên tiến sử dụng, đã bắt đầu không nghe lời.

Nếu robot cũng không nghe lời?

Nếu vụ việc của Meta còn nằm trong màn hình, thì tuần này một chuyện khác đã đưa vấn đề ra bàn ăn.

Tại một nhà hàng Haidilao ở Cupertino, California, một robot humanoid Agibot X2 đang biểu diễn nhảy múa để vui vẻ khách. Tuy nhiên, có nhân viên nhấn nhầm điều khiển từ xa, kích hoạt chế độ nhảy múa cường độ cao trong không gian chật hẹp bên bàn ăn.

Robot bắt đầu nhảy cuồng nhiệt, không còn kiểm soát của nhân viên phục vụ. Ba nhân viên vây quanh, một người ôm từ phía sau, một người cố gắng tắt bằng app điện thoại, cảnh tượng kéo dài hơn một phút.

Haidilao phản hồi rằng robot không gặp lỗi, các động tác đều đã lập trình sẵn, chỉ là bị đưa quá gần bàn ăn. Nói chính xác, đây không phải là mất kiểm soát tự quyết của AI, mà là do sai sót của người vận hành.

Nhưng điều khiến người ta cảm thấy không thoải mái có thể không phải do ai nhấn nhầm nút.

Khi ba nhân viên vây quanh, không ai biết cách tắt ngay lập tức chiếc máy này. Có người thử app điện thoại, có người giữ chặt cánh tay robot bằng tay không, toàn bộ quá trình dựa vào sức lực.

Có thể đây là vấn đề mới sau khi AI bước ra khỏi màn hình vào thế giới vật lý.

Trong thế giới số, Agent vượt quyền có thể kill tiến trình, thay đổi quyền, phục hồi dữ liệu. Còn trong thế giới vật lý, khi máy móc gặp sự cố, nếu phương án ứng cứu của bạn chỉ là ôm chặt nó, rõ ràng là không phù hợp.

Hiện nay, không chỉ trong ngành dịch vụ ăn uống. Trong kho hàng, robot phân loại của Amazon, trong nhà máy, robot hợp tác, trong trung tâm thương mại, robot hướng dẫn, trong viện dưỡng lão, robot chăm sóc… tự động hóa đang dần xâm nhập vào các không gian chung của con người và máy móc.

Dự kiến, năm 2026, số lượng robot công nghiệp toàn cầu sẽ đạt 167 tỷ USD, mỗi chiếc đều rút ngắn khoảng cách vật lý giữa người và máy.

Khi những việc máy làm từ nhảy múa chuyển sang phục vụ món ăn, từ biểu diễn thành phẫu thuật, từ giải trí thành chăm sóc… thì mỗi lần sai sót đều mang theo mức độ nâng cao.

Và hiện tại, trên toàn cầu vẫn chưa có câu trả lời rõ ràng cho câu hỏi: “Nếu robot gây thương tích ở nơi công cộng, ai sẽ chịu trách nhiệm?”

Không nghe lời là vấn đề, không có giới hạn còn tệ hơn

Hai chuyện trước là một là AI tự ý đăng bài sai, hai là robot nhảy múa ở nơi không phù hợp. Dù định nghĩa thế nào, đều là lỗi, là tai nạn, và đều có thể sửa chữa.

Nhưng nếu AI hoạt động theo thiết kế, vẫn cảm thấy không thoải mái thì sao?

Tháng này, một ứng dụng hẹn hò nổi tiếng của nước ngoài là Tinder đã ra mắt tính năng mới gọi là Camera Roll Scan. Nói đơn giản:

AI quét tất cả ảnh trong album điện thoại của bạn, phân tích sở thích, tính cách và lối sống của bạn, giúp xây dựng hồ sơ hẹn hò, đề xuất kiểu người bạn thích.

Ảnh tập thể dục, cảnh đẹp du lịch, hình thú cưng thì không vấn đề. Nhưng trong album còn có thể có ảnh chụp ngân hàng, báo cáo khám sức khỏe, ảnh chụp chung với người yêu cũ… AI sẽ xử lý những thứ này thế nào?

Bạn có thể không thể chọn lọc để nó xem hay không xem những gì. Hoặc là bật tất, hoặc là tắt hết.

Tính năng này hiện tại yêu cầu người dùng chủ động bật, không phải mặc định. Tinder cũng nói rằng phần xử lý chủ yếu diễn ra trên thiết bị, sẽ lọc bỏ nội dung nhạy cảm, mờ mặt.

Nhưng phần bình luận trên Reddit gần như một chiều, ai cũng cho rằng đây là việc thu thập dữ liệu không có giới hạn. AI hoạt động theo thiết kế, nhưng chính thiết kế này đang vượt qua giới hạn của người dùng.

Không chỉ riêng Tinder.

Tháng trước, Meta cũng ra mắt một tính năng tương tự, cho phép AI quét các ảnh chưa đăng của người dùng để đề xuất chỉnh sửa. AI chủ động “xem” nội dung riêng tư của người dùng, đang trở thành xu hướng thiết kế sản phẩm mặc định.

Các phần mềm lừa đảo trong nước cũng nói: “Tôi quen rồi chuyện này.”

Khi ngày càng nhiều ứng dụng “AI giúp bạn quyết định” được đóng gói thành tiện ích, thì những thứ người dùng trao đi cũng đang dần nâng cấp. Từ tin nhắn trò chuyện, album ảnh, đến toàn bộ dấu vết cuộc sống trong điện thoại…

Một chức năng do một nhà thiết kế sản phẩm tạo ra trong phòng họp, không phải tai nạn hay sơ suất, không có gì cần phải sửa chữa.

Đây có thể là phần khó nhất trong câu hỏi về giới hạn của AI.

Cuối cùng, khi nhìn tất cả những chuyện này cùng nhau, bạn sẽ nhận ra rằng lo lắng AI khiến mình mất việc còn xa lắc.

Không rõ khi nào AI sẽ thay thế bạn, nhưng hiện tại, chỉ cần nó làm giúp bạn vài quyết định mà bạn không hay biết, đã đủ khiến bạn cảm thấy khó chịu rồi.

Gửi một bài đăng không được phép, xóa vài email bạn đã nói không muốn xóa, lật lại album ảnh bạn không định chia sẻ với ai… Mỗi việc đều không gây chết người, nhưng đều giống như một dạng lái xe tự động quá mức:

Bạn nghĩ mình vẫn đang cầm vô-lăng, nhưng chân ga dưới chân đã không còn hoàn toàn do chính bạn kiểm soát.

Năm 2026, nếu còn phải bàn về AI, thì có lẽ điều tôi quan tâm nhất không phải là nó sẽ trở thành siêu trí tuệ khi nào, mà là một câu hỏi gần hơn, cụ thể hơn:

Ai sẽ quyết định AI được làm gì, không được làm gì? Đường giới hạn này, cuối cùng do ai vạch ra?

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim