Một điểm sáng về quy định vừa mới hướng về phía tạo nội dung dựa trên AI. Cơ quan Ofcom của Vương quốc Anh đã bắt đầu một cuộc điều tra chính thức đối với một trong những nền tảng lớn của web vì lo ngại rằng công cụ tạo hình ảnh AI của họ đang bị lạm dụng để tạo ra nội dung tình dục không phù hợp liên quan đến phụ nữ và trẻ em. Đây đánh dấu một khoảnh khắc quan trọng trong cách các cơ quan nhìn nhận việc giám sát AI sinh tạo. Khi các nền tảng mở rộng khả năng AI của mình, căng thẳng giữa đổi mới sáng tạo và bảo vệ ngày càng rõ ràng hơn. Vụ việc này làm nổi bật một thách thức quan trọng mà toàn bộ hệ sinh thái Web3 và crypto theo dõi sát sao: làm thế nào để cân bằng công nghệ tiên tiến với kiểm duyệt nội dung chặt chẽ? Dù thông qua quản trị phi tập trung hay các khung quy định truyền thống, cuộc điều tra này báo hiệu rằng các công cụ AI sẽ phải đối mặt với sự giám sát ngày càng tăng. Đối với bất kỳ ai xây dựng hoặc triển khai các tính năng AI, thông điệp rõ ràng — tuân thủ và các giới hạn đạo đức không còn là tùy chọn nữa.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim