TikTok nói gỡ 97% nội dung độc hại, nhưng video AI khiêu dâm trẻ em vẫn hút triệu lượt thích

TikTok khẳng định đã gỡ 97% nội dung vi phạm bằng AI, song báo cáo mới cho thấy video AI khiêu dâm trẻ em vẫn lan truyền trên nền tảng này.

TikTok nói gỡ 97% nội dung độc hại, nhưng video AI khiêu dâm trẻ em vẫn hút triệu lượt thích - Ảnh 1.

TikTok tự hào tuyên bố rằng họ đã chủ động loại bỏ 97% nội dung vi phạm bằng AI

TikTok, một trong những không gian kỹ thuật số có tầm ảnh hưởng lớn nhất đối với giới trẻ toàn cầu, đang đối mặt với cuộc khủng hoảng kiểm duyệt nghiêm trọng liên quan đến nội dung do trí tuệ nhân tạo (AI) tạo ra.

Nền tảng này luôn khẳng định ưu tiên an toàn của người dùng, đặc biệt là trẻ em, với tuyên bố rằng 97% nội dung vi phạm liên quan các chính sách về AI đã được loại bỏ, bao gồm cả những hình ảnh tình dục hóa người trẻ. 

Tuy nhiên, một báo cáo chấn động từ tổ chức phi lợi nhuận Maldita.es đã phơi bày một lỗ hổng nghiêm trọng trong hệ thống kiểm duyệt, cho thấy hàng triệu lượt thích (likes) liên quan đến nội dung lạm dụng tình dục trẻ em do AI tạo ra (AI CSAM) vẫn tồn tại công khai trên nền tảng.

Thất bại kép và cầu nối nguy hiểm

Theo nghiên cứu của Maldita.es, hơn một chục tài khoản với gần 300.000 người theo dõi đã đăng tải các video AI mô tả trẻ vị thành niên trong trang phục khêu gợi hoặc tư thế gợi dục. Những video này đã thu hút hơn 2 triệu lượt thích, chưa kể số lượt xem.

Khi Maldita.es báo cáo 15 tài khoản và 60 video vi phạm rõ ràng, TikTok ban đầu từ chối hành động đối với hầu hết các trường hợp, khẳng định rằng chúng không vi phạm quy tắc. 

Điều này cho thấy sự thất bại kép của TikTok. Đầu tiên là thất bại của thuật toán: Nếu 97% nội dung vi phạm AI được gỡ bỏ chủ động, tại sao hàng triệu lượt tương tác với video khiêu dâm trẻ em do AI tạo ra vẫn vượt qua được bộ lọc tự động và tồn tại trong thời gian dài? 

Tiếp theo, khi được báo cáo thủ công từ người dùng, các kiểm duyệt viên đã quyết định sai lầm, cho phép video tiếp tục được lan truyền, thậm chí sau khi đã được kháng nghị.

Báo cáo của Maldita.es cũng chỉ ra rằng phần bình luận của những video này thường chứa các liên kết đến các kênh Telegram và trang web riêng tư, nơi quảng cáo và bán nội dung lạm dụng trẻ em.

Đây là một mô hình khai thác nguy hiểm: các tài khoản TikTok sử dụng nội dung AI gợi dục để thu hút lượng lớn người xem quan tâm đến hành vi ấu dâm, sau đó chuyển hướng họ sang các nền tảng ít bị kiểm soát hơn như Telegram để thực hiện giao dịch bất hợp pháp. Điều này biến TikTok trở thành một công cụ tuyển dụng và tiếp thị cho các mạng lưới bóc lột trẻ em.

Lỗ hổng kiểm duyệt AI bằng công nghệ

Công nghệ AI tạo sinh (Generative AI), đặc biệt là các mô hình tạo ảnh và video, đang trở nên tinh vi hơn, cho phép những kẻ xấu tạo ra nội dung vi phạm trông cực kỳ chân thực và khó phân biệt. Đây là một thách thức lớn đối với các công cụ kiểm duyệt dựa trên AI của TikTok.

Nếu các hệ thống AI của TikTok không thể nhận diện được sự tình dục hóa trẻ em trong bối cảnh AI (ví dụ: quần áo, tư thế, biểu cảm), thì tỉ lệ 97% chỉ là một con số vô nghĩa. Nó buộc TikTok phải đầu tư khẩn cấp vào các mô hình phát hiện tiên tiến hơn, có khả năng nắm bắt được sự tinh vi của các nội dung do AI tạo ra, đồng thời tăng cường sự giám sát và đào tạo nhân lực để đảm bảo tính chính xác khi xem xét các báo cáo từ cộng đồng.

Nếu không, TikTok sẽ tiếp tục đối mặt với áp lực pháp lý gia tăng, đặc biệt khi các quốc gia như Úc đang siết chặt luật an toàn trực tuyến cho trẻ vị thành niên.

Tuyên bố loại bỏ 97% AI vi phạm , TikTok vẫn để hàng triệu lượt thích liên quan lạm dụng trẻ em - Ảnh 2.TikTok chuyển sang kiểm duyệt bằng AI, sa thải hàng trăm nhân viên

ByteDance, công ty mẹ của TikTok, đang sa thải loạt nhân viên trong quá trình hướng tới tự động hóa khâu kiểm duyệt nội dung.

Trở thành người đầu tiên tặng sao cho bài viết 0 0 0
Bình luận (0)
thông tin tài khoản
Được quan tâm nhất Mới nhất Tặng sao cho thành viên

    Tuổi Trẻ Online Newsletters

    Đăng ký ngay để nhận gói tin tức mới

    Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất