Facebook dành 13% trong ngân sách dành riêng cho phát triển các thuật toán phát hiện tin sai tại các khu vực bên ngoài nước Mỹ - Ảnh: GETTY IMAGES
Theo trang Arstechnica, Facebook đang đối mặt cuộc khủng hoảng lớn nhất của họ kể từ sau bê bối rò rỉ dữ liệu người dùng của Công ty Cambirdge Analytica trước đây.
Một lượng tài liệu "khủng" đã được cô Frances Haugen - cựu nhân viên Facebook - tiết lộ cho các nhà quản lý Mỹ và giới lập pháp nước này. Chưa kể, một loạt cơ quan truyền thông báo chí lớn như Wall Street Journal, Financial Times, Washington Post cũng đã nhận được các tài liệu này.
Bê bối liên quan tới Facebook tiếp tục lún sâu khi đã có ít nhất 2 cựu nhân viên khác, một người giấu tên và một người là cô Sophie Zhang, đã lên tiếng tố cáo mạng xã hội này với những cáo buộc tương đồng như cô Frances Haugen.
Các tài liệu nội bộ bị rò rỉ đã tiết lộ những cáo buộc chính gây sốc nhất về Facebook như sau:
1, Facebook có vấn đề lớn về ngôn ngữ
Mạng xã hội lớn nhất này thường bị cáo buộc đã không kiểm soát các nội dung thù hận trên các trang dùng tiếng Anh, và vấn đề này còn tệ hơn ở những nước nói ngôn ngữ khác.
Một tài liệu năm 2021 đã cảnh báo về số người kiểm soát nội dung bằng tiếng Ả Rập rất thấp trên nền tảng này tại Saudi Arabia, Yemen và Libya.
Một nghiên cứu khác tại Afghanistan (nơi Facebook có khoảng 5 triệu tài khoản người dùng) cũng nhận thấy ngay cả những trang giải thích cách báo cáo nội dung vi phạm chính sách của Facebook cũng đã bị dịch sai.
Theo một tài liệu khác, trong tổng ngân sách dành cho phát triển các thuật toán phát hiện tin giả của năm 2020, Facebook chi 87% cho hoạt động này tại Mỹ và 13% cho các nước còn lại ngoài Mỹ.
Một quảng cáo có nội dung chính trị trên Facebook - Ảnh: ARSTECHNIA
2, Facebook thường không hiểu các thuật toán của họ hoạt động thế nào
Nhiều tài liệu cho thấy nhiều khi Facebook cũng không hiểu được chính các thuật toán của họ.
Một biên bản ghi nhớ vào tháng 9-2019 nhận thấy nam giới được xem các "post" có nội dung chính trị nhiều hơn 64% so với phụ nữ tại "gần như mọi quốc gia", và tình trạng này đặc biệt phổ biến tại các nước châu Phi và châu Á.
Mặc dù nam giới thường có xu hướng theo dõi các tài khoản cung cấp nội dung chính trị, nhưng bản ghi nhớ đó cũng nói chính thuật toán hiển thị nội dung trên bảng tin của Facebook cũng góp phần đáng kể tạo ra thực tế đó.
Một biên bản ghi nhớ khác vào tháng 6-2020 cũng cho thấy các hệ thống chính của Facebook có sự thiên vị mang tính hệ thống về chủng tộc của người dùng.
Điều này cho thấy có lẽ việc hiển thị nội dung trên bảng cấp tin bị ảnh hưởng bởi những người thường xuyên chia sẻ nhiều hơn so với những người ít chia sẻ thông tin hay có hoạt động tương tác với mạng xã hội này. Điều này cũng có liên quan tới chủng tộc người dùng. Theo đó, các nội dung do một vài nhóm chủng tộc cụ thể được ưu tiên hiển thị hơn những nhóm khác.
3, Khi công cụ AI của Facebook thất bại, nền tảng này khiến việc báo cáo nội dung thù hận khó thực hiện hơn
Từ lâu Facebook tuyên bố các chương trình trí tuệ nhân tạo (AI) của họ có thể phát hiện và gỡ bỏ nội dung thù hận, xúc phạm người khác, nhưng các tài liệu rò rỉ cho thấy nhiều điểm hạn chế của hệ thống này.
Theo một ghi chú vào tháng 3-2021 của một nhóm các nhà nghiên cứu, công ty này chỉ xử lý được 3-5% nội dung thù hận và 0,6% nội dung bạo lực.
Một bản ghi nhớ khác cho thấy họ chưa bao giờ có thể xử lý được 10-20% vì việc để AI có thể hiểu được ngữ cảnh sử dụng ngôn ngữ và phát hiện nội dung vi phạm chính sách là điều "vô cùng khó khăn".
Tuy nhiên, Facebook đã quy định sẽ trông cậy vào AI nhiều hơn và giảm bớt số tiền chi cho số nhân sự con người kiểm duyệt nội dung thù hận vào năm 2019. Cụ thể, công ty này khiến cho việc báo cáo và khiếu nại về những quyết định liên quan tới tranh cãi về nội dung thù hận khó thực hiện hơn.
Facebook từ chối bình luận với một số cáo buộc cụ thể, nhưng khẳng định họ không đặt lợi nhuận lên sự an toàn và hạnh phúc của mọi người. "Sự thật là chúng tôi đã đầu tư 13 tỉ USD và có hơn 40.000 người đang chỉ làm một việc: giữ an toàn cho mọi người trên Facebook".
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận