Thủ tướng New Zealand (trái) thăm một trong những người hỗ trợ các nạn nhân sau vụ xả súng ở Christchurch ngày 20-3 - Ảnh: REUTERS
Trong một bài phát biểu hôm 20-3, năm ngày sau vụ xả súng vào hai đền thờ Hồi giáo ở TP Christchurch làm 50 người thiệt mạng, bà Ardern nhấn mạnh việc mạng xã hội được dùng để lan truyền bạo lực và thông tin kích động bạo lực không phải là vấn đề riêng của New Zealand, mà là "một vấn đề toàn cầu".
Nữ thủ tướng cho rằng thế giới phải hợp thành "một mặt trận thống nhất" để giải quyết rốt ráo vấn đề này.
Cần kiểm soát nội dung độc hại
Trước mắt, Thủ tướng Ardern đã nhận được sự ủng hộ từ trong nước. Tờ Financial Times ngày 21-3 đưa tin một nhóm các nhà đầu tư New Zealand cùng lên tiếng kêu gọi Facebook, Google (sở hữu YouTube) và Twitter có trách nhiệm và hành động mạnh mẽ hơn để giải quyết tình trạng nội dung cực đoan và bạo lực được đưa lên nền tảng của ba hãng công nghệ này.
Nhóm các nhà đầu tư này dự kiến yêu cầu ba công ty cung cấp thêm chi tiết cách họ kiểm soát và kiểm duyệt nội dung, cũng như chất vấn có phải họ chưa đầu tư đúng mức vào việc xây dựng đội ngũ "gác cửa" là con người, thay vì phụ thuộc vào trí tuệ nhân tạo (AI) để tránh để lọt nội dung hay không.
CEO của ba nhà mạng hàng đầu New Zealand (Vodafone NZ, Spark và 2degrees) cũng viết chung một thư ngỏ gửi lãnh đạo Facebook, Twitter và Google, yêu cầu họ tham gia các cuộc đối thoại "cấp doanh nghiệp và chính phủ" về vấn đề kiểm soát nội dung độc hại trên mạng xã hội.
Trong khi đó, Thủ tướng Úc Scott Morrison đề xuất các nhà lãnh đạo nhóm G20 nhân cuộc họp sắp tới tại Nhật cùng thảo luận việc có nên bắt buộc các hãng công nghệ phải ngăn chặn các hành vi bạo lực trên nền tảng của mình và bảo vệ người dùng hay không.
"Tôi đã viết thư cho Thủ tướng Nhật Shinzo Abe, với tư cách là chủ tịch G20, yêu cầu lãnh đạo các nền kinh tế lớn nhất thế giới phải đảm bảo các mạng xã hội có biện pháp tốt nhất để không bị lợi dụng bởi các tay khủng bố" - ông Morrison viết trên Twitter.
Và ngay tại Mỹ, cái nôi của các ông lớn công nghệ, ông Bennie Thompson - chủ tịch Ủy ban An ninh nội địa Hạ viện - cũng đang chờ một lời giải thích từ lãnh đạo các hãng công nghệ. Theo Đài CNBC, ông Thompson viết thư cho CEO Facebook, Twitter, Microsoft và YouTube yêu cầu họ trình bày lý do vì sao đoạn video xả súng ở Christchurch lại tồn tại và lan truyền trên các nền tảng công nghệ này trước Ủy ban An ninh nội địa vào ngày 27-3.
Ông Thompson nhấn mạnh trách nhiệm của các hãng công nghệ là "ngăn việc các video xả súng lan truyền trên nền tảng của quý vị ‘truyền cảm hứng’ cho các hành vi bạo lực tiếp theo".
"Quốc hội sẽ phải cân nhắc các chính sách để đảm bảo nội dung khủng bố hay học thuyết bạo lực và độc hại không thể xuất hiện trên nền tảng của quý vị, nếu quý vị không sẵn sàng giải quyết triệt để vấn đề này" - CNBC trích lời vị chủ tịch trong thư.
Cần bao nhiêu thảm kịch nữa?
Tính năng phát trực tiếp (livestream) của Facebook vẫn thường được dùng để lan truyền các vụ tấn công bạo lực, trong khi YouTube thì đầy các video tuyên truyền khủng bố, đặc biệt từ Nhà nước Hồi giáo tự xưng (IS).
Nhưng cần bao nhiêu thảm kịch kinh hoàng nữa để Facebook, Twitter và YouTube tìm được giải pháp tốt nhất cho việc chặn và xóa nội dung bạo lực, cực đoan trước khi chúng kịp xuất hiện trên nền tảng của mình, khi đây không phải là lần đầu tiên các công ty công nghệ này bị chỉ trích là tiếp tay cho những kẻ khủng bố, máu lạnh?
Vấn đề của các mạng xã hội là họ mang đến công cụ tốt nhất để chia sẻ thông tin, không dừng lại ở chữ viết và hình ảnh mà còn video và phát trực tiếp. Đương nhiên các tính năng này được tạo ra không phải để phục vụ riêng những kẻ cực đoan hay khủng bố, song thật khó để ngăn chúng không bị lợi dụng cho mục đích xấu. Nhà sản xuất dao đâu thể biết người mua sẽ dùng sản phẩm để bổ trái cây hay giết người.
Thủ tướng Ardern có lẽ là nhà lãnh đạo thế giới đầu tiên kêu gọi xem xét vấn đề mạng xã hội "tiếp tay" cho bạo lực một cách nghiêm túc. Bà Ardern quyết liệt là bởi Brenton Tarrant đã thoải mái livestream cảnh hắn ra tay trên Facebook trong 17 phút và không gặp sự can thiệp nào.
Facebook đã thuê hàng ngàn người làm "kiểm soát viên nội dung" - theo dõi và chặn các video, livestream không phù hợp, cũng như tiếp nhận và xử lý tin báo từ người dùng. Nhưng không ai phát hiện và hành động gì trong 17 phút cảnh thảm sát được truyền đi.
Facebook cho biết đã xóa đoạn livestream gốc và hơn 1,5 triệu phiên bản của nó đã được tải lại trên nền tảng này trong vòng 24 giờ kể từ khi Tarrant bắt đầu livestream. Tuy nhiên, đoạn video đã được hơn 4.000 lượt xem và liên tục được sao chép và tải lên các nền tảng khác như YouTube và Twitter.
Trách nhiệm người dùng?
Facebook ngày 19-3 cho biết gần 200 người đã xem trực tiếp cảnh xả súng ở New Zealand nhưng không hề bấm nút "báo vi phạm" để Facebook can thiệp.
Thông báo vi phạm đầu tiên được gửi 12 phút sau khi buổi livestream dài 17 phút kết thúc. Vì sao 200 người đó không làm gì cả? Và vì sao người ta vẫn chia sẻ đoạn video đó bất chấp việc "đưa lên là bị xóa"?
Người dùng mạng xã hội chẳng lẽ không có trách nhiệm gì hay sao? Đây là câu hỏi cần quan tâm trong thời gian chờ các công ty công nghệ cải thiện hệ thống kiểm soát nội dung của mình.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận