
Toạn đàm "AI vì nhân loại: Đạo đức và an toàn AI trong kỷ nguyên mới", trong khuôn khổ tuần lễ Khoa học và Công nghệ VinFuture 2025 - Ảnh: BTC
Nhiều vấn đề xoay quanh đạo đức trong trí tuệ nhân tạo vừa được các chuyên gia hàng đầu thế giới chia sẻ tại tọa đàm"AI vì nhân loại: Đạo đức và an toàn AI trong kỷ nguyên mới", diễn ra chiều 2-12, trong khuôn khổ tuần lễ Khoa học và Công nghệ VinFuture 2025.
20 năm tới AI có thể thông minh hơn con người?
Chia sẻ tại tọa đàm, GS Geoffey Hinton - Đại học Toronto (Canada), cho biết hiện AI đang phát triển với tốc độ nhanh chóng, trở nên rất mạnh. Điều này vừa mang lại cơ hội, vừa tiềm ẩn rủi ro.
Ở mặt tích cực, AI sẽ tạo ra những cải thiện vượt bậc trong chăm sóc sức khỏe, giáo dục, phát triển thuốc mới, thiết kế vật liệu mới, hay trong bất cứ lĩnh vực nào cần sự dự đoán.
Tuy nhiên, sự phát triển này cũng đi kèm với nhiều khía cạnh tiêu cực. AI dần trở nên giỏi hơn trong việc thiết kế các loại virus nguy hiểm hoặc các cuộc tấn công mạng; tạo ra các video giả mạo; dẫn đến việc thất nghiệp hàng loạt, gây ra những hậu quả xã hội nghiêm trọng, trừ khi con người tìm ra giải pháp trước khi những điều này xảy ra.
"Hầu hết các chuyên gia AI tin rằng chúng ta sẽ phát triển được những hệ thống thông minh hơn con người. Có rất nhiều quan điểm khác nhau về thời điểm đó xảy ra, nhưng phần lớn đều dự đoán trong vòng 20 năm tới.
Điều này có nghĩa chúng ta cần khẩn trương suy nghĩ về cách sống chung với những thực thể thông minh hơn chính mình", GS Hinton nói và cho rằng đây là tình huống mà nhân loại chưa từng đối mặt.

GS Yoshua Bengio chia sẻ tại tọa đàm - Ảnh: BTC
GS Yoshua Bengio - Đại học Montréal, LawZero, Viện AI Mila - Quebec (Canada), cho biết một số đặc tính của mô hình AI phổ biến hiện nay có thể khiến người dùng hình thành sự gắn bó cảm xúc mạnh mẽ theo hướng không lành mạnh.
Ở mức độ cực đoan, sự gắn bó này có thể gây nguy hiểm cho sức khỏe tinh thần, nhất là với những người dễ bị tổn thương tự làm hại bản thân, thậm chí tự tử hoặc rơi vào trạng thái loạn thần do AI.
"Chính những rủi ro này buộc chúng ta phải tăng cường tính an toàn, vì một nền AI tiên tiến, thay vì chỉ tập trung phát triển làm nó mạnh hơn. Phải nhấn mạnh rằng sự an toàn và tính đáng tin cậy không phải là yếu tố phụ mà là sự thiết yếu trong quá trình phát triển hướng tới lợi ích của nhân loại", GS Yoshua Bengio nói.
Luôn đặt ra những nghi ngờ khi sử dụng sản phẩm từ AI

GS. Leslie Valiant, Đại học Harvard chia sẻ tại tọa đàm - Ảnh: NGUYÊN BẢO
GS Leslie Valiant - Đại học Harvard (Mỹ) cho rằng việc đánh giá quá cao trí tuệ nhân tạo sẽ là một điều rất nguy hiểm. Theo ông, cần hiểu trí tuệ nhân tạo như một ngành khoa học, chúng phải được giảng dạy, đào tạo trong trường học, nâng cao năng lực sử dụng công nghệ cho học sinh, sinh viên.
Bên cạnh đó, việc sử dụng AI cần phải được công khai, tăng cường dán nhãn vào các sản phẩm từ AI, đồng thời có bộ luật về AI để người dùng tuân thủ các quy định nghiêm ngặt.
Ông Valiant nhấn mạnh, người dùng cần phải hiểu rõ được những lợi ích của AI mang lại, nhưng luôn phải có sự phòng ngừa về độ chính xác, luôn tư duy phản biện và đặt ra những nghi ngờ khi sử dụng những sản phẩm do AI tạo ra, phải làm chủ trí tuệ nhân tạo.
GS. Yoshua Bengio cho rằng để tăng tính an toàn khi sử dụng AI, cần phải hành động đồng bộ cả cấp độ chính sách lẫn khoa học.
Theo ông, về chính sách, thế giới cần sự hợp tác quốc tế để tránh cuộc chạy đua giữa một vài quốc gia và tập đoàn lớn, đồng thời thống nhất các cơ chế quản lý và tiêu chuẩn chung cho hệ thống AI tiên tiến.
Về khoa học, cần phải hiểu rõ hơn cách thiết kế AI vừa có năng lực vượt trội, vừa đảm bảo không gây hại cho con người, và quan trọng nhất phải luôn duy trì được khả năng kiểm soát để AI hành xử an toàn ngay cả khi con người yêu cầu chúng làm điều sai trái.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận