Robot chiến đấu Uran-9 của Nga - Ảnh: Rosoboronexport |
Phát biểu trên Đài BBC, giáo sư Stephen Hawking nhận định khả năng một thảm họa diệt vong xảy ra đối với hành tinh chúng ta trong khoảng 1.000 đến 10.000 năm tới là “gần như chắc chắn”.
Những nguy cơ được ông hoàng vật lý nêu ra gồm có chiến tranh hạt nhân, sự nóng lên toàn cầu, virút biến đổi gen...
Theo giáo sư Hawking, khoa học - công nghệ theo cách nào đó là một canh bạc, nó giúp cải thiện cuộc sống hàng tỉ người nhưng bên cạnh đó cũng mở ra những con đường dẫn tới sự diệt vong của nhân loại.
Con người vẫn làm ngơ
Có thể việc một nhà khoa học nổi tiếng như giáo sư Stephen Hawking đưa ra lời cảnh báo không mấy sáng sủa về khoa học nghe hơi trớ trêu, nhưng có lẽ chính các chuyên gia như ông Hawking mới giữ được vai trò “gác cửa” công nghệ giúp chúng ta, những người hầu như không có ý thức gì về những gì đang xảy ra trong thế giới khoa học.
Trong thời gian qua, một trong những mối quan tâm của giáo sư Hawking cùng nhiều nhà khoa học danh tiếng khác chính là trí thông minh nhân tạo và vũ khí tự động. Các lĩnh vực này đang có những bước đột phá lớn và được dự báo sẽ ảnh hưởng đến cân bằng sức mạnh quân sự trong tương lai.
Trong lá thư ngỏ hồi tháng 7-2015, có đến 1.000 nhà khoa học, chuyên gia, doanh nhân, trong đó có các lãnh đạo tập đoàn Apple, Skype... đã cảnh báo khả năng triển khai những loại vũ khí như vậy hoàn toàn có thể trong vài năm tới và nguy cơ là rất lớn: vũ khí tự động được cho là bước tiến hóa thứ ba của chiến tranh sau thuốc súng và vũ khí hạt nhân.
Trong bài phỏng vấn trên trang Though Economics, Jaan Tallinn - nhà đồng sáng lập Tập đoàn Skype và Trung tâm Cambridge nghiên cứu rủi ro hiện sinh - chia trí thông minh nhân tạo ra làm hai loại: “dưới con người”, trong đó gồm các công nghệ như vũ khí tự động, và “trên con người”, tức trí thông minh vượt bậc chúng ta.
Trong cùng bài phỏng vấn, Crispin Tickell, cựu chuyên gia ngoại giao và cố vấn cho nhiều đời thủ tướng Anh, khẳng định nguy cơ thật sự đối với nhân loại không đến từ việc cố tình dùng sai công nghệ mà từ sự vô tình, không ý thức của chúng ta.
“Khoa học không đơn giản, phát minh khoa học lại càng khó hơn. Hầu hết các nhà khoa học tránh nghĩ đến những hậu quả tiêu cực trong công việc của họ”, chuyên gia Tickell nhận xét.
Robot hủy diệt
Trên thực tế không phải không có những dấu hiệu khiến các nhà khoa học hàng đầu lưu tâm và chúng đáng sợ như các kịch bản phim giả tưởng của Hollywood về trí thông minh nhân tạo, về robot thông minh như người và biết cầm súng chiến đấu.
Hôm 18-1, bộ phận truyền thông của Tập đoàn xuất khẩu quốc phòng Rosoboronexport của Nga thông báo đã bắt đầu tiếp thị hệ thống người máy (robot) chiến đấu đa năng Uran-9. Theo đó, Uran-9 được thiết kế để trinh sát từ xa và yểm trợ hỏa lực, gồm hai robot trinh sát và yểm trợ hỏa lực, một máy kéo để vận chuyển và trạm điều khiển di động.
Vũ khí trang bị cho Uran-9 gồm pháo tự động cỡ nòng 30mm, súng máy đồng trục cỡ nòng 7,62mm và tên lửa chống tăng dẫn đường Ataka. Tuy nhiên, thành phần vũ khí có thể thay đổi tùy thuộc yêu cầu của khách hàng.
Theo đánh giá của giới chuyên gia, robot quân sự nói trên của Nga đặc biệt hữu ích trong các chiến dịch quân sự cục bộ và chống khủng bố, kể cả trong các khu dân cư. Robot này sẽ góp phần giảm đáng kể tổn thất về người.
Mà không chỉ có Nga, nhiều nước lớn khác cũng công khai hoặc âm thầm nghiên cứu các loại robot chiến trường nhằm giảm tổn thất nhân lực. Vấn đề là liệu con người có đủ sức kiểm soát được các loại “người máy cầm súng” đó, một khi lĩnh vực trí thông minh nhân tạo có bước đột phá để đưa vào đầu các robot trí thông minh khiến chúng có thể nổi loạn?
Theo báo Christian Science Monitor, những cảnh báo của chuyên gia về cách con người “tự hủy diệt” đã có từ hàng thập kỷ nếu không muốn nói hàng thế kỷ nay.
Trong quyển Ảnh hưởng của con người trên trái đất năm 1996, nhà địa lý William B. Meyer viết: “Con người đã trở thành một lực lượng mạnh như bất cứ sức mạnh tự nhiên nào trong sinh quyển, quyền lực hơn một số khác và đôi khi cũng vô tri vô giác như ai”. “Thiên nhiên vẫn chưa hoàn thành công cuộc xây dựng (hay hủy diệt) của mình nhưng loài người gần đây đã trỗi dậy như một kẻ cạnh tranh mạnh”, ông kết luận.
Hiện nay đã có nhiều nhà khoa học ý thức về sự nguy hiểm này. Nhiều tổ chức, trung tâm nghiên cứu được thành lập chỉ để đối phó, dự báo những nguy cơ do chính con người tạo ra.
Có thể kể đến tổ chức Tương lai sự sống (tỉ phú Elon Musk, người sáng lập Tập đoàn Tesla, tài trợ), Viện Nghiên cứu nguy cơ toàn cầu, Viện tương lai nhân loại thuộc ĐH Oxford, Trung tâm nghiên cứu rủi ro hiện sinh thuộc ĐH Cambridge...
“Hầu hết các nhà khoa học đều tìm cách tránh nghĩ đến những hậu quả tiêu cực trong công việc của họ |
Chuyên gia Crispin Tickell |
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận