Theo báo Financial Times ngày 13-9, Công ty OpenAI thừa nhận mô hình GPT-o1 vừa ra mắt hôm 12-9 tăng "rõ rệt" rủi ro trí tuệ nhân tạo (AI) bị lợi dụng để chế tạo vũ khí sinh học.
Tài liệu giải thích cách vận hành của GPT-o1 được OpenAI công bố khẳng định mô hình mới có "mức rủi ro trung bình" đối với các vấn đề liên quan đến vũ khí hóa học, sinh học, phóng xạ và hạt nhân. Đây là mức rủi ro cao nhất mà OpenAI từng đặt cho những mô hình AI của mình.
Theo OpenAI, điều này đồng nghĩa GPT-o1 có thể "cải thiện rõ rệt" khả năng chế tạo vũ khí sinh học của những chuyên gia muốn lạm dụng chúng.
Bà Mira Murati, giám đốc công nghệ (CTO) của OpenAI, cho biết dù GPT-o1 còn trong giai đoạn dùng thử nhưng năng lực tiên tiến của mô hình này vẫn buộc công ty cực kỳ "cẩn trọng" với lộ trình đưa nó đến công chúng.
Bà Murati còn khẳng định mô hình này đã được kiểm tra kỹ lưỡng bởi nhóm các chuyên gia đa ngành nghề. Những người này được OpenAI thuê để kiểm tra các giới hạn của mô hình do công ty này phát triển.
Quá trình kiểm tra cho thấy mô hình GPT-o1 đáp ứng các tiêu chí về an toàn chung tốt hơn những mô hình tiền nhiệm rất nhiều, bà Murati chia sẻ.
Không dừng ở đó, đại diện OpenAI cũng trấn an bản dùng thử của GPT-o1 "an toàn cho việc triển khai" và không thể tạo ra các rủi ro phức tạp hơn những công nghệ đã được phát triển.
Bất chấp những đảm bảo trên, một bộ phận đông đảo giới khoa học và người quan tâm AI vẫn tỏ ra không mấy lạc quan với hướng phát triển của công nghệ này.
Lo ngại về việc AI phát triển quá nhanh và vượt xa tốc độ xây dựng và phê duyệt những quy định quản lý chúng đang ngày một phổ biến.
Giáo sư Yoshua Bengio, chuyên ngành khoa học máy tính tại Đại học Montreal và là một trong những nhà khoa học hàng đầu về AI trên thế giới, cho biết nếu OpenAI hiện đang gây ra "nguy cơ trung bình" về vũ khí hóa học và sinh học, thì "điều này chỉ càng củng cố thêm tầm quan trọng và sự cấp bách" của các luật lệ, chẳng hạn như dự luật đang được tranh luận sôi nổi tại bang California nhằm quản lý lĩnh vực này.
Nhà khoa học này nhấn mạnh các thiết chế trên đặc biệt cần thiết trong bối cảnh AI ngày càng tiệm cận trình độ trí tuệ nhân tạo phổ quát (AGI), tức có khả năng lý luận ngang con người.
"Các mô hình AI tiên phong càng tiến gần đến AGI, rủi ro sẽ càng tăng nếu không có biện pháp phòng ngừa đàng hoàng. Việc AI cải thiện khả năng lý luận và việc chúng bị dùng để lừa đảo là cực kỳ nguy hiểm", ông Bengio đánh giá.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận