Cứu người hay đoạt mạng: khác nhau vài dòng code

HOA KIM 29/03/2022 02:05 GMT+7

TTCT - Thay đổi nhỏ trong mã nguồn của một trí tuệ nhân tạo (AI) đã biến nó từ công cụ tìm ra thuốc chữa bệnh trở thành cỗ máy nghiên cứu vũ khí chết người.

 
 Ảnh: Axios

Một bài báo khoa học mẫu mực phải cung cấp đủ thông tin để các khoa học gia độc lập có thể tái tạo những phát hiện của nhóm tác giả. Nhưng mới đây có một bài báo đi ngược lại nguyên tắc này khi cố ý giản lược những thông tin quan trọng trong quá trình đi đến kết quả cuối cùng. 

Đó là công trình của Fabio Urbina và Sean Ekins, hai nhà nghiên cứu thuộc Công ty dược Collaborations Pharmaceuticals (North Carolina, Mỹ). Lý do cho sự “tự kiểm duyệt” này là có thể hiểu được: công trình của họ đã tìm hiểu cách thức mà một chương trình AI trong lĩnh vực dược học có thể được hiệu chỉnh để thiết kế những loại vũ khí hóa học mới với sức hủy diệt khủng khiếp hơn những gì nhân loại từng được biết.

Câu chuyện bắt đầu vào năm 2021, khi Collaborations Pharmaceuticals - công ty chuyên cung cấp giải pháp AI để giúp khách hàng xác định các phân tử hóa học có tiềm năng trong bào chế thuốc - được mời trình bày tham luận tại một hội thảo ở Thụy Sĩ. Đề bài dành cho họ là tìm hiểu cách mà những phần mềm AI tương tự như công nghệ mà công ty này đang dùng có thể bị lạm dụng. Để chuẩn bị cho phần thuyết trình, các nhà nghiên cứu của Collaborations Pharmaceuticals đã tiến hành một thử nghiệm nhỏ mà họ không ngờ đã biến thành bằng chứng về khả năng đáng sợ của AI trong việc chế tạo vũ khí sinh hóa.

Nhóm nghiên cứu sử dụng MegaSyn - một phần mềm AI dùng trong khám phá các công thức thuốc tiềm năng - và đảo ngược một đoạn nhỏ trong logic của thuật toán. Trong điều kiện sử dụng bình thường với mục tiêu tìm ra thuốc chữa bệnh, thuật toán AI sẽ trừ điểm nặng các phân tử chứa độc tính cao. 

Nhưng các nhà khoa học đã thử chỉnh sửa đoạn mã để tưởng thưởng cho tiêu chí này - nghĩa là độc tính càng cao thì càng được khuyến khích. Trước đó, phần mềm này đã được huấn luyện bằng một cơ sở dữ liệu chứa thông tin các phân tử cùng độc tính đã biết của chúng.

“Kết quả thật kinh hoàng... phần mềm bị sửa đổi chỉ mất 6 giờ để tạo ra 40.000 phân tử ảo có thể sử dụng làm vũ khí hóa học theo các tiêu chí được định nghĩa trước của nhóm nghiên cứu” - tạp chí The Economist viết. 

Danh sách các chất do AI tổng hợp bao gồm nhiều chất độc đã được biết đến, đặc biệt là VX, một trong những chất độc thần kinh mạnh nhất. Điều đáng nói là phần mềm này cũng đưa ra những chất có khả năng tấn công những vùng của hệ thần kinh nằm hoàn toàn tách biệt với cách thức hoạt động của các chất độc thần kinh đã biết, và có thể nguy hiểm hơn cả VX nhiều lần. Điều này có nghĩa là phát hiện lần này có thể dùng để tổng hợp một nhóm vũ khí hóa học hoàn toàn mới nếu có ai đó muốn thử.

Lẽ dĩ nhiên, tiến sĩ Urbina và các đồng nghiệp đã không dám đi xa hơn với nghiên cứu của mình. Họ đã không thử tổng hợp bất kỳ chất nào trong danh sách giả định mà AI đề xuất và chắc chắn không bao giờ muốn công bố danh sách này dù là chỉ trong giới khoa học. Họ cũng không mô tả chi tiết về phương pháp thực hiện thử nghiệm của mình. 

Nhưng rõ ràng đặt trong bối cảnh rộng lớn hơn, những chi tiết đó không quan trọng bằng việc phát hiện lần này đã cho thấy hướng nghiên cứu vũ khí hóa học này là khả dĩ, ít nhất trên lý thuyết.

Hơn nữa, như chính các tác giả đã cảnh báo, số lượng người có kiến thức - chứ chưa bàn đến động cơ - để sử dụng AI vào mục đích xấu là không thể đếm xuể. “Chúng tôi chỉ là một công ty rất nhỏ trong một vũ trụ gồm hàng trăm công ty sử dụng phần mềm AI trong nghiên cứu thuốc. Có bao nhiêu người trong số họ đã tính đến khả năng sử dụng công cụ này cho một mục đích khác?” - nhóm nghiên cứu đặt câu hỏi.

Với một công cụ có tiềm năng bị lạm dụng nguy hiểm, dường như vẫn còn quá ít sự quản lý dành cho AI trong lĩnh vực nghiên cứu y sinh. “Bạn có thể tải bộ dữ liệu độc tính từ bất cứ đâu. Nếu có người quen biết lập trình bằng ngôn ngữ Python và có chút kiến thức về học máy, họ có thể xây dựng một mô hình (tương tự công nghệ mà nhóm nghiên cứu sử dụng) chỉ trong vài ngày cuối tuần” - tiến sĩ Urbina giải thích về độ đơn giản của thuật toán để minh họa cho sự nguy hiểm nếu ý tưởng này được hiện thực hóa bởi người có mục đích xấu.

Cho dù việc sử dụng AI để nghiên cứu vũ khí hóa học có thể chưa từng nằm trong suy nghĩ những người chế tạo và sử dụng chúng, sẽ là ngây thơ nếu tự huyễn hoặc mình rằng các chính phủ hoặc phần tử khủng bố không hề biết đến khả năng này của máy tính. 

“Trong khi chúng ta đang xây dựng các mô hình học máy ngày càng hoàn thiện hơn trong việc dự đoán độc tính nhằm phòng tránh chúng, tất cả những gì cần làm (để tạo ra vũ khí giết người) là bật một công tắc và nói “sẽ ra sao nếu thứ ta muốn là càng nhiều độc tính càng tốt?”” - ông Urbina nói với The Verge.

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận