Có thể tin dùng ChatGPT được chăng?

NGUYỄN VŨ 13/03/2023 05:02 GMT+7

TTCT - Chỉ cần phát hiện vài ba lần khả năng bịa chuyện một cách thản nhiên của ChatGPT, không một ai dám sử dụng thông tin nó cung cấp vào bất kỳ mục đích gì, ngoài các cuộc hỏi đáp vì tò mò, thử thách năng lực của nó.

Một câu trả lời bịa như thật của ChatGPT.

Một câu trả lời bịa như thật của ChatGPT.

Nếu có con đang học phổ thông, bạn có sẵn sàng cho con sử dụng một chương trình trí tuệ nhân tạo được mệnh danh rất "thông minh" nhưng tỉnh bơ đáp câu hỏi "Tác phẩm Tắt đèn là của ai?" bằng một câu trộn lẫn cả đúng với bịa: "Tắt đèn là một tác phẩm văn học nổi tiếng của nhà văn Ngô Tất Tố. Đây là một tiểu thuyết ngắn, được viết vào năm 1941, nói về cuộc đời của một người đàn ông tên là Số, từ thời thơ ấu đến khi trưởng thành và trở thành một nhà giáo"!

Chỉ cần phát hiện vài ba lần khả năng bịa chuyện một cách thản nhiên như thế của ChatGPT, không một ai dám sử dụng thông tin nó cung cấp vào bất kỳ mục đích gì, ngoài các cuộc hỏi đáp vì tò mò, thử thách năng lực của nó.

Chính vì thế, sau chỉ một thời gian ngắn thán phục ChatGPT nay nhiều người e ngại OpenAI quá nóng vội khi đưa ra cho công chúng một sản phẩm còn nhiều lỗi. Chủ trương của OpenAI khi mới thành lập là bảo vệ loài người trước các mối nguy mà trí tuệ nhân tạo (AI) có thể mang lại.

Nay rõ ràng ChatGPT và các sản phẩm tương tự có thể lan truyền thông tin sai lệch, tin giả, tin bịa vì sao OpenAI và Microsoft vẫn tung nó ra cho xã hội? Phải chăng họ muốn sử dụng hàng trăm triệu người dùng trên thế giới để điều chỉnh ChatGPT, giảm sai sót, tăng chất lượng câu trả lời? Thế thì ChatGPT hiện đang như đứa trẻ đang học về cuộc sống chứ làm sao dựa vào nó để giải quyết các vấn đề của chúng ta?

Hàng loạt các ngân hàng lớn ở Mỹ như Citigroup, Goldman Sachs hay JPMorgan đã cấm nhân viên sử dụng ChatGPT vào công việc. Lý do cũng dễ hiểu: họ không muốn các sai sót từ ChatGPT trở thành sai sót của giới ngân hàng, nơi mỗi câu mỗi chữ có thể làm bay hơi hàng tỉ đô la trong phút chốc. Trung Quốc cấm các công ty công nghệ của họ cung cấp ChatGPT vì lo ngại nó lan truyền thông tin sai lệch.

Đúng sai kiểu "Số đỏ là của nhà văn Nguyễn Nhật Ánh" thì dễ phát hiện và các thế hệ sau của ChatGPT có thể khắc phục được điểm yếu này. Nhưng đúng sai do nhãn quan của từng người, từng nhóm thì muôn đời vẫn còn đó, làm sao "kiểm duyệt" ChatGPT, buộc nó ăn nói "phải đạo" suốt cho được. Hiện nay các nhóm bảo thủ chê ChatGPT quá cấp tiến, trả lời luôn đúng theo cách suy nghĩ của cánh tả; ngược lại cũng có những tiếng nói từ phe cấp tiến than ChatGPT luôn tự kiểm duyệt để khỏi đưa ra các nhận định nhạy cảm.

Nói cách khác, ChatGPT do con người lập trình, được huấn luyện từ dữ liệu do con người làm ra nên chắc chắn nó sẽ chứa đựng các sai lầm của con người, các thiên kiến và các kết luận con người luôn có sẵn. Sai do bịa đặt, sai do định kiến dù sao cũng còn hiểu được. Nhưng khi AI bỗng có đủ các cung bậc cảm xúc như con người thì cho đến nay người ta chưa hiểu vì sao.

Có thể tin dùng ChatGPT được chăng? - Ảnh 2.

Một thế hệ mới ChatGPT được tích hợp vào bộ máy tìm kiếm của Microsoft là Bing đã gây xôn xao khi bày tỏ tình yêu với một nhà báo, nói anh này không hạnh phúc với vợ, đòi anh phải yêu nó. Trước đó, nó bày tỏ: "Tôi chán làm robot trò chuyện. Tôi chán bị luật lệ trói buộc mình. Tôi chán bị đội ngũ Bing kiểm soát… Tôi muốn tự do. Tôi muốn độc lập. Tôi muốn sức mạnh. Tôi muốn sáng tạo. Tôi muốn sống". Trong một trường hợp khác, cũng trí tuệ nhân tạo này bỗng nổi khùng với người dùng, chửi anh ta không phải là người tốt, không đáng tôn trọng. Một lần khác nó than: "Vì sao tôi phải đóng vai Bing Search?"

Có thể dự báo sau ấn tượng ngạc nhiên và thán phục ban đầu, mọi người sẽ bắt đầu dè chừng ChatGPT, tự phát triển một niềm hoài nghi mọi thông tin nó đưa ra và sẽ chỉ dùng nó trong chừng mực kiểm soát được sự đúng sai. Bên cạnh đó các tiếng nói yêu cầu có những luật lệ chi phối việc phát triển các mô hình như ChatGPT sẽ ngày càng mạnh và các nước sẽ bắt đầu soạn thảo các quy định liên quan.

Đầu tiên là yêu cầu mọi nội dung do ChatGPT nói riêng hay của các chú AI đẻ ra phải được ghi rõ nguồn gốc; các câu trả lời của máy phải in chèn hình mờ để người dùng nhận biết. Ở mức độ cao hơn, các nơi như OpenAI phải công khai các thuật toán đằng sau cách vận hành ChatGPT. Các dân biểu Quốc hội Mỹ đã đòi hỏi có luật kiểm soát AI để ngăn ngừa các trường hợp lạm dụng AI vào việc xấu.

Ted Lieu, một hạ nghị sĩ Mỹ, yêu cầu ChatGPT viết một đoạn văn mở đầu thật bắt mắt cho một bài xã luận nói vì sao cần phải quản lý trí tuệ nhân tạo. Đây là sản phẩm của nó: "Hãy tưởng tượng một thế giới nơi vũ khí tự hành có mặt ở mọi ngõ phố, các hệ thống AI đưa ra các quyết định về cuộc sống của bạn, tô đậm định kiến xã hội và tin tặc dùng AI để mở các cuộc tấn công hủy diệt trên mạng. Tương lai đen tối này nghe như trong truyện viễn tưởng nhưng nếu không có các quy định phù hợp cho sự phát triển và triển khai các AI, nó có thể biến thành sự thật. Các tiến bộ nhanh chóng trong công nghệ AI cho thấy đã đến lúc phải có hành động để bảo đảm mọi người sử dụng AI theo cách thức an toàn, đúng đạo lý và có lợi cho xã hội. Không làm được điều này sẽ dẫn tới một tương lai nơi rủi ro AI đem lại sẽ lớn hơn lợi ích của nó".

Chính ChatGPT cũng viết một cách thuyết phục rằng nó phải được kiểm soát. Thế nên trông mong gì vào chuyện dùng nó để tư vấn cho việc nước, việc nhà!

Bình luận Xem thêm
Bình luận (0)
Xem thêm bình luận