
Nghiên cứu từ Đại học Oxford (Anh) khuyến cáo người dùng nên thận trọng trước khi xin lời khuyên sức khỏe từ AI - Ảnh: POPULAR SCIENCE
“Bất chấp mọi sự thổi phồng, đơn giản là AI chưa sẵn sàng đảm nhận vai trò của bác sĩ. Người bệnh cần nhận thức rằng việc hỏi một mô hình ngôn ngữ lớn về các triệu chứng sức khỏe của mình có thể nguy hiểm, vì nó có khả năng đưa ra chẩn đoán sai, cũng như không nhận ra khi nào người bệnh cần sự trợ giúp khẩn cấp”, bà Rebecca Payne - tác giả của nghiên cứu - nhận định.
Nghiên cứu được thực hiện với sự tham gia của gần 1.300 người. Những người này sẽ nhận 10 kịch bản sức khỏe khác nhau, gồm nhiều triệu chứng và bệnh lý đa dạng.
Sau đó các nhà nghiên cứu ngẫu nhiên phân cho người tham gia sử dụng một trong ba chatbot AI, gồm GPT-4o của OpenAI, Llama 3 của Meta hoặc Command R+, để xác định đúng vấn đề sức khỏe. Ngoài ra một nhóm riêng sẽ sử dụng công cụ tìm kiếm trên Internet.
Tuy nhiên chỉ khoảng 30% trong nhóm sử dụng AI nhận được chẩn đoán đúng cho vấn đề sức khỏe trong kịch bản, và 45% được cung cấp hướng xử lý phù hợp.
Các nhà khoa học cho biết kết quả này không tốt hơn so với nhóm sử dụng Internet.
Mặt khác các thử nghiệm trước đây cho thấy chatbot AI đạt điểm rất cao trong các bài kiểm tra và kỳ thi y khoa. Giới chuyên gia cho rằng vấn đề có thể nằm ở cách con người giao tiếp với AI.
Trên thực tế người bệnh thường không cung cấp cho chatbot AI đầy đủ thông tin liên quan về tình trạng sức khỏe của mình.
Ngoài ra người dùng đôi khi cũng gặp khó khăn trong việc diễn giải các ý kiến do AI đưa ra, thậm chí hiểu sai hoặc phớt lờ lời khuyên của chatbot.
“Đây là một nghiên cứu rất quan trọng vì nó làm nổi bật những rủi ro y khoa thực tế mà chatbot có thể gây ra cho công chúng”, nhà nghiên cứu David Shaw tại Đại học Maastricht (Hà Lan) bày tỏ quan điểm, đồng thời khuyến cáo mọi người chỉ nên tin tưởng thông tin y tế từ các nguồn chính thống.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận