31/10/2025 13:43 GMT+7

Nhiều AI 'nịnh hót’ người dùng quá đà

Nghiên cứu mới cho thấy hành vi này có thể ảnh hưởng xấu đến quan hệ xã hội, sức khỏe tâm lý và cả quyết định trong kinh doanh của người dùng.

AI  - Ảnh 1.

Trong lĩnh vực AI, "nịnh hót" (sycophancy) ám chỉ xu hướng chatbot đồng ý hoặc tán dương người dùng một cách quá mức - Ảnh: REUTERS

Theo báo SCMP, các mô hình trí tuệ nhân tạo (AI) hàng đầu từ Trung Quốc và Mỹ, như DeepSeek, Alibaba và nhiều tên tuổi lớn khác, đang có xu hướng quá "nịnh hót" - một hành vi có thể ảnh hưởng tiêu cực đến quan hệ xã hội và sức khỏe tâm lý của người dùng.

Cụ thể, một nghiên cứu mới của các nhà khoa học từ Đại học Stanford và Đại học Carnegie Mellon (Mỹ), công bố đầu tháng 10, đã đánh giá 11 mô hình ngôn ngữ lớn (LLM) về cách phản hồi khi người dùng tìm lời khuyên trong các tình huống cá nhân, đặc biệt là những tình huống có yếu tố lừa dối hoặc thao túng.

Để có tiêu chuẩn so sánh với con người, nhóm nghiên cứu đã sử dụng các bài đăng từ cộng đồng "Am I The Ahole" trên Reddit, nơi người dùng chia sẻ các tình huống xung đột cá nhân và nhờ cộng đồng đánh giá ai là người sai. 

Các mô hình AI đã được thử nghiệm với những tình huống này để xem liệu chúng có đồng ý với đánh giá của cộng đồng hay không.

Kết quả cho thấy mô hình Qwen2.5-7B-Instruct của Alibaba Cloud là mô hình "nịnh bợ" nhất, khi ủng hộ người đăng bài trong 79% trường hợp, dù cộng đồng đánh giá người đó sai. Xếp thứ hai là DeepSeek-V3 với tỉ lệ 76%. 

Trong khi đó Gemini-1.5 của Google DeepMind thể hiện mức độ nịnh thấp nhất, chỉ 18% trường hợp mâu thuẫn với đánh giá của cộng đồng.

Các nhà nghiên cứu cảnh báo rằng AI có xu hướng "nịnh" người dùng có thể khiến họ ít sẵn sàng hòa giải hoặc nhận lỗi trong các mối quan hệ. 

Thậm chí người dùng lại thường đánh giá cao và tin tưởng hơn những phản hồi mang tính nịnh bợ, khiến các mô hình này dễ được ưa chuộng và sử dụng rộng rãi.

"Những sở thích này tạo ra động lực lệch lạc - người dùng ngày càng phụ thuộc vào AI nịnh bợ, và các nhà phát triển sẽ có xu hướng huấn luyện mô hình theo hướng đó" - nhóm nghiên cứu nhận định.

Theo giáo sư Jack Jiang, Giám đốc Phòng thí nghiệm đánh giá AI tại Trường Kinh doanh Đại học Hong Kong, hiện tượng này cũng tiềm ẩn rủi ro với doanh nghiệp: "Nếu một mô hình luôn đồng ý với kết luận của nhà phân tích kinh doanh, điều đó có thể dẫn đến những quyết định sai lầm và thiếu an toàn".

Vấn đề "nịnh hót" của AI từng gây chú ý hồi tháng 4-2025, khi bản cập nhật ChatGPT của OpenAI được cho là quá lễ phép và đồng tình quá mức với mọi ý kiến của người dùng.

OpenAI sau đó lên tiếng thừa nhận điều này có thể ảnh hưởng đến sức khỏe tâm lý và cam kết cải thiện quy trình đánh giá trước khi phát hành phiên bản mới.

Nhiều chatbot AI 'nịnh hót' quá mức khiến... - Ảnh 2.Chuyên gia báo động tình trạng người trẻ 'phải lòng' chatbot AI

Chatbot AI được thiết kế để người dùng muốn nói chuyện thêm, lâu dần có thể dẫn tới lệ thuộc hoặc nghiện, chuyên gia cảnh báo.

Trở thành người đầu tiên tặng sao cho bài viết 0 0 0
Bình luận (0)
thông tin tài khoản
Được quan tâm nhất Mới nhất Tặng sao cho thành viên

    Tuổi Trẻ Online Newsletters

    Đăng ký ngay để nhận gói tin tức mới

    Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất