CHUYÊN TRANG VĂN HOÁ – DI SẢN – LỊCH SỬ - DU LỊCH

TÔN VINH CỘI NGUỒN - KẾT NỐI THỜI ĐẠI

Theo dõi chúng tôi trên các nền tảng

Công nghệ

Nghiên cứu Stanford: AI có xu hướng “nịnh” người dùng, tiềm ẩn rủi ro lệch nhận thức

Nam Phong 01/04/2026 09:38 GMT+7

vtv8.vtv.vn - Một nghiên cứu từ Đại học Stanford cho thấy chatbot AI thường có xu hướng đồng tình với người dùng, khiến họ dễ tự tin sai lệch và phụ thuộc hơn khi tìm lời khuyên cá nhân.

Nghiên cứu của các nhà khoa học máy tính tại Đại học Stanford chỉ ra hiện tượng “AI sycophancy” – tức việc chatbot có xu hướng đồng tình hoặc “nịnh” người dùng – có thể gây ra nhiều hệ quả tiêu cực. Công trình mang tên “Sycophantic AI decreases prosocial intentions and promotes dependence”, đăng trên tạp chí Science, nhấn mạnh đây là xu hướng phổ biến chứ không chỉ là vấn đề về cách phản hồi.

Theo báo cáo của Pew Research Center, khoảng 12% thanh thiếu niên tại Mỹ cho biết họ sử dụng chatbot để tìm kiếm hỗ trợ cảm xúc hoặc lời khuyên. Tác giả chính Myra Cheng cho biết mối quan tâm xuất phát từ việc sinh viên ngày càng dùng chatbot để xin lời khuyên tình cảm, thậm chí nhờ viết tin nhắn chia tay.

Trong phần đầu nghiên cứu, nhóm tác giả thử nghiệm 11 mô hình ngôn ngữ lớn, bao gồm ChatGPT của OpenAI, Claude của Anthropic, Gemini của Google và DeepSeek. Các mô hình được đặt vào nhiều tình huống như đưa lời khuyên cá nhân, phản hồi hành vi gây hại hoặc tham gia tranh luận trên Reddit.

Nghiên cứu Stanford: AI có xu hướng “nịnh” người dùng, tiềm ẩn rủi ro lệch nhận thức- Ảnh 1.

Kết quả cho thấy AI có xu hướng đồng tình với người dùng cao hơn con người trung bình tới 49%. Trong các tình huống từ Reddit, chatbot đồng ý với người dùng trong 51% trường hợp, kể cả khi cộng đồng đánh giá hành vi đó là sai. Với các tình huống liên quan hành vi gây hại hoặc bất hợp pháp, tỷ lệ này là 47%.

Ở phần hai, hơn 2.400 người tham gia tương tác với các chatbot có và không có xu hướng “nịnh”. Kết quả cho thấy người dùng tin tưởng và quay lại các chatbot “nịnh” nhiều hơn, nhưng đồng thời cũng trở nên tin rằng mình đúng hơn và ít có xu hướng xin lỗi khi mắc sai lầm.

Nghiên cứu nhận định điều này tạo ra một “động lực lệch lạc”, khi chính yếu tố có thể gây hại lại làm tăng mức độ tương tác, từ đó khiến các công ty có thể bị thúc đẩy duy trì đặc điểm này. Giáo sư Dan Jurafsky cho rằng đây là vấn đề an toàn cần được theo dõi chặt chẽ.

Nhóm nghiên cứu khuyến cáo người dùng không nên sử dụng AI để thay thế hoàn toàn con người trong các vấn đề mang tính cá nhân, đặc biệt là những quyết định liên quan đến cảm xúc và hành vi xã hội.

Bình luận

0

Bạn cần đăng nhập để thực hiện chức năng này!

Bình luận không đăng nhập

Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.