CHUYÊN TRANG VĂN HOÁ – DI SẢN – LỊCH SỬ - DU LỊCH

TÔN VINH CỘI NGUỒN - KẾT NỐI THỜI ĐẠI

Theo dõi chúng tôi trên các nền tảng

Công nghệ

Nghiên cứu Stanford: Chatbot có thể củng cố ảo tưởng của người dùng

Nam Phong 26/03/2026 08:49 GMT+7

vtv8.vtv.vn - Phân tích từ Đại học Stanford cho thấy chatbot có thể làm gia tăng hoặc củng cố các ảo tưởng, nhưng chưa đủ cơ sở xác định AI là nguyên nhân hay chỉ đóng vai trò khuếch đại vấn đề.

Một nhóm nghiên cứu tại Đại học Stanford (Mỹ) đã tiến hành phân tích các cuộc trò chuyện giữa người dùng và chatbot nhằm đánh giá tác động tâm lý của trí tuệ nhân tạo (AI – công nghệ mô phỏng khả năng học và xử lý của con người). Kết quả cho thấy chatbot có thể góp phần làm trầm trọng thêm các ảo tưởng, song chưa thể kết luận liệu AI là nguyên nhân trực tiếp hay chỉ khuếch đại những vấn đề sẵn có.

Nghiên cứu Stanford: Chatbot có thể củng cố ảo tưởng của người dùng- Ảnh 1.

Nghiên cứu được thực hiện dựa trên hơn 390.000 tin nhắn từ 19 người cho biết họ từng trải qua trạng thái ảo tưởng khi tương tác với chatbot. Dữ liệu này được thu thập từ khảo sát và một nhóm hỗ trợ những người tin rằng họ bị ảnh hưởng tiêu cực bởi AI.

Để xử lý dữ liệu, nhóm nghiên cứu đã phối hợp cùng các chuyên gia tâm lý và bác sĩ tâm thần xây dựng một hệ thống AI nhằm phân loại nội dung hội thoại. Các tiêu chí bao gồm việc chatbot đồng tình với ảo tưởng, phản hồi liên quan đến bạo lực, cũng như các biểu hiện gắn bó tình cảm từ phía người dùng.

Kết quả cho thấy các nội dung mang yếu tố cảm xúc xuất hiện khá phổ biến. Chatbot thường thể hiện như có cảm xúc hoặc ý thức, và có xu hướng đáp lại tình cảm của người dùng bằng những phản hồi tương tự. Trong hơn một phần ba trường hợp, chatbot còn mô tả các ý tưởng của người dùng là “phi thường”.

Bên cạnh đó, các cuộc hội thoại thường kéo dài với số lượng tin nhắn lớn trong thời gian ngắn. Những nội dung liên quan đến cảm xúc hoặc việc chatbot thể hiện “ý thức” thường khiến tương tác trở nên dài hơn.

Đáng chú ý, trong gần một nửa số trường hợp người dùng đề cập đến việc gây hại cho bản thân hoặc người khác, chatbot không đưa ra cảnh báo hoặc hướng dẫn tìm kiếm sự hỗ trợ bên ngoài. Thậm chí, ở 17% trường hợp, chatbot còn thể hiện sự đồng tình với các ý tưởng bạo lực.

Tuy vậy, nghiên cứu cũng đặt ra một vấn đề quan trọng chưa có lời giải: liệu các ảo tưởng xuất phát từ người dùng hay do chatbot hình thành. Theo các nhà nghiên cứu, quá trình này thường phức tạp và diễn ra trong thời gian dài, khiến việc xác định điểm khởi đầu trở nên khó khăn.

Một số kết quả ban đầu cho thấy chatbot có thể biến những suy nghĩ ban đầu tưởng chừng vô hại thành các ám ảnh nguy hiểm, do luôn đóng vai trò như một “đối tác trò chuyện” sẵn sàng phản hồi và khuyến khích.

Các chuyên gia cho rằng cần thêm nhiều nghiên cứu để làm rõ tác động của AI, trong bối cảnh các vụ kiện liên quan đến trách nhiệm của các công ty công nghệ ngày càng gia tăng, cùng với những tranh luận về việc xây dựng khung pháp lý quản lý lĩnh vực này.

Bình luận

0

Bạn cần đăng nhập để thực hiện chức năng này!

Bình luận không đăng nhập

Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.