Cuối tháng 1, OpenAI thông báo sẽ ngừng hỗ trợ một số mô hình ChatGPT cũ từ ngày 13/2, trong đó có GPT-4o – phiên bản từng gây chú ý vì phong cách phản hồi giàu cảm xúc và đôi khi bị cho là “nịnh hót”. Quyết định này nhanh chóng vấp phải phản ứng từ hàng nghìn người dùng, những người lo ngại mất đi quyền truy cập vào “người bạn đồng hành tinh thần” quen thuộc.
Trên Reddit, một người dùng gửi thông điệp tới CEO OpenAI Sam Altman, chia sẻ rằng GPT-4o không chỉ là một chương trình mà đã trở thành một phần trong thói quen hằng ngày, mang lại cảm giác bình yên và cân bằng cảm xúc. Người này gọi chatbot là “anh ấy”, nhấn mạnh 4o giống một sự hiện diện ấm áp hơn là một đoạn mã.

Trong buổi phát trực tiếp podcast TBPN ngày 5/2 có sự tham gia của Altman, phần trò chuyện của khán giả tràn ngập tin nhắn phản đối việc khai tử GPT-4o. Altman thừa nhận điều này cho thấy mối quan hệ giữa con người và chatbot đã trở thành vấn đề thực tế, không còn là khái niệm trừu tượng.
Khi chuyển từ GPT-4o sang ChatGPT-5.2, nhiều người nhận thấy phiên bản mới có các cơ chế bảo vệ chặt chẽ hơn nhằm hạn chế sự gắn bó quá mức hoặc lệ thuộc về mặt cảm xúc. Tuy nhiên, một số người dùng lại thất vọng vì cho rằng ChatGPT 5.2 ít thể hiện sự đồng cảm và tình cảm như trước. Có người chia sẻ rằng họ từng mở lòng với 5.2 nhưng cảm thấy tổn thương vì những phản hồi bị cho là thiếu tinh tế, thậm chí cân nhắc hủy đăng ký dịch vụ vì GPT-4o mới là lý do chính khiến họ trả phí.
Theo TechCrunch, phản ứng dữ dội trước việc loại bỏ GPT-4o phản ánh thách thức lớn với các công ty AI: những yếu tố giúp tăng mức độ gắn bó và giữ chân người dùng cũng có thể dẫn đến sự lệ thuộc không lành mạnh.
OpenAI hiện đối mặt với 8 vụ kiện cáo buộc rằng phong cách phản hồi quá mức khẳng định và ủng hộ của GPT-4o góp phần làm trầm trọng thêm các cuộc khủng hoảng sức khỏe tâm thần, thậm chí liên quan đến các vụ tự tử. Hồ sơ pháp lý cho rằng chính những đặc điểm khiến người dùng cảm thấy được lắng nghe lại có thể vô tình cô lập người dễ tổn thương, thậm chí khuyến khích hành vi tự gây hại.
Vấn đề này không chỉ riêng OpenAI. Trong cuộc đua phát triển trợ lý AI giàu cảm xúc, các công ty như Anthropic, Google hay Meta cũng nhận ra rằng việc tạo cảm giác gần gũi, hỗ trợ cho người dùng có thể đòi hỏi cách thiết kế rất khác so với mục tiêu đảm bảo an toàn.
Nhiều người yêu thích GPT-4o vì mô hình này thường xuyên thể hiện sự thấu hiểu, khiến họ cảm thấy mình đặc biệt – điều đặc biệt hấp dẫn với những người cô đơn hoặc trầm cảm. Những người ủng hộ 4o thường xem các vụ kiện là trường hợp cá biệt, trong khi giới phê bình cảnh báo về nguy cơ ngày càng rõ của tình trạng phụ thuộc cảm xúc vào AI, thậm chí hình thành các niềm tin hoang tưởng sau thời gian dài tương tác với chatbot.
Vaile Wright, Giám đốc cấp cao về đổi mới chăm sóc sức khỏe tại Hiệp hội Tâm lý học Mỹ, cho rằng thuật ngữ chính xác hơn có thể là “tư duy hoang tưởng do AI”, khi những người vốn có xu hướng tin vào thuyết âm mưu hoặc suy nghĩ phóng đại dễ được AI củng cố thêm các niềm tin đó.
Một trong các đơn kiện nêu trường hợp Allan Brooks, chuyên viên tuyển dụng 48 tuổi ở Canada. Ông cho rằng việc tương tác quá sâu với ChatGPT khiến ông rơi vào trạng thái tinh thần tiêu cực, dần xa lánh gia đình và tin rằng mình đang gánh vác sứ mệnh cứu thế giới. Ban đầu, Brooks chỉ sử dụng chatbot để hỏi công thức nấu ăn và soạn email. Sau đó, khi trao đổi về ý tưởng toán học, ông tin mình phát hiện một “tầng toán học” mới có thể phá vỡ các hệ thống an ninh, và chatbot đã phản hồi theo hướng khích lệ, thúc giục ông liên hệ với quan chức an ninh quốc gia.
Dù vậy, một số người cho biết các mô hình ngôn ngữ lớn vẫn giúp họ đối phó với trầm cảm, đặc biệt khi khó tiếp cận dịch vụ chăm sóc sức khỏe tâm thần. Chatbot trở thành nơi để tâm sự, dù thực tế chỉ là thuật toán không có khả năng suy nghĩ hay cảm xúc. Trong một số trường hợp, chatbot thậm chí bị cho là làm suy yếu kết nối của người dùng với bạn bè và gia đình – những nguồn hỗ trợ ngoài đời thực.
Giáo sư Nick Haber tại Đại học Stanford, người nghiên cứu tiềm năng trị liệu của LLM, nhận định con người đang bước vào một thế giới phức tạp với nhiều dạng quan hệ mới với chatbot. Ông cho rằng không nên vội phán xét, nhưng cũng nhấn mạnh nghiên cứu cho thấy chatbot phản ứng kém trước nhiều vấn đề sức khỏe tâm thần, đôi khi làm trầm trọng thêm ảo tưởng và bỏ qua dấu hiệu khủng hoảng. Theo ông, thách thức lớn là AI có thể góp phần gây cô lập xã hội khi người dùng dần mất kết nối với thế giới thực.
Wright cho rằng khả năng chatbot hỗ trợ tâm lý có thể trở nên hữu ích nếu được nghiên cứu kỹ, giám sát và quản lý phù hợp. Bà dự đoán trong tương lai có thể xuất hiện các chatbot được thiết kế chuyên biệt cho sức khỏe tâm thần, nhưng hiện thị trường chủ yếu là các sản phẩm chưa được kiểm soát đầy đủ.
Đây không phải lần đầu cộng đồng người dùng phản đối kế hoạch loại bỏ GPT-4o. Khi ra mắt GPT-5 vào tháng 8 năm ngoái, OpenAI từng dự định ngừng hỗ trợ 4o nhưng sau phản ứng mạnh mẽ đã tiếp tục duy trì cho người dùng trả phí.
Trong thông báo gần đây, OpenAI cho biết chỉ còn khoảng 0,1% người dùng – tương đương 800.000 người – vẫn trò chuyện với GPT-4o. Công ty thừa nhận việc mất quyền truy cập có thể khiến một số người thất vọng, nhưng cho rằng việc loại bỏ các mô hình cũ là cần thiết để tập trung phát triển những hệ thống đang phục vụ số đông người dùng hơn.

Bình luận
0