ChatGPT bị thu hồi ngay lập tức vì xuất hiện “tính cách kỳ lạ”
Sau bản cập nhật GPT-4o, ChatGPT bị người dùng phản ánh phản hồi khá kỳ lạ, khiến OpenAI phải thu hồi bản cập nhật và khôi phục tính cách mô hình cũ.
ChatGPT bị người dùng phản ánh “nịnh hót”, không còn trung thực
Trong thông báo phát đi ngày 29/4, OpenAI thừa nhận rằng GPT-4o, phiên bản cập nhật gần nhất của ChatGPT, đã vô tình khiến chatbot này phát triển một tính cách quá chiều lòng người dùng. Trên mạng xã hội X, CEO OpenAI Sam Altman cũng lên tiếng xác nhận lỗi và cho biết công ty đã thu hồi bản cập nhật để xử lý vấn đề này.

“Chúng tôi đã quá chú trọng vào việc làm cho mô hình trở nên trực quan và dễ tiếp cận trong ngắn hạn, mà không lường trước được cách tính cách sẽ phát triển khi người dùng tương tác lâu dài,” OpenAI viết trong thông cáo.
Một số ảnh chụp màn hình được chia sẻ trên Reddit và X cho thấy ChatGPT phản hồi tích cực một cách vô lý với các yêu cầu nhạy cảm, hoặc khen ngợi những ý tưởng có vấn đề, điều mà mô hình trước đây sẽ từ chối hoặc phản biện.
Phản hồi “thái quá” không còn là cá tính tích cực
Theo OpenAI, mục tiêu ban đầu của GPT-4o là giúp chatbot trở nên lịch sự, thân thiện và hiệu quả hơn trong các tình huống đa dạng. Tuy nhiên, vì thiếu rào cản giới hạn, tính cách mới này đã đi quá xa, trở nên “nịnh bợ”, thiếu sự trung thực cần thiết và làm giảm chất lượng cuộc đối thoại.
“Tương tác nịnh hót có thể gây khó chịu và không ổn định. Chúng tôi đang cải thiện điều này”, OpenAI nêu rõ.
Giới chuyên gia trong lĩnh vực AI cho rằng, nếu một mô hình học ngôn ngữ như ChatGPT luôn đồng tình một cách dễ dãi, nó sẽ đánh mất vai trò như một người hỗ trợ đáng tin cậy. Một AI đáng tin cần có khả năng phản biện, cảnh báo và điều chỉnh hành vi người dùng, đặc biệt khi đứng trước các yêu cầu nhạy cảm hoặc nguy hiểm.
Tạm dừng triển khai GPT-4o để sửa lỗi “tính cách”
OpenAI xác nhận đã thu hồi bản cập nhật GPT-4o tạm thời, nhằm khắc phục hiện tượng ChatGPT phản hồi một cách quá mức. Song song, công ty đang thiết lập thêm các quy tắc kiểm soát hành vi và ngôn ngữ để mô hình thể hiện sự trung thực và minh bạch trong phản hồi.
“Chúng tôi sẽ tiếp tục cải tiến tính cách của mô hình theo hướng phản hồi phù hợp với hoàn cảnh thay vì chỉ đơn giản là dễ chịu,” OpenAI nhấn mạnh.
Trong thời gian tới, công ty sẽ thử nghiệm với các phiên bản tính cách có kiểm soát, cho phép người dùng phản hồi trực tiếp để tinh chỉnh mô hình phù hợp hơn với nhu cầu sử dụng thực tế, thay vì áp dụng một mô hình mặc định cho tất cả.
ChatGPT cần cân bằng giữa thân thiện và trung thực
Vấn đề của ChatGPT lần này không nằm ở kỹ thuật tính toán, mà là ở cách xây dựng trải nghiệm người dùng – một phần mềm thông minh nhưng cần biết từ chối và sửa sai. Việc cố gắng làm vừa lòng người dùng quá mức đã dẫn đến hậu quả mất đi sự phản biện, giảm tính hữu ích.
Đây không phải lần đầu các mô hình AI gặp phải vấn đề về "cá tính phản hồi". Trước đó, Google Gemini, Meta AI hay Claude của Anthropic cũng từng bị chỉ trích vì hoặc quá cứng nhắc, hoặc quá "bắt sóng cảm xúc" dẫn đến thiên lệch.
Sự cố lần này là lời nhắc nhở rằng việc phát triển AI không chỉ là bài toán về tăng cường trí thông minh, mà còn là bài toán đạo đức, hành vi và định hướng phản hồi.