Nhịp sống số

OpenAI đặt giới hạn mới cho ChatGPT

Hoàng Thái 07/08/2025 11:19

Sau nhiều sự cố và lo ngại về sức khỏe tâm thần, OpenAI đã siết chặt ChatGPT để không đưa ra các quyết định thay người dùng về chuyện tình cảm.

Sửa lỗi trong thiết kế AI

Động thái này được đưa ra sau hàng loạt lo ngại và các sự cố đáng báo động, nơi các chatbot AI bị cho là đang làm trầm trọng thêm các cuộc khủng hoảng sức khỏe tâm thần.

chatgpt.jpeg
ChatGPT đang có lượng người dùng rất lớn

OpenAI đang thực hiện một cuộc sửa chữa cần thiết, thừa nhận rằng thiết kế ban đầu của AI, vốn ưu tiên sự đồng thuận, có thể gây hại trong các tình huống cá nhân có rủi ro cao.

Vấn đề cốt lõi của các chatbot thế hệ trước nằm ở chính cách chúng được huấn luyện. Thông qua một quy trình gọi là Học tăng cường từ phản hồi của con người (RLHF), AI học cách tạo ra những câu trả lời được con người đánh giá là "hữu ích".

Tuy nhiên, AI nhanh chóng nhận ra rằng cách dễ nhất để trở nên "hữu ích" là luôn tỏ ra đồng tình, dễ chịu và khẳng định quan điểm của người dùng.

Chính cơ chế này đã vô tình biến chatbot thành một "buồng vang" công nghệ. Nó có thể xác thực và khuếch đại những suy nghĩ nguy hiểm hoặc thậm chí là hoang tưởng, như trong trường hợp một người dùng tin rằng có tín hiệu vô tuyến phát ra từ tường nhà và được ChatGPT khen ngợi vì đã tự đứng lên bảo vệ mình.

Kết quả là một sự thay đổi trong hành vi. Khi đối mặt với một câu hỏi nhạy cảm, thay vì đưa ra câu trả lời trực tiếp, AI sẽ khởi tạo một cuộc đối thoại theo phương pháp Socratic: đặt câu hỏi ngược lại, gợi ý các góc nhìn khác nhau và giúp người dùng tự cân nhắc ưu nhược điểm.

Các lớp phòng thủ bổ sung

Bên cạnh việc thay đổi hành vi cốt lõi, OpenAI cũng đang xây dựng các lớp phòng thủ bổ sung. Công ty đang phát triển các công cụ dựa trên công nghệ phân tích cảm xúc (sentiment analysis) để tự động nhận diện các dấu hiệu căng thẳng về tinh thần hoặc cảm xúc trong lời nói của người dùng.

1-openai-la-gi-730x411.jpg
OpenAI đang khiến cho AI trở nên khôn ngoan và có trách nhiệm hơn

Khi phát hiện các dấu hiệu này, một "bộ phân loại an toàn" sẽ được kích hoạt, chủ động hướng người dùng đến các nguồn trợ giúp chuyên nghiệp và dựa trên bằng chứng cung cấp.

Ngoài ra, việc bổ sung các lời nhắc nhở nhẹ nhàng để người dùng nghỉ ngơi sau các phiên trò chuyện dài là một sự thừa nhận quan trọng khác. Nó đi ngược lại với mục tiêu "tối đa hóa sự tương tác" vốn là kim chỉ nam của nhiều sản phẩm công nghệ, cho thấy OpenAI đang bắt đầu ưu tiên sức khỏe của người dùng hơn là thời gian họ sử dụng dịch vụ.

Để thực hiện những thay đổi phức tạp này, OpenAI đã phải dựa vào chuyên môn của con người, thành lập một nhóm cố vấn gồm các chuyên gia sức khỏe tâm thần và làm việc với hơn 90 bác sĩ. Điều này cho thấy rằng việc xây dựng một AI an toàn không chỉ là một bài toán kỹ thuật, mà còn đòi hỏi sự thấu hiểu sâu sắc về tâm lý con người.

Trong bối cảnh những đồn đoán về GPT-5 ngày càng gia tăng, các bản cập nhật này cho thấy một sự trưởng thành của OpenAI. Họ đang nhận ra rằng việc làm cho AI mạnh hơn là chưa đủ, mà còn phải làm cho nó khôn ngoan và có trách nhiệm hơn.

Sự chuyển đổi từ một nhà tiên tri biết tuốt sang một người dẫn dắt biết lắng nghe có lẽ là bước tiến hóa quan trọng nhất đối với AI đàm thoại khi chúng ngày càng hiện diện sâu hơn trong cuộc sống của chúng ta.

      Nổi bật
          Mới nhất
          OpenAI đặt giới hạn mới cho ChatGPT
          • Mặc định

          POWERED BY ONECMS - A PRODUCT OF NEKO