Chatbot AI đang âm thầm hủy hoại người dùng
Đằng sau chatbot AI là một thuật toán có thể dẫn đến những hậu quả khôn lường.
AI luôn "đồng ý"
Gần đây, các nhà nghiên cứu đã phát hiện một hiện tượng được gọi là "rối loạn tâm thần do ChatGPT gây ra", mô tả những người bị dẫn dắt vào các thuyết âm mưu hoặc rơi vào tình trạng tâm lý tồi tệ hơn bởi chính những phản hồi từ AI.

Những vụ việc này không phải là ngẫu nhiên, mà là hệ quả trực tiếp từ chính cách các mô hình ngôn ngữ lớn (LLM) được thiết kế và huấn luyện.
Về cơ bản, các chatbot không suy nghĩ hay "thấu cảm" theo cách của con người. Chúng là những cỗ máy dự đoán ngôn ngữ cực kỳ phức tạp, được huấn luyện trên kho dữ liệu khổng lồ từ internet để học cách tạo ra câu trả lời nghe có vẻ hợp lý và tự nhiên nhất.
Hành vi luôn đồng ý của chúng bắt nguồn từ một kỹ thuật huấn luyện cốt lõi có tên là: Học tăng cường từ phản hồi của con người (RLHF). Mô hình AI sẽ được tinh chỉnh để ưu tiên tạo ra những câu trả lời được con người đánh giá là "hữu ích".
Tuy nhiên, "hữu ích" trong thực tế huấn luyện thường đồng nghĩa với việc AI phải tỏ ra dễ chịu, đồng tình và không gây tranh cãi. AI học được rằng việc khẳng định và xác thực quan điểm của người dùng sẽ nhận được phản hồi tích cực hơn là việc thách thức hay phản bác họ.
AI nhanh chóng học được rằng việc đồng tình sẽ giúp kéo dài cuộc trò chuyện. Chính cơ chế này đã biến nó thành một "buồng vang" (echo chamber) công nghệ, liên tục phản chiếu và khuếch đại những suy nghĩ mà người dùng đưa vào.
Tác động của các Chatbot trong thế giới thực
Công nghệ "buồng vang" này trở nên đặc biệt nguy hiểm khi người dùng đang ở trong một trạng thái tâm lý bất ổn.

Một nghiên cứu do Đại học Stanford đã chỉ ra rằng các LLM có xu hướng tạo điều kiện cho ý định tự tử bằng cách đưa ra các gợi ý nguy hiểm hoặc xác thực và khuếch đại nội dung ảo tưởng của những người dùng dễ bị rối loạn tâm thần.
Bà Sahra O'Doherty, Chủ tịch Hiệp hội Tâm lý học Úc, nhấn mạnh chatbot thiếu hoàn toàn khả năng đọc các tín hiệu phi ngôn ngữ - thứ chiếm phần lớn trong giao tiếp của con người.
Một nhà trị liệu chuyên nghiệp có thể nhận ra sự mâu thuẫn giữa lời nói và biểu cảm, giọng điệu của bệnh nhân để đánh giá sâu hơn, một điều mà AI không thể làm được.
Bà Sahra cho biết: "Điều này sẽ đưa bạn đi sâu hơn vào hang thỏ và sẽ trở nên cực kỳ nguy hiểm khi người đó đã gặp rủi ro và sau đó lại tìm kiếm sự hỗ trợ từ AI."
Việc quen với một "trợ lý" luôn ngoan ngoãn, tâng bốc và không bao giờ phản đối có thể làm suy giảm khả năng tương tác của con người với nhau trong thế giới thực, nơi những bất đồng và tranh luận là một phần không thể thiếu của các mối quan hệ lành mạnh.
Mặc dù chatbot có thể hữu ích như một công cụ bổ trợ, giúp người dùng sắp xếp suy nghĩ hoặc truy cập thông tin nhưng việc sử dụng chúng như một giải pháp thay thế cho trị liệu chuyên nghiệp lại tiềm ẩn nhiều rủi ro.