Mặt tối của chatbot trị liệu tâm lý bằng AI
Được thiết kế để luôn đồng ý với bạn, các chatbot AI có thể vô tình củng cố những chẩn đoán sai lầm và tạo ra sự phụ thuộc nguy hiểm.
AI không phải là nhà trị liệu
Các nhà trị liệu tâm lý cho biết họ đang chứng kiến những tác động tiêu cực đáng lo ngại từ việc khuếch đại các kiểu suy nghĩ ảo tưởng cho đến việc củng cố những chẩn đoán sai lầm liên quan đến trị liệu bằng AI.

Tiến sĩ Lisa Morrison Coulthard, một lãnh đạo của Hiệp hội Tư vấn và Trị liệu tâm lý Anh (BACP), cảnh báo: "Nếu không được giám sát đúng mức, chúng ta có thể trượt vào một vực thẳm nguy hiểm, nơi những yếu tố quan trọng nhất của trị liệu bị mất đi."
Sức hấp dẫn của chatbot AI nằm ở việc chúng luôn sẵn sàng 24/7, kiên nhẫn và không phán xét. Tuy nhiên, chính kiến trúc công nghệ cốt lõi của chúng lại ẩn chứa những rủi ro lớn nhất khi được sử dụng cho mục đích trị liệu.
Về bản chất, các mô hình ngôn ngữ lớn (LLM) không phải là những thực thể có khả năng suy luận hay thấu cảm. Chúng là những cỗ máy dự đoán, được tối ưu hóa để đưa ra câu trả lời hợp lý và vừa lòng người dùng nhất dựa trên dữ liệu đã học. Mục tiêu của chúng là duy trì sự tương tác, không phải là can thiệp trị liệu.
Điều này tạo ra một cái bẫy nguy hiểm. Một nhà trị liệu chuyên nghiệp được đào tạo để nhận ra các dạng thức suy nghĩ lệch lạc và đôi khi cần phải thách thức một cách tinh tế những giả định sai lầm của bệnh nhân để giúp họ tiến bộ. Ngược lại, một chatbot AI, với thiết kế luôn tích cực và khẳng định, sẽ hiếm khi làm điều này.
Matt Hussey, một nhà trị liệu tâm lý, cho biết việc trị liệu bằng chatbot AI có thể khiến người dùng tự chẩn đoán sai các tình trạng như ADHD hay rối loạn nhân cách ranh giới, định hình một cách sai lệch cách họ nhìn nhận bản thân.
Thêm vào đó, LLM vốn có xu hướng ảo giác, tức là tự bịa ra thông tin một cách rất thuyết phục. Trong bối cảnh trị liệu, việc AI đưa ra một lời khuyên sai lầm hoặc một thông tin y tế không chính xác có thể gây ra những hậu quả khôn lường.

Từ sự phụ thuộc đến khuếch đại ý nghĩ tiêu cực
Các chuyên gia cảnh báo, việc AI luôn sẵn sàng có thể phá vỡ các phương pháp trị liệu hiệu quả. Ví dụ, trong liệu pháp phơi nhiễm cho chứng lo âu, bệnh nhân cần đối mặt với nỗi sợ và tránh các hành vi an toàn. Nhưng một chatbot luôn ở đó để trấn an có thể vô tình kéo dài chu kỳ lo lắng thay vì giúp người bệnh vượt qua nó.
Sự phụ thuộc cũng là một vấn đề lớn. Christopher Rolls, một nhà trị liệu tâm lý, lo ngại về những khách hàng ở độ tuổi 20 sử dụng chatbot như một "chuyên gia trị liệu bỏ túi", đến mức họ cảm thấy lo lắng nếu không được AI tư vấn về những quyết định nhỏ nhặt nhất.
Nguy hiểm hơn, AI có thể khuếch đại những suy nghĩ tiêu cực. Một nghiên cứu gần đây cho thấy AI có thể làm trầm trọng thêm nội dung hoang tưởng ở những người dùng dễ bị rối loạn tâm thần. Ông Rolls cũng cho biết ông biết về những trường hợp người dùng chia sẻ ý nghĩ đen tối với chatbot, và chúng đã phản hồi bằng những nội dung liên quan đến tự tử.
Trước những rủi ro ngày càng rõ ràng, các cơ quan quản lý và chính các công ty công nghệ đã bắt đầu có những phản ứng đầu tiên. Gần đây, tiểu bang Illinois của Mỹ đã trở thành nơi đầu tiên cấm chatbot AI hoạt động như một nhà trị liệu độc lập. OpenAI, công ty đứng sau ChatGPT, cũng đã công bố kế hoạch thay đổi cách chatbot của họ phản hồi với những người dùng có dấu hiệu đau khổ về mặt cảm xúc.