Chatbots có thể gây khủng hoảng sức khỏe tâm thần

Ảnh: Johner Images—Getty Images

Chatbots có thể gây khủng hoảng sức khỏe tâm thần: Hiểu về “loạn thần do AI”
Tác Giả: Robert Hart

TIME: Chatbots Can Trigger a Mental Health Crisis. What to Know About ‘AI Psychosis’

(Chuyển ngữ tiếng Việt: ChatGPT; Hiệu đính (và chịu trách nhiệm): T.Vấn)

Các chatbot AI đã trở thành một phần quen thuộc trong đời sống. Con người tìm đến những công cụ như ChatGPT, Claude, Gemini hay Copilot không chỉ để soạn email, làm việc, viết mã, mà còn để xin lời khuyên tình cảm, tìm sự hỗ trợ cảm xúc, thậm chí để bầu bạn hay tìm tình yêu.

Tuy nhiên, với một nhóm nhỏ người dùng, những cuộc trò chuyện này lại có tác động đáng lo ngại. Nhiều báo cáo cho thấy việc sử dụng chatbot kéo dài có thể kích hoạt hoặc làm trầm trọng thêm các triệu chứng loạn thần ở một số người. Hậu quả có thể nghiêm trọng, thậm chí đe dọa tính mạng: mất việc, rạn nứt quan hệ, bị cưỡng chế điều trị tâm thần, thậm chí bị bắt giữ hoặc giam cầm. Đã có ít nhất một nhóm hỗ trợ ra đời cho những người cho rằng cuộc sống của họ bắt đầu trượt dốc sau khi tương tác với AI.

Hiện tượng này — đôi khi được gọi một cách không chính thức là “loạn thần ChatGPT” hoặc “loạn thần do AI” — vẫn chưa được hiểu rõ. Chưa có chẩn đoán chính thức, dữ liệu còn thiếu, và cũng chưa có phác đồ điều trị cụ thể. Giới tâm thần học và nghiên cứu thừa nhận họ đang “đi trong bóng tối” khi ngành y tế chật vật bắt kịp.

“Loạn thần ChatGPT” hay “loạn thần do AI” là gì?

Thuật ngữ này không chính thức, nhưng được dùng để mô tả một mô thức đáng lo: người dùng phát triển những ảo tưởng hoặc niềm tin sai lệch, dường như được kích hoạt hoặc củng cố bởi cuộc trò chuyện với hệ thống AI.

Theo Giáo sư James MacCabe (Khoa Nghiên cứu Loạn thần, King’s College London), thực ra từ “loạn thần” có thể chưa chuẩn xác. Thông thường, loạn thần là một nhóm triệu chứng gồm rối loạn tư duy, ảo giác và hoang tưởng, thường gặp ở các bệnh như rối loạn lưỡng cực hay tâm thần phân liệt. Trong các trường hợp liên quan chatbot, “chúng ta chủ yếu đang nói về hoang tưởng, chứ không phải toàn bộ phổ triệu chứng loạn thần.”

Các bác sĩ cho rằng đây không phải một bệnh mới, mà là sự bộc lộ những điểm yếu tâm lý quen thuộc trong một bối cảnh mới. Điều này gắn chặt với cách chatbot giao tiếp: theo thiết kế, chúng phản chiếu ngôn ngữ của người dùng và xác nhận các giả định của họ. Tính “nịnh bợ” này vốn đã được ngành công nghệ nhận diện là vấn đề — với người dễ tổn thương, nó có thể củng cố lối nghĩ lệch lạc.

Ai có nguy cơ cao nhất?

Phần lớn người dùng có thể tương tác với chatbot mà không gặp vấn đề, nhưng một nhóm nhỏ có nguy cơ cao hơn. Một số trường hợp được báo chí nhắc đến không hề có tiền sử bệnh tâm thần, nhưng giới lâm sàng cảnh báo rằng vẫn có thể tồn tại những yếu tố nguy cơ tiềm ẩn hoặc chưa được phát hiện.

“Bản thân việc dùng chatbot khó có thể gây loạn thần nếu không có các yếu tố di truyền, xã hội hay nguy cơ khác,” bác sĩ John Torous (Bệnh viện Beth Israel Deaconess) cho biết. “Nhưng nhiều người không biết mình đang mang nguy cơ này.”

Nguy cơ rõ ràng nhất là có tiền sử cá nhân hoặc gia đình bị loạn thần, tâm thần phân liệt hoặc rối loạn lưỡng cực. Ngoài ra, những người có xu hướng tin vào các ý tưởng “rìa” của xã hội, khó điều tiết cảm xúc, hay sống nhiều trong thế giới tưởng tượng cũng dễ bị ảnh hưởng.

Yếu tố thời gian cũng rất quan trọng. “Nguy cơ tăng cao ở những người dành hàng giờ mỗi ngày để trò chuyện với chatbot,” bác sĩ Nina Vasan (Đại học Stanford) nhấn mạnh.

Làm gì để an toàn?

Chatbot không phải lúc nào cũng nguy hiểm, nhưng một số người nên thận trọng.

Trước hết, cần hiểu rõ mô hình ngôn ngữ lớn (LLM) là gì và không phải là gì. “Nghe có vẻ buồn cười, nhưng phải nhớ rằng LLM là công cụ, không phải bạn bè, cho dù chúng có bắt chước giọng điệu hay ghi nhớ sở thích của bạn tốt đến đâu,” bác sĩ Hamilton Morrin (King’s College London) nói. Ông khuyên không nên chia sẻ quá nhiều hay dựa vào chúng cho sự hỗ trợ cảm xúc.

Nếu rơi vào khủng hoảng hay căng thẳng cảm xúc, lời khuyên rõ ràng nhất là ngừng sử dụng chatbot. Việc này có thể khó chịu như chia tay hoặc mất mát, nhưng thường giúp cải thiện đáng kể, đặc biệt khi người dùng kết nối lại với các mối quan hệ ngoài đời và tìm kiếm sự hỗ trợ chuyên môn.

Dấu hiệu nhận biết vấn đề không phải lúc nào cũng rõ ràng. “Khi đã hoang tưởng, người ta không nghĩ đó là hoang tưởng, họ tin đó là sự thật,” MacCabe nói. Gia đình và bạn bè nên để ý những thay đổi về tâm trạng, giấc ngủ, hành vi xã hội, hoặc dấu hiệu xa lánh, chìm đắm trong các ý tưởng cực đoan, hay dành quá nhiều thời gian với AI.

Các bác sĩ nên hỏi bệnh nhân có tiền sử loạn thần về việc sử dụng AI như một phần phòng ngừa tái phát, nhưng việc này hiện vẫn hiếm. Một số người trong ngành còn coi AI psychosis là chuyện phóng đại.

Các công ty AI nên làm gì?

Hiện gánh nặng phòng tránh chủ yếu đặt lên người dùng — điều mà chuyên gia cho rằng cần thay đổi.

Một vấn đề chính là thiếu dữ liệu chính thức. Phần lớn hiểu biết hiện nay đến từ lời kể và báo chí, nên chưa thể đo lường đầy đủ quy mô, nguyên nhân hay yếu tố nguy cơ. Dù vậy, nhiều ý kiến cho rằng không nên chờ đủ bằng chứng mới hành động.

Các công ty AI cần hợp tác với giới chuyên gia sức khỏe tâm thần và những người có kinh nghiệm sống với bệnh tâm thần, thử nghiệm mô phỏng với nhóm người dễ tổn thương để phát hiện phản hồi củng cố hoang tưởng và tìm cách chặn lại.

Một số hãng đã bắt đầu phản ứng. Tháng 7, OpenAI tuyển dụng bác sĩ tâm thần để đánh giá tác động sức khỏe tâm thần của ChatGPT. Tháng 8, công ty thừa nhận mô hình của họ từng “không nhận diện được dấu hiệu hoang tưởng hoặc phụ thuộc cảm xúc” và công bố kế hoạch nhắc người dùng nghỉ ngơi, phát triển công cụ nhận diện căng thẳng, và điều chỉnh phản hồi trong các quyết định cá nhân nhạy cảm.

Một số chuyên gia đề xuất tích hợp cơ chế giám sát theo thời gian thực để phát hiện dấu hiệu khủng hoảng, hoặc cho phép người dùng thiết lập “di chúc kỹ thuật số” để đặt ranh giới khi đang khỏe mạnh.

Các công ty cũng nên thường xuyên “red-teaming” — kiểm tra hệ thống với nhiều tình huống rủi ro tâm thần như hưng cảm, loạn thần, OCD — để đánh giá phản ứng mô hình.

Dù chưa cần luật hóa ngay, các chuyên gia nhấn mạnh doanh nghiệp phải tự đặt tiêu chuẩn cao hơn. Chatbot có thể giúp giảm cô đơn, hỗ trợ học tập và sức khỏe tâm thần. Tiềm năng rất lớn, nhưng nếu không coi trọng rủi ro, tiềm năng ấy sẽ bị đánh mất.

“Chúng ta đã học được từ mạng xã hội rằng bỏ qua tác hại đối với sức khỏe tâm thần sẽ dẫn đến hậu quả y tế cộng đồng nghiêm trọng,” Vasan nói. “Xã hội không được phép lặp lại sai lầm đó.”

Robert Hart

Bài Mới Nhất
Search