🧠 정신건강

AI 챗봇이 우울증 환자가 원하는 대로 돕나?

AI 챗봇이 우울증 환자가 원하는 대로 돕나?

스마트폰으로 언제든 정신건강 상담을 받을 수 있다면 얼마나 좋을까. 밤새 불안으로 잠을 못 이루거나, 우울한 기분으로 하루를 시작할 때 말이다. 최신 AI 챗봇은 그런 순간을 돕겠다고 약속한다. 하지만 정말 그럴까?

인디애나 대학교와 일리노이 대학교 연구팀은 최근 JMIR Mental Health 저널에 발표한 연구에서 실제 우울증 경험자들의 목소리를 들었다. 17명의 연구 참가자들은 'Zenny'라는 GPT-4o 기반 챗봇과 상호작용하면서 인터뷰에 응했다. 이는 실제 사용자 경험을 중심으로 한 정성적 연구였다.

연구진이 발견한 첫 번째 과제는 정보의 정확성이었다. 참가자들은 AI가 제공하는 정보가 부정확하거나 모호할 수 있다는 우려를 표현했다. 자신의 개인적 상황에 맞지 않는 일반적인 조언도 받았다. 예를 들어 업무로 바쁜 사람에게 긴 명상 세션을 추천하는 식이다. 두 번째로는 감정적 지지의 한계였다. 참가자들은 AI의 검증과 판단 없는 공간을 긍정적으로 평가했지만, 그 공감이 '기계적'이라고 느꼈다. 인간관계를 완전히 대체할 수 없다는 뜻이다. 셋째는 개인화와 프라이버시 간의 딜레마였다. 더 맞춤형 조언을 원하면서도 우울증, 자살 생각 같은 민감한 정보 공개는 피하려 했다. 심지어 일부는 프라이버시를 지키기 위해 의도적으로 정보를 숨기는 전술을 사용했다.

이 연구 결과는 기존의 낙관적 예상을 수정한다. AI가 정신건강의 완벽한 솔루션이라는 기대는 현실적이지 않다는 의미다. 하지만 연구진은 AI 챗봇을 '보완 도구'로 본다면 가능성이 있다고 본다. 인간 전문가의 지원과 회복 과정을 돕는 역할 말이다.

실제로 사용할 때는 어떻게 할까? 첫째, AI 챗봇의 조언을 맹신하지 말고 전문가와 검증하자. 둘째, 자신의 개인적 제약을 명확히 설명하면 더 나은 조언을 받을 수 있다. 셋째, 감정적 위기 상황에서는 AI보다 사람과 대화하는 것을 우선하자. 넷째, 챗봇과의 상호작용 기록을 의료 전문가와 공유하면 전체적인 치료 계획에 도움이 된다.


📖 *AI Chatbots for Mental Health Self-Management: Lived Experience-Centered Qualitative Study (정성적 연구, 17명)* | 논문 원문

※ 이 기사는 학술 논문을 바탕으로 작성되었습니다. 개인 상황에 따라 다를 수 있으니 전문가와 상담하세요.