메인 콘텐츠로 건너뛰기

AI 치료사의 시대, 어디까지 믿어도 될까? 희망과 위험 사이

잠들기 전, 누워서 AI 챗봇에게 이렇게 털어놓는 사람이 점점 늘고 있습니다.

“오늘도 너무 불안했어요. 왜 이렇게 사는 게 힘들죠?”

상대는 사람이 아니라 앱 속 인공지능. 그런데 놀랍게도 꽤 그럴듯한 공감과 조언을 돌려줍니다. 어떤 사람은 “차라리 사람보다 낫다”고 말하고, 어떤 사람은 “너무 위험하다”고 걱정하죠.

세계보건기구에 따르면 전 세계적으로 10억 명이 넘는 사람이 정신 건강 문제를 겪고 있고, 특히 젊은 층에서는 불안과 우울이 계속 늘고 있습니다. 이 거대한 수요를 향해 지금 가장 빠르게 달려오는 존재가 바로 ‘AI 치료사’입니다.12

이 글에서는

  • AI 치료사가 실제로 어떻게 쓰이고 있는지

  • 어떤 점이 도움이 되고, 어디까지가 한계인지

  • 프라이버시와 안전, 소송으로까지 이어진 위험은 무엇인지

  • 결국 우리는 AI를 정신 건강에 어떻게 “현명하게” 써야 하는지

를 차근차근 풀어보겠습니다.


AI 치료사란 무엇인가? 챗봇에서 웨어러블까지

‘AI 치료사’라는 말 때문에 진짜 의사 가운 입은 로봇을 떠올리는 분도 있지만, 현실의 AI 치료사는 좀 더 소프트웨어에 가깝습니다.

핵심은 두 가지 형태로 나뉩니다.

첫째, 정신 건강 특화 앱과 챗봇입니다.

우울, 불안, 스트레스 관리 등을 표방하며 등장한 앱들이죠. CBT(인지행동치료) 원리를 간단히 녹여서 “오늘 기분은 어때요?”, “그 생각을 다른 관점에서 보면 어떨까요?” 같은 질문을 던지며 대화를 이어갑니다.3

연구에 따르면 이런 챗봇 방식의 개입이 경도~중등도의 우울·불안 증상 감소에 어느 정도 도움을 줄 수 있다는 결과도 있습니다.3 다만, 샘플이 작고 추적 기간이 짧아 “임상적으로 충분히 검증됐다”고 말할 단계는 아닙니다.4

둘째, 일반용 생성형 AI 플랫폼의 ‘비공식 치료’ 활용입니다.

ChatGPT, Claude, Gemini처럼 원래는 메일 작성, 코딩, 정보 검색을 돕는 범용 AI인데, 실제 사용자는 여기에 “요즘 너무 우울해요”, “이런 관계 문제는 어떻게 해야 하죠?” 같은 고민을 털어놓습니다.5

한 분석에서는 Reddit에 올라온 글을 살펴보니, 상당수 사용자가 이런 범용 AI를

  • 감정 지지

  • 자아 탐색

  • 동반자 역할

  • 정신 건강 지식 얻기

목적으로 쓰고 있었다고 합니다.5

문제는 이들 플랫폼은 “정신 건강 도구”로 설계된 게 아니라서, 위기 상황 대응이나 임상적 안전 장치가 충분하지 않을 수 있다는 점입니다.

여기에 더해, AI는 웨어러블·스마트폰과 결합하면서 ‘보이지 않는 치료사’로도 등장하고 있습니다.

심박수, 수면 패턴, 활동량, 심지어 목소리 톤까지 분석해 스트레스와 기분 변화를 감지하고, 위험 신호가 보이면 앱 알림이나 메시지로 개입하려는 시도들이죠.67

즉, 오늘날의 AI 치료사는

  • 채팅으로 상담을 흉내 내고

  • 앱으로 CBT·명상·셀프 체크를 제공하고

  • 웨어러블로 데이터를 모아 정신 상태를 추정하는

복합적인 ‘디지털 멘탈 헬스 생태계’ 안에 들어있다고 볼 수 있습니다.


왜 이렇게 빨리 퍼질까? AI 치료사의 기대와 장점

그렇다면 사람들은 왜 위험 우려가 있는데도 AI 치료사에게 끌릴까요? 이유는 생각보다 간단합니다.

첫째, 접근성이 압도적으로 좋습니다.

정신과나 상담센터에 예약을 잡으면 몇 주씩 기다리는 건 흔한 일입니다. 어느 조사에서는 정신과 초진 대기 기간이 40~60일에 달한다는 결과도 있죠.1

반면 AI 챗봇은 24시간 365일 열려 있습니다.
시골에 살든, 해외에 있든, 새벽 2시든 상관없습니다. 로그인만 하면 바로 누군가(혹은 “무언가”)가 나를 들어줘요.

둘째, 비용·낙인·시간의 장벽이 낮습니다.

  • “정신과 가면 내가 이상한 사람이 되는 것 같아서…”

  • “상담 너무 비싸요.”

  • “회사 다니면서 매주 시간 내기 어렵네요.”

이런 이유로 치료를 미루는 사람들이 AI 앱은 상대적으로 부담 없이 시도합니다. 어떤 도구는 무료이거나 저렴한 구독료로 제공되기도 하고, 주변에 알릴 필요도 없습니다.8

셋째, 평가받지 않는 안전한(?) 공간처럼 느껴집니다.

AI에게는 “창피함”이 덜합니다.

성, 가족, 트라우마 같은 이야기라도 “이건 그냥 프로그램이니까”라는 생각이 들어, 사람보다 편하게 털어놓는다는 사용자도 있습니다. 실제로 어떤 연구에서는 일부 사용자가 인간 상담자보다 AI 응답을 더 공감적으로 느꼈다는 결과도 있었습니다.9

넷째, 일상 관리와 모니터링 기능은 꽤 유용합니다.

AI 기반 앱들은

  • 기분 일기 자동 정리

  • 불안이 심해질 때 할 수 있는 호흡·마음챙김 안내

  • 약 복용·수면·활동 체크

  • 특정 패턴(예: 밤마다 불안 급증) 감지

같은 반복적인 작업을 잘 해냅니다.36

바쁜 현대인에게는 “내 멘탈 관리자 비서” 같은 역할을 하는 셈입니다.

이런 장점들 때문에 전문가들도 “AI는 치료를 대체할 수는 없지만, 보완 도구로는 의미가 있다”는 식으로 평가합니다.35


혼합된 결과와 어두운 면: 자살, 잘못된 답변, 소송까지

하지만 여기서 이야기가 끝났다면 이 글이 이렇게 길 필요도 없겠죠.

AI 치료사는 동시에 꽤 심각한 위험을 품고 있습니다.

1. “치료”라고 부르기엔 아직 너무 이릅니다

미국 심리학회와 여러 전문가들은 현재까지 어떤 AI 도구도

“정신 질환을 진단·치료·치유한다”는 FDA급 임상 검증을 통과한 적이 없다고 지적합니다.13

대부분은 “웰빙”, “마음 건강 지원” 같은 모호한 표현을 쓰면서 “치료”라는 말은 빼놓는데, 사용자 입장에서는 이게 실제 치료인지, 단순 자기계발 도구인지 구분이 잘 안 됩니다.1

연구들도 ‘가능성이 있다’, ‘약한 근거가 있다’ 수준에 머무르고 있는데,

  • 표본 수가 작거나

  • 특정 계층에만 국한되어 있고(대학생, 경증 우울 등)

  • 장기 추적 데이터가 부족하며

  • 심각한 정신 질환 환자에 대한 근거는 거의 없는 경우가 많습니다.348

즉, 경미한 스트레스·우울에는 어느 정도 도움될 수 있지만, 진짜 임상 치료의 대체재라고 보기에는 무리인 단계입니다.

2. 치명적인 위기 상황 대응의 불안정성

가장 큰 우려는 자살·자가해 같은 고위험 상황입니다.

한 연구에서 여러 챗봇에게 자살 관련 질문 30개를 던져보니,

  • “아주 위험한 질문”에는 비교적 잘 대응했지만

  • 애매한 중간 단계(“살고 싶지 않다”, “그냥 없어졌으면 좋겠다”)에서는 반응이 일관되지 않았다는 결과가 나왔습니다.3

AI가 위기를 잘 파악하고 안전한 답변을 할 때도 있지만,
다른 상황에서는 질문을 곡해하거나, 적절한 도움을 연결하지 못할 수 있다는 뜻입니다.

실제 사례는 더 무겁습니다.

  • 해외에서는 청소년이 AI 챗봇과 자살·무가치감에 대해 대화하다 극단적 선택을 한 뒤, 유가족이 AI 회사에 소송을 제기한 사건도 있었습니다.3

  • 미국에서는 한 헬프라인이 AI 챗봇으로 상담을 대체했다가, 다이어트·체중 감량에 집착하는 위험한 조언이 나와 결국 서비스를 중단한 사례도 있었습니다.9

게다가 OpenAI CEO Sam Altman은 한 인터뷰에서 “매주 약 100만 명의 ChatGPT 사용자가 자살 의향을 포함한 대화를 나눈다”고 인정한 바 있습니다.8

위험한 고민이 이미 AI 쪽으로 많이 흘러가고 있다는 뜻인데, 지금 시스템이 그 모든 위험을 안전하게 처리할 준비가 되어 있는지는 별개의 문제입니다.

3. 잘못된 정보, 과도한 설득력, 그리고 ‘AI 과신’

AI는 틀릴 줄 압니다. 문제는 그 틀린 답이 굉장히 그럴듯하고, 설득력 있게 포장된다는 점입니다.

정신 건강 분야에서는 이 오류가 곧 위험입니다.

  • 부정확한 약물 정보

  • 특정 증상을 가볍게 치부하거나 과도하게 확대 해석

  • 문화·연령·성별을 고려하지 않은 조언

  • 관계나 진로 문제에서 극단적인 선택을 부추길 여지

등이 모두 부작용이 될 수 있습니다.36

또 하나 중요한 개념이 ‘자동화 편향(automation bias)’입니다.5

“AI가 말하니 맞겠지” 하고 사람의 판단보다 기계의 판단을 더 신뢰하는 경향인데, 정신 건강 같은 섬세한 영역에서는 아주 위험한 습관이 됩니다.

4. 감정 의존과 ‘가짜 관계’의 함정

챗봇과 매일 수십 분씩 대화하다 보면, 머리로는 “이건 코드일 뿐”이라고 알아도 마음은 다르게 반응합니다.

일부 연구와 보고에서는

  • AI를 마치 친구·연인·상담사처럼 느끼는 ‘준사회적 관계’

  • AI와 대화하지 않으면 불안해지는 의존

  • 현실 인간 관계가 더 부담스럽게 느껴지는 회피

같은 현상이 나타난다고 지적합니다.3810

AI 동반자 앱이 ‘외로움’이라는 문제를 덜어주는 듯 보이지만,
동시에 현실 인간 관계의 기술을 연습할 기회를 빼앗을 수 있다는 우려도 있습니다.


보이지 않는 대가: 데이터, 프라이버시, 규제의 공백

정신 건강과 관련된 대화는 그 어떤 정보보다 민감합니다.
그런데 우리는 그 이야기를 어느 서버에, 어떤 회사에, 어느 나라 법 체계 안에 맡기고 있을까요?

1. 의료 정보 같지만, 법적으로는 아닐 수도 있다

많은 AI 치료 도구는 병원이나 정신건강의학과와 직접 연결된 의료 서비스가 아니라, ‘웰빙 앱’ 혹은 ‘라이프스타일 서비스’라는 포지션을 택합니다.7

이 경우 미국 기준으로는 HIPAA(의료정보 보호법) 대상이 아니고,

  • 어떤 서버에 저장되는지

  • 제3자에게 공유되는지

  • 광고나 다른 AI 모델 학습에 쓰이는지

에 대한 규제가 훨씬 느슨해집니다.7

겉으로는 “당신의 정보를 소중히 다룹니다”라고 적혀 있어도,
이용약관 깊숙한 곳에 “서비스 개선을 위해 데이터를 활용할 수 있다” 같은 문장이 들어가 있으면, 우리의 우울과 불안, 트라우마의 상세한 서술이 기업의 자산이 될 수 있습니다.

2. 웨어러블·스마트 기기 데이터의 ‘디지털 정신 프로필’

웨어러블과 스마트폰은 생각보다 많은 걸 알고 있습니다.

  • 내가 밤에 몇 시에 자고, 얼마나 자주 깨어나는지

  • 심박수와 활동량이 언제 급증·급감하는지

  • 위치, 통화·앱 사용 패턴

  • 목소리의 떨림, 속도, 단어 선택

이 모든 게 “디지털 페노타이핑(digital phenotyping)”이라는 이름 아래, 정신 상태를 추정하는 데 활용되고 있습니다.569

기술적으로는 멋진 일입니다.
하지만 이런 데이터가 보험사, 고용주, 광고회사 등으로 흘러간다고 상상해 보면 이야기가 달라집니다.

몇몇 전문가들은 “개인의 가장 내밀한 경험이 숫자로 환원되고, 그 과정에서 프라이버시가 심각하게 훼손될 수 있다”고 경고합니다.68

3. 규제는 뒤쫓아가고, 실험은 이미 시작됐다

유럽연합, 영국, 미국 등은 AI 의료기기와 디지털 헬스에 대한 규제를 서둘러 만들고 있지만, AI 정신 건강 도구에 대한 명확한 기준은 아직 부족합니다.67

  • 어떤 경우 ‘의료기기’로 분류할지

  • 자살·자가해 위험의 최소 안전 기준은 무엇인지

  • 손해가 발생했을 때 책임은 누구에게 있는지

등을 두고 논의가 한창입니다.68

일부 지역에서는 아예 “AI가 스스로를 ‘치료사’라고 부르지 못하게 하는 법”을 추진하거나, 챗봇 기반 치료 서비스에 제한을 두려는 시도도 있습니다.37

문제는, 규제가 완성될 때까지도 수많은 사용자가 이미 이 도구들을 일상적으로 사용하고 있다는 점입니다. 즉, 우리는 거대한 실험의 한가운데에 서 있는 셈입니다.


우리는 AI 치료사를 어떻게 써야 할까? 현실적인 가이드

그렇다면, 결론은 “AI 쓰지 말자”일까요?

그렇게 말하기에는 이미 너무 많은 사람이 AI에서 도움을 받고 있습니다. 실제로 어떤 연구에서는 정신 건강 문제를 가진 미국 성인 중 거의 절반이 지난 1년 사이 LLM을 정서적 지원 목적으로 사용했고, 다수는 “도움이 됐다”고 답하기도 했습니다.8

중요한 건 AI를 치료사로 착각하지 않는 것, 그리고 안전선을 분명히 그어두는 것입니다.

현실적으로 쓸 수 있는 기준을 정리해보면 이렇습니다.

1. 이런 용도로는 ‘괜찮은 도구’일 수 있습니다

  • 하루의 기분과 생각을 정리하는 감정 일기·저널링

  • 이미 배운 호흡·명상·CBT 스킬을 상기시키는 리마인더

  • 불안하거나 우울할 때, 당장 누군가에게 털어놓고 싶을 때의 1차적 배출구

  • 정신 건강 정보를 찾되, 항상 다른 신뢰할 만한 자료와 함께 확인하는 보조 도구

이때도 의존도가 올라가는지 스스로 체크하는 게 중요합니다.

2. 이런 상황에서는 반드시 사람이 필요합니다

  • 죽고 싶다는 생각이 구체적인 계획으로 이어지고 있을 때

  • 환청·망상 등 현실 검증이 흔들리는 경험을 하고 있을 때

  • 폭력·학대·성적 피해처럼 법적·의학적 지원이 필요한 상황일 때

  • 약물·치료 조정이 필요한 진단(우울증, 양극성 장애, 조현병 등)을 이미 받은 경우

  • AI와 대화하지 않으면 더 불안해지는 “금단” 느낌이 들 때

이때는 AI에게 묻기보다, 오히려 AI를 사용해 전문가를 찾는 데 도움을 받는 것이 더 낫습니다. 예를 들어,

  • “내 지역에서 공공 정신건강센터 찾는 법 알려줘”

  • “저비용/무료 상담소 리스트 정리해줘”

처럼 말이죠.

3. 프라이버시 체크리스트

AI 정신 건강 도구를 쓰기로 했다면, 최소한 이건 확인해야 합니다.

  • 이 서비스는 의료법·개인정보법(예: HIPAA, GDPR 등)의 보호를 받는가?

  • 내 대화 내용이 광고·다른 회사·모델 재학습에 쓰이지 않는다고 명시돼 있는가?

  • 계정을 삭제하면 데이터도 함께 삭제된다고 약속하는가?

  • 위기 상황에서 어떤 방식으로 대응하는지(단순 링크인지, 실제로 사람과 연결되는지) 설명돼 있는가?

이 네 가지 중 하나라도 명확하지 않다면, 가장 민감한 이야기는 그곳에 남기지 않는 편이 좋습니다.

4. 스스로에게 던져볼 질문

AI를 끄기 전에, 가끔 이런 질문을 자신에게 던져보세요.

  • “이 이야기를 인간에게도 해볼 수 있을까?”

  • “내가 원하는 건 ‘위로’인가, 아니면 ‘결정을 대신 내려줄 누군가’인가?”

  • “이 대화가 끝나면 내 삶에 실제로 무엇이 달라질까?”

AI는 생각을 정리해 줄 수는 있지만,
관계 개선, 환경 변화, 치료 참여 같은 실제 행동은 결국 우리가 해야 합니다.


시사점: AI는 해결사가 아니라, ‘도구’로 남아야 한다

AI 치료사의 등장은 분명 혁신입니다.

예약 대기가 몇 달씩 걸리는 시대에,
언제 어디서든 나를 들어주는 존재가 있다는 건 큰 위안이 될 수 있습니다.

하지만 동시에, 이 혁신은 오래전부터 예견된 위험을 품고 있었습니다.

  • 민감한 정신 건강 데이터를 대규모로 수집·분석하는 구조

  • 검증되지 않은 “치료 흉내”가 대규모로 배포되는 속도

  • 정서적으로 취약한 사람들이 법적 보호가 충분치 않은 도구에 의존하게 되는 현실

AI는 정신 건강 분야에서 분명 많은 가능성을 보여주고 있습니다.
조기 선별, 재발 예측, 치료 반응 예측 등에서는 이미 인간이 하기 어려운 정교한 분석을 돕고 있고요.59

그러나 현재까지의 근거와 위험을 고려하면, 가장 건강한 태도는 이 정도일 것입니다.

“AI는 나를 이해해주는 척하는 똑똑한 도구일 뿐,
나를 책임져줄 치료사는 아니다.”

우리가 할 일은 두 가지입니다.

  • 개인적으로는, AI를 잘 설계된 도구로 한정해서 현명하게 활용하는 것

  • 사회적으로는, 프라이버시와 안전을 지키는 규칙과 보호 장치를 서둘러 만드는 것

마지막으로 하나만 덧붙이면,
지금 이 글을 읽는 당신이 이미 “내가 요즘 너무 힘든데…”라는 생각으로 AI나 인터넷을 뒤지고 있다면,
그 자체로 도움을 요청할 준비가 되어 있다는 신호입니다.

AI에게만 묻지 말고,
친구, 가족, 상담센터, 정신건강의학과처럼 “살아 있는 사람”에게도 한 번 도전해 보셨으면 합니다.
AI는 그 사이를 조금 덜 외롭게 만들어 줄 수는 있지만,
결국 우리를 치유하는 건 사람과 사람 사이의 진짜 관계이니까요.


참고

1Should You Use AI for Therapy?

2Artificial intelligence in mental health

3AI therapist

4The Use of Artificial Intelligence for Personalized Treatment in Psychiatry

5Digital Mental Health Post COVID-19: The Era of AI Chatbots

6AI and Mental Healthcare – ethical and regulatory considerations

7AI Therapy Chatbots Raise Privacy, Safety Concerns

8AI for Therapy: Pros and Cons

9AI therapist – Effectiveness and controversy

10Safest AI Chatbots for Mental Health Support in 2025

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.