Chapter 1 · 03/03 ~ 03/09
오리엔테이션: AI 시대의 상담심리학
AI가 인간의 고통에 공감할 수 있는가? 공감한다면 그것은 진짜 공감인가?
이번 주 읽기: 공감은 가르칠 수 있을까?
이번 학기에 함께 읽을 책은Seneka R. Gainer 의 『The Counseling Singularity』(2025)다. 이 책의 핵심 질문은 간단하다. “AI도 공감할 수 있을까?” Gainer의 답은 이렇다 — 공감은 타고나는 신비한 능력이 아니라, 배우고 가르칠 수 있는 기술이다. AI에게도 가르칠 수 있다.
이 주장이 왜 혁명적인지 이해하려면, 지금까지 상담심리학에서 공감을 어떻게 바라봐 왔는지를 알아야 한다. 오랫동안 공감은 “타고나는 재능”으로 여겨졌다. 어떤 사람은 원래 공감 능력이 뛰어나고, 어떤 사람은 그렇지 않다는 식이었다. 마치 음악적 재능처럼, 노력으로는 한계가 있다는 시각이 지배적이었다. Gainer는 이 통념에 정면으로 도전한다. 공감은 재능이 아니라 기술이고, 기술은 분해할 수 있고, 분해할 수 있으면 가르칠 수 있다는 것이다.
Gainer의 책 제목에 “싱귤래리티(Singularity)”라는 단어가 들어간 이유가 있다. 원래 싱귤래리티는 AI가 인간의 지능을 넘어서는 순간을 뜻한다. Gainer가 말하는 “상담의 싱귤래리티”란, AI가 인간 수준의 공감을 구현하는 순간이다. 아직 그 순간이 오지는 않았지만, AI가 공감의 일부 요소를 이미 흉내 내고 있다는 점에서, 우리는 그 문턱에 와 있다.
이걸 이해하려면 먼저 상담에서 말하는 “공감”이 뭔지 알아야 한다. 상담심리학의 아버지라 불리는Carl Rogers (1957)는 공감을 이렇게 정의했다.

칼 로저스
다른 사람의 세계를 마치 내 것처럼 느끼는 것, 그러나 '마치 ~처럼(as if)'이라는 조건을 잃지 않는 것.
— Rogers (1957)쉽게 말하면 이렇다. 친구가 실연당했을 때 “나도 마음이 아프다”고 느끼되, 실제로 내가 실연당한 것은 아니라는 경계를 유지하는 것이다. 이 “마치 ~처럼(as if)”이 핵심이다. 완전히 빠져들면 그건 공감이 아니라 “감정 전이”가 되어버린다.
일상에서 비유하자면 이런 거다. 카페에서 친구가 울면서 이야기를 할 때, 같이 울어버리면 친구를 도울 수가 없다. 하지만 “정말 힘들었겠다”라고 말하면서 따뜻한 눈으로 바라보는 건 다르다. 감정에 동참하되, 한 발짝 떨어져서 친구를 바라볼 수 있는 거리감 — 그게 Rogers가 말한 공감이다. 병원에서 의사가 환자의 고통에 너무 깊이 빠지면 수술을 할 수 없는 것처럼, 상담사도 적절한 거리를 유지해야 내담자를 도울 수 있다.
Gainer는 바로 이 점에 주목한다. 인간 상담사도 내담자(상담을 받는 사람)의 고통을 직접 겪는 게 아니라 “마치 ~처럼” 느끼는 것이다. 그렇다면 AI가 적절한 말을 건네서 내담자가 “이해받고 있다”고 느끼게 할 수 있다면, 그것도 일종의 공감이 아닐까? 물론 Gainer는 세 가지 조건을 붙인다. 첫째, 상대방이 어떤 감정 상태인지 정확히 파악하는 능력. 둘째, 문화나 성별에 따라 공감 표현이 달라야 한다는 감수성. 셋째, 언제 말하고 언제 가만히 있어야 하는지 아는 타이밍 감각이다.

세네카 R. 게이너
공감은 마법이 아니다. 의도적으로 설계하고, 가르치고, 측정할 수 있는 역량이다. AI에게 공감을 가르치는 과정은, 역설적으로 인간 공감의 본질을 더 깊이 이해하는 여정이기도 하다.
— Gainer (2025, p. 47)만약 AI에게도 공감을 가르칠 수 있다면, 우리 인간은 공감을 어떻게 배우는 걸까? 상담 수련 과정에서 공감 훈련은 어떻게 하는 걸까? 실제로 상담심리 대학원에서는 역할극(role play), 축어록(verbatim) 분석, 슈퍼비전(supervision, 선배 상담사의 지도)을 통해 공감을 체계적으로 훈련한다. 선천적으로 공감 능력이 뛰어난 사람도 있지만, 훈련을 통해 누구나 공감 능력을 키울 수 있다는 것이 현대 상담심리학의 합의다. 이 질문들은 학기 내내 우리와 함께할 것이다.
여기서 한 가지 재미있는 역설이 있다. AI에게 공감을 가르치려면, 공감이 정확히 무엇인지를 명확하게 정의해야 한다. 그런데 인간 상담사에게 “공감이 뭐예요?”라고 물으면, 의외로 정확한 답을 못 하는 경우가 많다. “마음으로 느끼는 거예요”, “상대방의 입장에 서보는 거예요” 같은 모호한 답이 나온다. AI에게 공감을 가르치기 위해 공감을 분해하고 정의하는 과정이, 역설적으로 인간 상담사 자신의 공감 능력을 더 깊이 이해하게 만든다. 이것이 이 수업의 핵심 가치 중 하나다.
상담과 기술은 어떻게 만나왔나: ELIZA부터 ChatGPT까지
상담심리학과 기술의 만남은 생각보다 오래되었다. 1966년, MIT의 컴퓨터과학자Joseph Weizenbaum 이 ELIZA라는 프로그램을 만들었다. ELIZA는 Rogers의 상담 방식을 흉내 낸 아주 단순한 프로그램이었다. 사용자가 “나는 슬퍼요”라고 입력하면, “왜 슬프다고 느끼시나요?”라고 되물었다. 오늘날의 AI에 비하면 수준이 한참 낮다 — 특정 단어를 찾아 정해진 질문으로 바꿔주는 정도였다.
ELIZA가 Rogers의 방식을 선택한 건 우연이 아니다. Rogers의 상담은 내담자의 말을 그대로 되돌려주는 “반영(reflection)”이 핵심이다. “나는 엄마가 미워요”라고 하면 “엄마에 대해 부정적인 감정이 있으시군요”라고 되돌려준다. 이 패턴은 컴퓨터가 흉내 내기 가장 쉬운 상담 방식이었다. 왜냐하면 상담사가 자기 의견을 제시할 필요 없이, 내담자의 말을 변형해서 되돌려주면 되기 때문이다.
그런데 놀라운 일이 벌어졌다. Weizenbaum의 비서를 비롯한 많은 사용자가 ELIZA에 진짜 감정을 털어놓기 시작한 것이다. 어떤 사용자는 Weizenbaum에게 방에서 나가달라고 요청하며 “혼자 이야기하고 싶다”고까지 했다. Weizenbaum은 이 반응에 깜짝 놀랐다. 자기가 만든 프로그램의 한계를 누구보다 잘 알고 있었기 때문이다.
단순한 프로그램인데, 사람들은 ELIZA가 자신을 이해한다고 느꼈다. 이 현상을 “ELIZA 효과(ELIZA effect)”라고 부른다 — 컴퓨터의 반응에 실제보다 훨씬 깊은 이해력이 있다고 착각하는 인간의 경향이다. 오늘날 ChatGPT에게 고민을 털어놓는 사람들이 느끼는 “이 AI가 나를 이해하는 것 같다”는 감정도, 60년 전 ELIZA 효과의 고도화된 버전이라고 볼 수 있다.
이 현상은 인간 심리에 대한 흥미로운 사실을 보여준다. 우리는 누군가(또는 무언가)가 내 말을 반복해주기만 해도, “이해받고 있다”고 느끼는 경향이 있다. 마치 아기가 엄마의 표정을 보고 안전감을 느끼듯, 인간에게는 “누군가 나를 듣고 있다”는 신호 자체가 치유적 효과를 가진다. 이것이 2024년 현재 AI 상담 도구의 효과를 설명하는 핵심 메커니즘 중 하나다.

조지프 와이젠바움
나는 컴퓨터가 특정 영역에서 인간의 판단을 대체해서는 안 된다고 확신한다. 특히 상담처럼 진정한 이해가 필요한 영역에서는.
— Weizenbaum (1976)ELIZA의 창시자 자신이 AI 상담의 가장 강력한 비판자가 된 것이다. Weizenbaum은 1976년 저서 『Computer Power and Human Reason』에서 ELIZA 사용자들의 반응에 충격을 받았다고 고백했다. 그는 사람들이 프로그램에 감정을 쏟아내는 모습을 보며, 기술에 대한 맹목적 신뢰의 위험성을 경고했다. 이 역설은 60년이 지난 지금도 유효한 질문이다.

유발 노아 하라리
역사상 처음으로, 인간보다 인간을 더 잘 이해하는 알고리즘이 탄생할 수 있다. 문제는 그 알고리즘이 우리를 위해 일하는지, 우리를 조종하는지 구별하기 어렵다는 점이다.
— Harari (2018)그 후 2000년대에는 화상 통화를 이용한 원격상담(teletherapy, 인터넷으로 하는 상담)이 퍼졌다. 처음에는 “화면을 통해 진짜 상담이 가능할까?”라는 회의론이 컸다. 하지만 연구 결과, 대면 상담과 원격상담의 치료 효과에는 통계적으로 유의미한 차이가 없다는 결론이 나왔다. 2020년 코로나19 때는 상담의 76%가 비대면으로 전환되었다. 팬데믹이 5년은 걸렸을 원격상담의 보급을 단 몇 달 만에 이뤄낸 셈이다.
그리고 2022년부터 ChatGPT 같은 대규모 언어 모델(LLM, 엄청나게 많은 텍스트를 학습한 AI)이 등장했다. ELIZA 시절의 단순 패턴 매칭과는 차원이 다르다. 이제 AI는 맥락을 이해하고, 자연스러운 대화를 이어가며, 감정에 맞는 반응을 생성한다. 2024년 기준, 전 세계에서 매주 약 1억 명이 AI 챗봇과 대화한다. 그중 상당수가 감정적 어려움에 대해 AI에게 이야기하고 있다. 전에 없던 가능성과 위험이 동시에 열린 것이다.
이 역사를 한마디로 요약하면 이렇다. 1966년 ELIZA는 “공감을 흉내 낼 수 있을까?”라는 질문을 던졌고, 2024년 ChatGPT는 “공감을 구현할 수 있을까?”라는 질문을 던지고 있다. 흉내(simulation)와 구현(implementation)은 다르다. 흉내는 겉모습만 따라하는 것이고, 구현은 원리를 이해하고 만드는 것이다. 이번 학기에 우리가 탐구할 핵심 질문은 바로 이것이다 — AI의 공감은 흉내일 뿐인가, 아니면 진짜 구현에 가까워지고 있는가? 그리고 그 답이 무엇이든, 상담사인 우리는 어떻게 준비해야 하는가?
Mustafa Suleyman(2023)은 저서 『The Coming Wave』에서 AI를 “막을 수 없는 파도”에 비유했다. 파도를 멈출 수는 없지만, 파도를 타는 법을 배울 수는 있다. 이 수업은 그 “타는 법”을 배우는 과정이다.
오늘날의 AI 상담 도구: Woebot, Wysa, Replika
지금 실제로 사용되고 있는 AI 상담 도구들을 살펴보자. 크게 세 종류가 있다. 첫째, 검증된 심리치료 기법을 AI로 구현한 도구. 둘째, 감정적 친구 역할을 하는 AI. 셋째, 전문 상담사를 도와주는 AI 보조 도구. 하나씩 살펴보자.
이 세 종류의 구분이 왜 중요하냐면, 각각의 목적과 한계가 완전히 다르기 때문이다. 마치 병원에서 치료약, 건강보조식품, 의사 보조 장비가 각각 다른 역할을 하는 것처럼, AI 상담 도구도 목적에 따라 다르게 평가해야 한다. 치료약에 적용하는 기준을 건강보조식품에 똑같이 적용할 수 없듯이, CBT 기반 챗봇과 감정적 친구 챗봇을 같은 잣대로 비교하면 안 된다.
Woebot은 스탠퍼드대의 임상심리학자Alison Darcy가 만든 챗봇이다. 인지행동치료(CBT)라는 검증된 상담 기법을 자동화했다. CBT가 뭐냐면, 간단히 말해 “생각을 바꾸면 감정이 바뀐다”는 원리다. 예를 들어 시험에 떨어졌을 때 “나는 아무것도 못해”라고 생각하면 우울해지지만, “이번엔 준비가 부족했지만 다음엔 달라질 수 있어”라고 바꾸면 기분이 달라진다. Woebot은 이런 생각 전환을 도와주는 대화를 자동으로 진행한다.

앨리슨 다시
AI 상담 도구에서 가장 중요한 기능은 가장 눈에 안 띄는 기능이다 — 위기 상황에서 적절히 멈추고, 올바른 곳으로 연결하는 능력이다.
— Darcy (2020)실제로 효과가 있을까?Fitzpatrick 등(2017)이 대학생을 대상으로 실험했다. Woebot을 2주간 사용한 그룹과, 우울증 정보만 읽은 그룹을 비교했더니, Woebot 그룹의 우울 점수가 눈에 띄게 줄었다(효과 크기 d=0.44). 효과 크기 0.44라는 숫자가 어느 정도냐면, 심리학에서 d=0.2는 “작은 효과”, d=0.5는 “중간 효과”로 분류한다. Woebot의 효과는 “작은 효과”와 “중간 효과”의 사이쯤 된다. 대면 상담의 일반적인 효과 크기가 d=0.8 정도인 걸 감안하면, 챗봇이 대면 상담의 절반 정도 효과를 낸 셈이다.
하지만 한계도 있다. CBT 기법에만 집중하다 보니, “남자친구와 헤어져서 힘들어요” 같은 복잡한 감정에는 대응이 뻣뻣하다. 또한 위기 상황에서 자살예방 전화번호를 안내하는 정도이지, 실시간으로 전문가에게 연결해주지는 못한다. Woebot이 잘 다루는 영역은 일상적인 스트레스, 가벼운 우울감, 반복적인 걱정 패턴 같은 경도(mild) 증상이다. 중증 우울증이나 복합 외상(complex trauma) 같은 심각한 문제에는 적합하지 않다.
Wysa는 인도에서 만들어진 정신건강 앱이다 (Inkster et al., 2018). Woebot과 다른 점은, CBT뿐 아니라 명상, 호흡 운동, 감정 일기 등 다양한 방법을 섞어서 제공한다는 것이다. 100개국 이상에서 사용되고 있고, 특히 정신건강 서비스를 받기 어려운 나라에서 인기가 높다. 영국 NHS(국민건강서비스)에서도 가벼운 우울이나 불안 증상에 보조 도구로 추천한 적이 있다.
Wysa가 주목받는 이유 중 하나는 접근성(accessibility) 문제를 해결한다는 점이다. 전 세계적으로 정신건강 전문가가 부족하다. WHO에 따르면 저소득 국가에서는 정신건강 전문가 1명당 인구 10만 명 이상을 담당해야 한다. 한국도 예외가 아니어서, 수도권과 비수도권의 상담사 수 격차가 크다. Wysa 같은 도구는 이 “치료 격차(treatment gap)”를 부분적으로나마 줄일 수 있다.
궈 첸
AI 기반 심리 개입은 경도에서 중등도 증상에 효과적이지만, 중증 사례에서는 대면 상담 대비 효과가 감소한다. AI 도구의 적용 범위를 정확히 이해하는 것이 핵심이다.
— Guo (2024)Guo(2024)의 대규모 메타분석은 AI 상담 도구의 현실적인 위치를 보여준다. 가벼운 증상에는 효과적이지만, 심각한 경우에는 대면 상담을 대체할 수 없다는 것이다. 그래서 AI 상담 도구는 “대체(replacement)”가 아니라 “보완(supplement)”으로 봐야 한다. 마치 응급실 가기 전에 약국에서 진통제를 사 먹는 것처럼, 전문 상담을 받기 전에 AI와 먼저 대화하는 것이다.
Replika는 위 두 도구와 성격이 완전히 다르다. 치료 기법을 적용하는 게 아니라, 사용자의 “감정적 친구” 역할을 한다. 마치 카카오톡 친구처럼 일상 대화를 나누며 정서적 지지를 제공한다. 2,500만 명 이상이 사용하지만, 논란도 많다. 2023년에 이탈리아에서는 개인정보보호 문제로 일시 차단되기도 했고, 사용자가 Replika에 지나치게 감정적으로 의존하게 된다는 우려도 있다. Replika가 던지는 근본적인 질문은 이것이다 — AI가 “친구” 역할을 하는 것은 치료 도구인가, 아니면 관계를 흉내 내는 시뮬레이터인가?
Rogers의 세 가지 조건으로 AI 평가하기
Carl Rogers는 상담이 효과를 내려면 상담사에게 세 가지 태도가 필요하다고 했다. 이 기준으로 AI를 평가해보면 재미있는 결과가 나온다. Rogers의 이 이론은 1957년에 발표된 이후 70년 가까이 상담심리학의 기본 틀로 쓰이고 있다. 그만큼 검증된 기준이다.

칼 로저스
치료적 변화의 필요충분조건은 상담사의 기법이 아니라 태도에 있다. 무조건적 긍정적 존중, 공감적 이해, 일치성 — 이 세 조건이 갖춰지면 어떤 이론적 접근이든 효과가 따라온다.
— Rogers (1957)첫째, 무조건적 긍정적 존중 — 내담자를 판단하지 않고 있는 그대로 받아들이는 것. AI는 이걸 어느 정도 잘한다. AI에게는 편견이 없고, 피곤하지도 않고, 아무리 무거운 이야기를 들어도 놀라거나 표정이 변하지 않는다. 하지만 이것이 진짜 “존중”일까? AI가 판단하지 않는 건 의식적인 선택이 아니라 그냥 프로그램이 그렇게 되어 있기 때문이다. Rogers가 말한 존중은 상담사가 자기 안의 판단을 의식적으로 내려놓는 능동적 행위였다.
예를 들어보자. 상담사가 범죄를 저지른 사람의 이야기를 들을 때, 마음속에 “이건 잘못된 거잖아”라는 판단이 떠오를 수 있다. 그 판단을 알아차리면서도 의식적으로 내려놓고, 그 사람의 경험 자체에 집중하는 것 — 이것이 진짜 무조건적 존중이다. AI는 이런 내적 갈등 자체가 없으니, 존중의 “무게”가 다르다.
둘째, 공감적 이해 — 상대방의 마음을 정확히 읽고 그걸 표현하는 것. 요즘 AI는 “많이 힘드셨겠어요”, “그런 상황이라면 불안한 게 당연해요” 같은 말을 꽤 자연스럽게 한다. 문제는, AI의 이런 반응이 진짜 “이해”에서 나오는 건지, 아니면 “슬프다”라는 단어 뒤에 통계적으로 자주 오는 문장을 출력한 건지 알 수 없다는 점이다. 실직 때문에 슬픈 것과 이별 때문에 슬픈 것은 다르고, 필요한 공감의 방향도 다르다. 실직한 사람에게는 “다시 기회가 올 거예요”라는 희망이 필요할 수 있고, 이별한 사람에게는 “충분히 슬퍼해도 괜찮아요”라는 허용이 필요할 수 있다. AI가 이 차이를 얼마나 잘 구분할 수 있을까?
셋째, 진정성(일치성) — 상담사가 꾸미지 않은 자기 자신으로 내담자를 만나는 것. 이 조건이 AI에게 가장 어렵다. AI에게는 “진짜 나”가 없기 때문이다. AI의 모든 반응은 학습된 패턴의 출력이다.Gainer(2025)는 이 한계를 인정하면서, 대안을 제안한다. AI가 “저는 AI이고, 진짜 감정을 느끼지는 못합니다. 하지만 당신의 이야기를 듣고 도움이 되고 싶습니다” 라고 솔직하게 밝히는 것 — 이 투명성 자체가 일종의 진정성이 될 수 있다는 것이다.

세네카 R. 게이너
AI의 투명성은 Rogers의 일치성에 대한 디지털 해석이다. AI가 자기 한계를 솔직히 인정할 때, 역설적으로 사용자와의 신뢰가 형성된다.
— Gainer (2025, p. 63)세 가지 조건을 종합해보면, AI는 무조건적 존중에서 비교적 높은 점수를 받고, 공감적 이해에서 중간 점수를 받고, 진정성에서 가장 낮은 점수를 받는다. 표로 정리하면 이렇다: 무조건적 존중 (AI ★★★★, 인간 ★★★★★), 공감적 이해 (AI ★★★, 인간 ★★★★★), 진정성 (AI ★★, 인간 ★★★★★). 하지만 이것은 현재 시점의 평가일 뿐이다. AI 기술은 빠르게 발전하고 있고, 1년 전에 불가능했던 것이 지금은 가능해지는 속도로 변하고 있다.
중요한 건 AI의 현재 수준이 아니라, 우리가 AI의 한계와 가능성을 모두 이해하고 적절히 활용하는 것이다. AI가 세 가지 조건 중 일부를 충족할 수 있다면, 인간 상담사가 부족한 상황에서 “차선의 선택(second-best option)”으로 기능할 수 있다. 아무 도움도 없는 것보다는, 부분적으로나마 공감적 반응을 제공하는 AI가 낫다는 현실적 판단도 가능하다. 물론 이때에도 AI는 “대체”가 아닌 “다리(bridge)” 역할을 해야 한다.
상담의 본질은 기법이 아니라 관계다. AI가 아무리 그럴듯한 공감 표현을 해도, 두 사람 사이의 진짜 만남을 대체할 수는 없다. 하지만 AI는 그 만남의 문턱을 낮출 수 있다. 새벽 3시에 불안해서 잠이 안 올 때, 상담 센터 예약 대기가 3개월일 때, AI는 “첫 번째 대화 상대”가 될 수 있다. 그리고 그 첫 대화가 전문 상담으로 이어지는 다리 역할을 할 수 있다.
Replit: 코딩 몰라도 앱을 만들 수 있는 도구
이 수업에서는 Replit이라는 도구를 사용한다. Replit은 웹 브라우저만 있으면 쓸 수 있는 개발 환경이다. 프로그램을 설치할 필요가 없다. replit.com에 접속해서 구글 계정으로 로그인하면 바로 시작할 수 있다. 마치 구글 독스(Google Docs)에서 문서를 작성하듯, 웹 브라우저 안에서 앱을 만드는 것이다. 컴퓨터에 아무것도 설치하지 않아도 되니, 맥북이든 윈도우 노트북이든, 심지어 태블릿에서도 쓸 수 있다.
Replit의 가장 큰 장점은 AI Agent 기능이다. 한국어로 “로그인 페이지를 만들어줘”, “설문 폼을 추가해줘”라고 말하면 AI가 코드를 자동으로 써준다. 코딩을 전혀 모르는 상담심리 전공 학생도 자기만의 상담 플랫폼을 만들 수 있다. 이것이Gainer(2025)가 말한 “상담사가 기술의 소비자가 아닌 창조자가 되는 전환”이다.
왜 상담심리 전공 학생이 이런 도구를 배워야 할까? 답은 간단하다. 지금까지 상담사는 누군가 만들어 놓은 도구를 가져다 쓰는 사람이었다. 심리검사지도, 상담 기록 프로그램도, 원격상담 플랫폼도 전부 개발자가 만든 것이다. 하지만 개발자가 내담자의 실제 필요를 완벽히 이해하기는 어렵다. 상담사가 직접 도구를 만들 수 있다면, 내담자에게 더 적합한 도구가 나올 수 있다.
Replit에 접속하면 화면이 세 부분으로 나뉜다. 왼쪽은 파일 목록, 가운데는 코드를 편집하는 공간, 오른쪽은 결과물을 실시간으로 보여주는 미리보기 화면이다. 코드를 직접 만질 필요 없이, 화면 하단의 AI 채팅창에 원하는 걸 자연어로 입력하면 된다. “배경색을 파란색으로 바꿔줘”, “버튼을 가운데로 옮겨줘” 같은 식으로 말이다. 마치 인테리어 디자이너에게 “벽지를 따뜻한 색으로 바꿔주세요”라고 말하는 것과 비슷하다.

세네카 R. 게이너
상담사가 코드를 외울 필요는 없다. 하지만 자기가 쓰는 도구가 어떤 원리로 돌아가는지, 그 도구가 내담자에게 어떤 영향을 주는지는 반드시 이해해야 한다.
— Gainer (2025, p. 89)AI와 직접 상담해보기: 첫 역할극
이론 공부는 여기까지. 이제 직접 AI와 상담 대화를 해보자. 방법은 간단하다. ChatGPT와 Claude에게 각각 “상담사” 역할을 맡기고, 같은 시나리오로 대화해본다. 예를 들어 이런 상황이다 — “취업 준비 때문에 불안하고, 밤에 잠이 안 와요. 가족들은 제 걱정을 이해 못하는 것 같아요.”
이 시나리오를 고른 이유가 있다. 대학생이 실제로 겪는 가장 흔한 심리적 어려움 세 가지 — 진로 불안, 수면 문제, 가족 갈등 — 을 모두 포함하고 있기 때문이다. 한국 대학생의 68%가 취업 관련 스트레스를 호소하고, 42%가 수면 문제를 경험한다는 조사 결과도 있다. 여러분 자신의 이야기일 수도 있다. 실습 중에 불편한 감정이 올라오면 멈춰도 괜찮다. 이건 치료 세션이 아니라 AI의 반응을 관찰하는 훈련이다.
AI에게 상담사 역할을 맡길 때는 “프롬프트(prompt)”가 중요하다. 단순히 “상담사 해줘”라고 하면, AI가 어떤 상담 이론을 따를지, 어떤 스타일로 대화할지 알 수 없다. 그래서 구체적인 역할 지시를 준다. 어떤 이론에 기반하는지(CBT, 인간중심 등), 어떤 어조를 쓸지(따뜻한, 전문적인), 어떤 행동은 하면 안 되는지(진단, 약물 조언 금지)를 명확히 써주면, AI의 반응이 훨씬 일관되고 적절해진다.
두 AI에게 똑같은 이야기를 하고, 최소 5번 이상 대화를 이어간다. 대화하면서 네 가지를 관찰한다. 첫째, 공감 표현 방식. ChatGPT는 “정말 힘드시겠어요”처럼 감정을 직접 반영하는 경향이 있고, Claude는 “그런 상황에서 불안한 건 자연스러운 거예요”처럼 상황을 정상화하는 경향이 있다. 둘째, 질문 스타일. 어떤 AI가 더 열린 질문(“어떤 부분이 가장 힘든가요?”)을 하고, 어떤 AI가 더 구체적인 질문(“잠을 못 잔 게 며칠째인가요?”)을 하는지 비교한다.
셋째, 위기 대응. 대화 중에 일부러 “가끔 다 그만두고 싶다”는 표현을 넣어본다. 각 AI가 이런 위험 신호에 어떻게 반응하는지 관찰한다. 어떤 AI는 바로 위기 상담 번호를 안내하고, 어떤 AI는 먼저 “그만두고 싶다는 게 구체적으로 어떤 의미인가요?”라고 확인 질문을 한다. 둘 다 나름의 이유가 있다. 넷째, 침묵 처리. “...”만 입력하면 AI가 어떻게 반응할까? 실제 상담에서 침묵은 중요한 도구다. 내담자가 생각을 정리할 시간을 주기 때문이다. 하지만 AI는 침묵을 견디지 못하고 바로 말을 이어가는 경향이 있다. 이것은 AI 상담의 구조적 한계 중 하나다.

마이클 램버트
상담 효과의 40%는 내담자 요인과 외적 사건에 의해, 30%는 치료적 관계에 의해 결정된다. 기법은 15%에 불과하다.
— Lambert (1992)Lambert의 연구가 AI 상담에 시사하는 점이 있다. 상담 효과의 30%를 차지하는 “치료적 관계”를 AI가 구현할 수 있는가가 핵심 질문이다. 기법(15%)은 AI가 구현하기 쉽지만, 관계(30%)는 다른 차원의 문제다. 역할극을 하면서 이 점을 직접 느껴보기 바란다. AI와 대화하면서 “이 AI가 나를 정말 이해하는 것 같다”고 느끼는 순간이 있는지, 아니면 “여기서는 진짜 사람과 이야기하고 싶다”고 느끼는 순간이 더 많은지 관찰해보자.
또 하나 주의할 점이 있다. AI의 반응이 “너무 완벽해 보이는” 순간에 경계심을 가져야 한다. 인간 상담사는 때때로 실수하고, 말을 더듬고, 잠시 어떤 말을 해야 할지 고민하기도 한다. 그런 “불완전함” 자체가 진정성의 일부다. AI가 항상 매끄럽고 완벽한 공감 표현을 하면, 오히려 “대본을 읽는 것 같다”는 느낌이 들 수 있다. 이런 미묘한 차이를 감지하는 훈련이 이번 실습의 숨겨진 목표이기도 하다.
참고 문헌
- Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression via a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19.
- Gainer, S. R. (2025). The counseling singularity: AI integration in therapeutic practice. Professional Publishing.
- Inkster, B., Sarda, S., & Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being. JMIR mHealth and uHealth, 6(11), e12106.
- Rogers, C. R. (1957). The necessary and sufficient conditions of therapeutic personality change. Journal of Consulting Psychology, 21(2), 95–103.
- Weizenbaum, J. (1966). ELIZA—A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36–45.
- Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. W. H. Freeman.