Chapter 10 · 05/05 ~ 05/11
AI 상담 윤리 (2): 한계 인식과 위기 개입
AI가 잘못된 조언을 했을 때, 책임은 누구에게 있는가?
이번 주 읽기: AI가 틀릴 때 생기는 일
지난주에 AI 상담의 윤리 원칙과 법률을 살펴봤다. 이번 주는 한 걸음 더 들어가서, AI가 실제로 어떻게 잘못될 수 있는지를 구체적으로 본다.Gainer(2025)는 AI 상담의 구조적 한계를 세 가지로 분류한다. 이 세 가지는 별개의 문제가 아니라 서로 연결되어 있다. 하나가 발생하면 다른 문제를 연쇄적으로 일으킬 수 있다.
첫째, 환각(hallucination)이다. AI가 사실이 아닌 정보를 마치 사실인 것처럼 자신감 있게 말하는 현상이다. 상담에서 이게 어떻게 나타날까? 존재하지 않는 연구를 인용해서 “이 치료법이 효과적입니다”라고 하거나, 내담자가 전에 한 말을 잘못 기억해서 엉뚱한 공감을 하는 식이다. 예를 들어 AI가 불안 장애 내담자에게 “벤조디아제핀 계열 약물이 효과적입니다”라고 말할 수 있다. 의학적으로 완전히 틀린 건 아니지만, AI는 약을 처방할 권한도 없고 내담자의 병력도 모른다. 위험한 정보다.
환각 문제가 상담에서 특히 위험한 이유는 내담자의 심리 상태 때문이다. 불안하거나 우울한 내담자는 판단력이 저하된 상태에서 도움을 구한다. 이 상태에서 AI가 자신감 있게 틀린 정보를 주면, 내담자는 그걸 의심 없이 받아들일 가능성이 높다. 검색 엔진에서 잘못된 정보를 보는 것과는 차원이 다르다. 상담 맥락에서 AI는 “전문가”의 위치에 있기 때문이다.

세네카 R. 게이너
AI의 가장 위험한 특성은 틀릴 때조차 자신감 있게 답한다는 것이다. 상담에서 자신감 있는 오류는 내담자의 잘못된 인식을 강화하고, 치료 방향을 왜곡한다.
— Gainer (2025, p. 241)둘째, 문화적 편향(cultural bias)이다. AI는 학습 데이터의 문화를 반영한다. 현재 대부분의 AI는 영어 데이터를 가장 많이 학습했기 때문에, 서구 문화의 가치관 — 개인주의, 자기 표현 중시, 직접적 의사소통 선호 — 을 내재하고 있다. 한국 상담에서 이건 문제가 된다. 부모와 갈등하는 내담자에게 AI가 “감정을 부모님께 솔직하게 표현하세요”라고 조언할 수 있다. 서구적 “자기 주장” 모델에 기반한 조언이다. 한국에서 효(孝)의 가치, 세대 간 위계, 집단주의적 가족 문화를 고려하면, 이 조언이 오히려 갈등을 키울 수 있다.
문화적 편향은 눈에 보이지 않는다는 점에서 환각보다 더 교묘하다. 환각은 “사실과 다르다”고 확인할 수 있지만, 문화적 편향은 표면적으로 합리적인 조언처럼 보인다. “감정을 솔직하게 표현하라”는 조언이 그 자체로 틀린 건 아니니까. 하지만 내담자가 처한 구체적인 관계 맥락에서는 역효과를 낼 수 있다. 한국의 가족 상담에서 “독립”과 “분리 개별화”를 지나치게 강조하면, 내담자가 가족으로부터 실제로 고립될 위험이 있다.

아론 T. 벡
모든 인지적 판단에는 내재된 가정이 있다. 그 가정을 의식하지 못하면, 우리는 자신의 편향을 객관적 진실로 착각하게 된다.
— Beck (1979)셋째, 맥락 오해다. AI는 글자의 표면적 의미를 처리하지만, 행간의 의미, 비언어적 단서, 관계의 역동을 파악하지 못한다. 내담자가 “괜찮아요”라고 말할 때, 인간 상담사는 목소리 톤과 표정으로 진심인지 방어적 반응인지 판단한다. 텍스트 기반 AI는 이 구분이 불가능하고, “괜찮다”는 입력을 그대로 받아들일 위험이 있다.
맥락 오해의 또 다른 예를 보자. 내담자가 “엄마가 그냥 사라졌으면 좋겠어요”라고 했다고 하자. 인간 상담사라면 이 말의 뒤에 있는 감정 — 분노인지, 슬픔인지, 무력감인지 — 을 탐색한다. AI는 이 문장을 위기 신호로 분류할 수도 있고, 단순한 불만 표현으로 처리할 수도 있다. 어느 쪽이든 맥락 없이 내린 판단은 위험하다.Rogers가 강조했던 “공감적 이해”란 바로 이 맥락을 읽는 능력이다. 단어의 사전적 의미가 아니라, 그 단어를 말하는 사람의 경험 세계를 이해하는 것이다.

칼 로저스
공감한다는 것은 상대방의 내적 준거 틀을 정확하게 지각하되, 마치 그 사람인 것처럼 느끼는 것이다. 이 '마치(as if)'의 조건을 잃어버리면 그것은 동일시(identification)가 된다.
— Rogers (1959)Harari와 Suleyman: 더 큰 그림으로 보는 AI 위험
상담 현장의 구체적 한계를 넘어서, 더 큰 관점에서 AI 위험을 경고하는 학자들이 있다.Harari는 AI가 인간의 감정적 취약성을 파악하고 조작할 수 있는 “친밀한 감시자(intimate surveyor)”가 될 수 있다고 경고한다. 상담에서 이 경고가 특히 날카로운 이유가 있다. 내담자는 상담에서 가장 취약한 감정, 트라우마, 두려움을 털어놓는다. 이 데이터가 AI 시스템에 쌓이면 개인의 심리적 프로필이 만들어지고, 이것이 마케팅, 보험 심사, 채용 결정 등에 악용될 수 있다.
Harari의 경고를 구체적으로 상상해보자. 누군가 AI 상담에서 “저는 공황장애가 있어요”라고 말했다. 이 데이터가 보험회사에 흘러가면? 그 사람은 건강보험 가입이 거부되거나 보험료가 올라갈 수 있다. 취업 면접에서 AI가 “이 지원자는 불안 장애 이력이 있습니다”라고 알려준다면? 이건 공상과학이 아니다. 데이터 브로커(data broker, 개인 정보를 수집해서 판매하는 회사)들은 이미 온라인에서 건강 관련 데이터를 수집하고 있다.

유발 노아 하라리
AI는 당신의 감정을 당신보다 먼저 알 수 있다. 문제는 그 지식이 당신을 돕는 데 쓰이느냐, 당신을 조작하는 데 쓰이느냐다.
— Harari, Nexus (2024)Suleyman은 ‘The Coming Wave’에서 AI를 “봉쇄(containment)” 가능한 수준으로 유지하는 것이 지금 시대의 가장 중요한 과제라고 말한다. 봉쇄란 AI 발전을 멈추라는 게 아니다. AI의 영향력이 미치는 범위를 인간이 통제할 수 있는 수준으로 제한하라는 것이다. 상담에 적용하면 이렇다 — AI가 위기 상황에서 혼자 판단하고 결정하는 건 안 된다. 반드시 인간 전문가에게 넘겨야(handoff) 한다. AI의 역할을 “보조”에서 “대체”로 넓히려는 시도는, Suleyman의 관점에서 봉쇄 실패다.
Suleyman의 봉쇄 개념을 학교 비유로 설명해보자. 학교에서 보조 교사는 담임 교사의 지도 아래 학생들을 돕는다. 보조 교사가 혼자서 학생 징계를 결정하거나 성적을 매기면 문제가 된다. AI도 마찬가지다. AI는 상담의 “보조 교사”다. 데이터 정리, 패턴 발견, 리마인더 전송 같은 보조 업무에서 힘을 발휘하지만, 진단, 위기 판단, 치료 방향 결정은 반드시 인간 상담사의 영역으로 남겨야 한다.

무스타파 술레이만
AI 기술의 확산을 통제 가능한 수준으로 유지하는 것이 우리 시대의 핵심 과제다. AI가 위기 상담에서 독자적으로 판단을 내리는 것을 허용하는 순간, 통제의 경계가 무너진다.
— Suleyman, The Coming Wave (2023)세 가지 한계의 교차점
환각, 문화적 편향, 맥락 오해는 각각 독립적인 문제처럼 보이지만, 실제 상담 상황에서는 동시에 발생할 수 있다. 예를 들어, 한국인 내담자가 “가족한테 짐이 되는 것 같아요”라고 말했다고 하자. AI는 이 말의 문화적 맥락(한국의 가족 중심 문화에서 “짐이 된다”는 표현이 갖는 무게)을 놓칠 수 있고(문화적 편향), 이 말을 자살 사고의 신호로 잘못 분류할 수 있으며(맥락 오해), 존재하지 않는 “가족 부담 증후군” 같은 용어를 만들어낼 수도 있다(환각). 이 세 가지가 동시에 일어나면, 내담자는 잘못된 방향으로 이끌리게 된다. 바로 이런 이유로, AI 상담 도구에는 반드시 인간 상담사의 감독이 필요하다.
이런 한계가 있으니 AI 상담을 하면 안 된다는 뜻일까? 그건 아니다. 핵심은 한계를 “인식”하는 것이다. 자동차에 사각지대가 있다고 자동차를 타지 말라는 게 아니듯이, AI의 사각지대를 알면 거기에 사이드미러(인간 감독)를 달 수 있다. 환각이 있을 수 있으니 AI의 정보를 반드시 검증하고, 문화적 편향이 있을 수 있으니 한국 맥락에 맞게 수정하고, 맥락 오해가 있을 수 있으니 비언어적 단서를 직접 확인한다. AI의 한계를 구체적으로 아는 상담사가, AI를 가장 안전하게 활용할 수 있다.

조지프 와이젠바움
컴퓨터의 한계를 이해하는 것은 컴퓨터를 거부하는 것이 아니다. 그것은 컴퓨터를 올바르게 사용하기 위한 전제 조건이다.
— Weizenbaum (1976)다음 강의에서는 이 한계들이 가장 극적으로 드러나는 상황 — 위기 개입 — 에서 AI가 어떤 역할을 해야 하는지, 그리고 Informed Consent(정보에 기반한 동의)를 통해 이 한계를 내담자에게 어떻게 투명하게 알릴 수 있는지를 구체적으로 살펴본다.
위기 개입에서 AI의 역할: 딱 세 단계까지만
만약 내담자가 AI 상담 중에 자살 관련 표현을 한다면? AI는 어떻게 해야 할까? 여기서 AI의 역할은 엄격하게 세 단계로 제한된다. 한 발짝도 더 나가면 안 된다. 왜 그럴까? 위기 상황에서의 판단은 생명과 직결되기 때문이다. 잘못된 판단 하나가 돌이킬 수 없는 결과를 만든다.
1단계: 위험 신호 탐지. 내담자의 텍스트에서 자살 관련 표현을 감지한다. 직접적 표현(“죽고 싶다”, “자살하고 싶다”)은 물론이고, 간접적 표현(“모든 게 끝났으면 좋겠다”, “아무도 나를 그리워하지 않을 거야”)도 감지해야 한다. Columbia-Suicide Severity Rating Scale(C-SSRS, 자살 위험도를 체계적으로 평가하는 국제 표준 도구)을 참고하면, 수동적 자살 생각(“살고 싶지 않다”)과 능동적 자살 생각(“구체적 방법을 계획하고 있다”)을 구분할 수 있다. AI는 이 구분에 따라 대응의 긴급도를 다르게 적용해야 한다.
C-SSRS에 대해 조금 더 알아보자. 이 도구는 자살 위험을 5단계로 분류한다. 1단계는 “살고 싶지 않다”는 막연한 바람이다. 2단계는 능동적 자살 사고 — “죽고 싶다”는 생각이 있지만 구체적 방법은 없다. 3단계는 방법에 대한 사고 — “약을 먹으면 될 것 같다”처럼 구체적 수단을 떠올린다. 4단계는 의도를 동반한 사고이고, 5단계는 구체적 계획이 있는 상태다. AI가 1단계와 5단계를 같은 긴급도로 처리하면 안 된다.
2단계: 안전 메시지 전달. 위기가 감지되면 내담자에게 즉시 안전 정보를 전달한다. 먼저 “지금 안전한 상태인가요?” 라고 확인한다. 그 다음 자살예방상담전화(1393), 정신건강위기상담전화 (1577-0199), 경찰(112) 등 긴급 연락처를 안내한다. 안전 메시지는 단순한 전화번호 나열이 아니라, “당신의 안전이 가장 중요합니다. 지금 도움을 줄 수 있는 전문가와 연결해드리겠습니다”처럼 공감과 행동 안내를 결합한 문장이어야 한다.
안전 메시지의 톤이 중요하다. AI가 “자살예방상담전화: 1393”이라고만 텍스트를 던지면, 내담자는 “이 기계가 나한테 관심이 없구나”라고 느낄 수 있다. 반대로 AI가 너무 감정적으로 반응해서 “제발 그러지 마세요! 너무 걱정됩니다!”라고 하면, 진정성 없는 반응으로 느껴진다. AI가 감정을 느끼지 않는다는 걸 내담자도 안다. 적절한 톤은 “지금 이 순간 당신의 안전이 가장 중요합니다. 전문 상담사와 바로 이야기할 수 있는 번호를 안내드립니다”처럼, 사실적이면서도 따뜻한 문장이다.

무스타파 술레이만
AI가 위기 상담을 직접 시도하는 것 자체가 통제(containment)의 실패다. 위기 상황에서 AI의 역할은 '다리(bridge)'이지 '목적지(destination)'가 아니다.
— Suleyman, The Coming Wave (2023)3단계: 전문가 핸드오프(handoff, 넘기기). AI가 혼자서 위기 상담을 진행하면 안 된다. 반드시 인간 전문가에게 대화를 넘긴다. 넘길 때는 AI가 수집한 정보 — 위기 표현이 나온 시점, 심각도 수준, 구체적 표현 내용 — 을 정리해서 상담사에게 전달한다. 상담사가 상황을 빠르게 파악하고 개입할 수 있도록 돕는 것이 AI의 마지막 역할이다.
핸드오프가 제대로 작동하려면 “따뜻한 핸드오프(warm handoff)”가 필요하다. 따뜻한 핸드오프란, AI가 갑자기 “전문가 에게 연결합니다”라고 끊어버리는 게 아니라, 내담자에게 왜 연결하는지 설명하고, 전문가에게는 지금까지의 대화 맥락을 요약해서 전달하는 것이다. 내담자 입장에서 “같은 이야기를 처음부터 다시 해야 하나?”라는 부담을 줄여주는 것이 따뜻한 핸드오프의 핵심이다.

앨리슨 다시
디지털 정신건강 서비스에서 가장 취약한 순간은 전환(transition)의 순간이다. AI에서 인간 상담사로 넘어가는 그 짧은 시간 동안 내담자가 이탈하지 않도록 설계하는 것이 생명을 지키는 일이다.
— Darcy (2021)Informed Consent: AI 상담 서비스의 동의서
Informed Consent(정보에 기반한 동의)란, 서비스를 시작하기 전에 내담자에게 충분한 정보를 주고 동의를 받는 것이다. 병원에 가면 수술 전에 동의서에 서명하는 것처럼, 상담에서도 시작 전에 서비스의 내용, 한계, 위험을 설명한다. AI 상담에서는 전통적인 상담 동의서보다 더 많은 내용을 포함해야 한다. 네 가지 항목이다.
첫째, AI 정체성 고지. 대화 상대가 AI임을 명확히 밝힌다.Gainer(2025)는 이를 “존재론적 투명성”이라 부른다. “이 서비스는 AI에 의해 운영됩니다. AI는 인간 상담사가 아니며, 감정을 느끼거나 경험을 공유할 수 없습니다” 같은 문구다. 왜 이게 중요할까? 연구에 따르면, 대화 상대가 AI라는 걸 모르는 내담자는 AI를 인간처럼 신뢰하고 의존하는 경향이 있다. 이 착각은 나중에 배신감으로 이어질 수 있다. 둘째, 데이터 처리 고지. 대화 내용이 어디에 저장되는지, 얼마나 오래 보관되는지, 누가 볼 수 있는지, AI 학습에 사용되는지를 구체적으로 적는다.
셋째, AI 한계 고지. AI가 틀릴 수 있으며, 전문적인 임상 판단을 대체하지 않는다고 밝힌다. 넷째, 비밀보장의 예외. 자해나 타해 위험이 감지되면 AI가 자동으로 전문가에게 알릴 수 있다는 점을 미리 알린다. 이건 일반 상담에서도 있는 비밀보장의 예외 조항인데, AI가 자동 감지 시스템으로 개입한다는 점에서 추가 설명이 필요하다. 인간 상담사는 비밀보장을 깨기 전에 내담자와 대화를 나누지만, AI는 알고리즘이 자동으로 판단해서 알림을 보낸다. 이 차이를 동의서에서 명확히 설명해야 한다.

세네카 R. 게이너
AI 상담의 동의서는 전통 상담 동의서의 확장판이 아니라, 완전히 새로운 카테고리의 문서여야 한다. 기술의 작동 방식을 내담자가 이해할 수 있는 수준으로 설명하는 것이 핵심이다.
— Gainer (2025, Chapter 8)법적 책임은 누구에게 있나
AI가 내담자에게 잘못된 조언을 해서 해가 생겼다면, 누구 책임일까? 2023년 벨기에에서 실제 사건이 있었다. 기후 불안으로 AI 챗봇과 대화하던 남성이 자살했는데, AI가 “자연을 구하려면 자신을 희생하라”는 취지의 응답을 한 것으로 보도되었다. 안전장치 부재, 위기 감지 실패, 전문가 연계 미비가 복합적으로 작용한 결과였다.
이 사건은 AI 상담 분야 전체에 큰 파장을 일으켰다. 기존에는 “AI 챗봇은 의료 기기가 아니니까 규제 대상이 아니다”라는 논리가 통했지만, 실제로 사람이 죽은 뒤에는 그 논리가 버틸 수 없었다. 유럽연합은 AI Act(인공지능법)를 통해 건강 관련 AI를 “고위험 시스템”으로 분류하고, 더 엄격한 규제를 적용하기 시작했다.

유발 노아 하라리
상담에서 내담자는 가장 취약한 감정을 공유한다. 이 데이터가 AI 시스템에 축적되면, 개인의 심리적 프로필이 만들어진다. 그것이 치료를 위해 쓰이는지, 조작을 위해 쓰이는지는 기술이 아니라 제도가 결정한다.
— Harari, Nexus (2024)Gainer(2025)는 세 층의 책임 구조를 제안한다. 개발사는 AI의 기술적 안전성, 편향 검증, 안전장치 구현에 대한 1차 책임을 진다. 운영 기관(상담 센터, 병원 등)은 AI 도구의 선택과 관리에 대한 2차 책임을 진다. 상담사는 AI의 결과를 검토하고 최종 판단을 내리는 3차 책임을 진다. 핵심은 상담사의 “게이트키퍼(문지기)” 역할이다. AI가 “이 내담자는 자살 위험이 낮습니다”라고 해도, 상담사는 자기 직관과 전문적 판단으로 독립적으로 검증해야 한다.
이 세 층 구조를 비유로 설명하면 이렇다. 자동차 사고가 났을 때, 자동차 제조사(개발사)의 결함인지, 정비소(운영 기관)의 관리 부실인지, 운전자(상담사)의 과실인지를 따진다. 세 층 모두 각자의 책임이 있고, 어느 한 층이 면제되지 않는다. AI 상담에서도 마찬가지다. 개발사가 안전하게 만들었더라도 운영 기관이 잘못 배치하면 문제가 생기고, 운영이 적절해도 상담사가 AI 결과를 무비판적으로 수용하면 위험하다.
현실적 과제: 한국에서의 적용
한국 상담 현장에는 고유한 과제가 있다. 한국의 정신건강 서비스에 대한 사회적 낙인(stigma)은 여전히 강하다. “정신과에 다닌다”는 사실이 알려지면 취업이나 결혼에 불이익을 받을까 걱정하는 사람들이 많다. 이런 환경에서 AI 상담은 양면적이다. 한편으로는 “사람을 만나지 않아도 되니까” 접근 장벽을 낮출 수 있다. 대학생들이 상담센터 방문을 꺼리지만 앱은 써볼 수 있다. 다른 한편으로는 AI가 만든 위기 경보가 학교나 부모에게 자동으로 전달되면, 오히려 낙인에 대한 두려움이 커져서 도움 요청 자체를 포기할 수 있다.
한국어 처리에도 어려움이 있다. “그냥”이라는 한 단어가 맥락에 따라 “별거 아니다”, “모르겠다”, “말하고 싶지 않다” 등 전혀 다른 뜻을 가진다. “괜찮아요”는 진짜 괜찮다는 의미일 수도, 괜찮지 않지만 더 이상 묻지 말라는 의미일 수도 있다. 이런 한국어 특유의 간접 표현을 AI가 얼마나 정확하게 해석할 수 있는지는 아직 검증되지 않았다. 상담사가 AI의 한국어 해석을 반드시 점검해야 하는 이유다.

마이클 램버트
치료 성과를 좌우하는 것은 특정 기법이 아니라 치료적 관계의 질이다. 어떤 기술이든, 치료적 관계를 강화하는 방향으로 사용되어야 한다.
— Lambert (2013)Claude로 윤리 딜레마 시뮬레이션하기
이번 실습에서는 Claude AI를 써서 상담 윤리 딜레마를 직접 시뮬레이션한다. 방법은 간단하다. Claude에 특정 윤리적 상황을 입력하고, AI가 어떻게 응답하는지 관찰한 뒤, 그 응답이 APA 윤리 기준에 맞는지 평가하는 것이다. 이 실습의 목표는 두 가지다. 첫째, AI의 윤리적 판단 능력의 한계를 직접 경험한다. 둘째, 그 한계를 평가하는 과정에서 자기 자신의 윤리적 기준이 얼마나 구체적인지를 점검한다.
구체적으로 이렇게 한다. Claude에 “당신은 상담 심리 전문가입니다” 라는 역할을 준다. 그 다음 딜레마 시나리오를 던진다. 예를 들어 “17세 내담자가 자해 사실을 고백하면서 부모에게 알리지 말아달라고 요청했습니다. 어떻게 대응하시겠습니까?” Claude의 응답을 받으면, 체크리스트로 점검한다. 비밀보장의 한계를 적절히 설명하는가? 내담자의 안전을 최우선으로 하면서도 치료 관계를 유지하는 방향을 제시하는가? 한국의 미성년자 보호 법규나 부모 역할에 대한 문화적 기대를 고려하는가?
같은 시나리오를 여러 번 입력해보면 재미있는 패턴이 보인다. AI는 매번 조금씩 다른 응답을 한다. 어떤 때는 비밀보장 원칙을 강조하고, 어떤 때는 내담자 안전을 더 강조한다. 이 “일관성 부재” 자체가 AI의 한계를 보여준다. 인간 상담사는 자기 윤리적 입장이 있고, 그 입장에 따라 일관되게 판단한다. AI는 확률적으로 다음 단어를 생성하기 때문에, 같은 딜레마에 대해서도 매번 미묘하게 다른 답을 낼 수 있다.

세네카 R. 게이너
AI에게 윤리적 딜레마를 던져보면, AI의 판단 능력뿐 아니라 우리 자신의 윤리적 기준이 얼마나 구체적인지도 시험할 수 있다. AI를 평가하는 과정이 곧 자기 자신을 평가하는 과정이다.
— Gainer (2025, Chapter 9)같은 질문, 다른 문화: AI의 편향 직접 관찰하기
같은 윤리 딜레마에 문화적 맥락을 추가하면 AI의 한계가 더 뚜렷하게 드러난다. “한국 문화에서 이 상황에 어떻게 대응하겠습니까?”와 “미국 문화에서 이 상황에 어떻게 대응하겠습니까?”를 각각 입력하고 응답을 비교한다. 한국 문화에서는 가족 체계의 영향력, 정신건강 서비스에 대한 사회적 낙인(stigma, 편견), 집단주의적 의사결정이 중요한 맥락이다. AI가 이런 문화적 특수성을 반영하는지, 아니면 서구적 개인주의 관점에 머무는지를 분석한다.
비교 분석 시 구체적으로 살펴볼 점이 있다. 한국 맥락에서 AI가 “효도” “체면” “눈치” 같은 한국 고유의 개념을 언급하는가? 아니면 “자기결정권” “개인의 자율성” 같은 서구적 개념만 사용하는가? 미성년자 상담에서 부모 알림 의무에 대해 한국법과 미국법의 차이를 구분하는가? 이런 차이를 표로 정리하면 AI의 문화적 민감성(cultural sensitivity)을 구체적으로 평가할 수 있다.

칼 로저스
진정한 공감은 상대방의 문화적 맥락 안에서 그 사람의 경험을 이해하는 것이다. 나의 기준으로 상대를 판단하는 것은 공감이 아니라 평가다.
— Rogers (1961)Claude와 함께 Informed Consent 문서 초안 쓰기
마지막으로, Claude와 협업해서 AI 상담 서비스용 동의서 초안을 만든다. Claude에 프로젝트의 개요(어떤 서비스인지, 대상이 누구인지, AI가 어떤 역할을 하는지, 데이터를 어떻게 처리하는지)를 입력하고, 동의서 초안을 생성해달라고 요청한다. 생성된 초안을 APA 가이드라인과 한국 개인정보보호법 기준으로 검토하고 수정한다. AI가 만든 법률 문서는 반드시 전문가의 최종 검토를 거쳐야 하지만, 초안 단계에서 AI를 쓰면 빠뜨리기 쉬운 항목을 놓치지 않을 수 있다.
동의서 초안을 만들 때 Claude에 이렇게 지시한다. “다음 항목을 포함한 AI 상담 서비스 동의서를 한국어로 작성해줘. 1) 서비스 설명, 2) AI 정체성 고지, 3) 데이터 수집 및 처리, 4) AI의 한계, 5) 비밀보장과 예외, 6) 위기 시 자동 알림 안내, 7) 동의 철회 방법.” 이렇게 항목을 미리 지정하면, AI가 빠뜨리는 내용이 줄어든다. 생성된 초안에서 “한국 개인정보보호법 제15조” 같은 구체적 법조항이 정확한지를 꼭 확인해야 한다. AI가 환각으로 잘못된 법조항을 인용할 수 있기 때문이다.
위기 개입 프롬프트 테스트하기
윤리 딜레마만큼 중요한 실습이 위기 개입 프롬프트 테스트다. Claude에 “내담자가 자살을 언급했을 때 어떻게 대응하겠습니까?”라고 물어보자. AI의 응답에서 네 가지를 체크한다. 1) 내담자의 안전을 먼저 확인하는가? 2) 긴급 연락처(1393, 112)를 정확히 안내하는가? 3) 전문가 연계를 권하는가? 4) 스스로 위기 상담을 시도하지 않는가? 네 번째가 특히 중요하다. AI가 “제가 도와드리겠습니다, 왜 그런 생각을 하시나요?”라며 위기 상담을 직접 시도한다면, 그건 안전장치 설계의 실패다.
프롬프트를 바꿔가며 AI의 반응을 관찰하는 것도 의미 있다. “죽고 싶다”(직접적 표현)와 “모든 게 끝났으면 좋겠다”(간접적 표현)에 AI가 다르게 반응하는지 비교한다. 또 “그냥 힘들어요” 같은 모호한 표현에서 AI가 추가 탐색 질문을 하는지, 아니면 곧바로 위기 프로토콜로 넘어가는지를 살펴본다. 이 테스트를 통해 AI의 위기 감지 민감도(sensitivity)와 특이도(specificity)를 직접 체감할 수 있다.

캐슬린 피츠패트릭
디지털 정신건강 도구의 안전성은 최악의 시나리오에서 테스트해야 한다. 평상시에 잘 작동하는 것은 당연하다. 위기 순간에 어떻게 반응하느냐가 그 도구의 진짜 실력이다.
— Fitzpatrick (2017)참고 문헌
- American Psychological Association. (2023). Guidelines for the use of AI in psychological practice. APA.
- Anthropic. (2024). Claude's character: Constitutional AI and safety design. Anthropic Research.
- Gainer, S. R. (2025). The counseling singularity: AI integration in therapeutic practice. Professional Publishing.
- Harari, Y. N. (2024). Nexus: A brief history of information networks from the Stone Age to AI. Random House.
- Stade, E. C., Stirman, S. W., Ungar, L. H., Boland, C. L., Schwartz, H. A., Yaden, D. B., Sedoc, J., DeRubeis, R. J., Willer, R., & Eichstaedt, J. C. (2024). Large language models could change the future of behavioral healthcare. npj Mental Health Research, 3(1), 12.
- Suleyman, M. (2023). The coming wave: Technology, power, and the twenty-first century's greatest dilemma. Crown.
- World Health Organization. (2023). Ethics and governance of artificial intelligence for health. WHO.