2026 Spring · 건국대학교 대학원

기술융합기반
상담세미나

AI 시대에 상담은 필요한가? 상담사는 AI의 소비자인가, 창조자인가? — 한 학기 동안 35개의 질문에 답하며, 직접 AI 상담 도구를 만듭니다.

시간목 10:00-13:00
장소상허관 419
구성이론 30% + 빌드 70%
기간16주 (03/05 ~ 06/18)
?
?????

에이전트 시대, 상담은 필요한가?

불완전한 인간의 공감이 완벽한 AI보다 치료적인가?

AI 시대, 상담의 미래는 누가 결정하는가?

과목 개요

AI 기반 상담 공간

AI 및 가상 현실 등 최신 기술과 접목하여 내담자의 삶의 질을 높일 수 있는 방법에 대해 학습하고 실제 기술을 융합하여 프로그램을 제작하는 활동을 합니다.

본 세미나는 AI 기술과 상담심리학의 융합을 탐구합니다. 수강생들은 Replit Agent를 활용한 바이브 코딩으로 상담 지원 플랫폼을 직접 제작하고, AI를 상담 전반 사이클에 적용하는 방법을 실습 중심으로 학습합니다.

코딩 경험이 없어도 참여할 수 있으며, AI 시대에 상담 전문가로서 갖춰야 할 기술적 역량과 윤리적 판단력을 기릅니다.

"AI can only demonstrate empathy if it has been intentionally taught."
— Seneka Gainer, The Counseling Singularity (2025)

필수 준비물

개인 노트북필수
Replit 계정필수, 월 $25

수업은 이론 30%와 실습 70%로 운영됩니다. 수업 중 대형 스크린에 Replit AI를 띄워놓고 실시간 협업하며, 학생 발제 → 토론 → 실습의 순환 구조로 진행됩니다. 의견 충돌 시 AI를 활용한 제3의 해결책을 도출합니다.

학습 목표

  1. AI 상담 도구의 가능성과 한계를 비판적으로 평가한다

  2. 프롬프트 엔지니어링을 활용해 상담 맥락에 적합한 AI 응답을 설계한다

  3. Replit Agent를 활용해 상담 지원 시스템을 구축한다

  4. 바이브 코딩으로 상담 프로세스를 지원하는 프로토타입을 제작한다

  5. AI 상담의 윤리적 쟁점을 인식하고 적절한 안전장치를 설계한다

  6. 상담 전반 사이클에 AI를 적용한다

상담 프로세스와 AI 적용 영역

접수
평가
목표설정
개입
모니터링
종결/추수

16주 강의 계획

Part 1: AI와 상담의 본질

1-4주차

Week 103/05

오리엔테이션

AI 시대의 상담심리학 개관, Woebot·Wysa·Replika 비교, Rogers의 3조건으로 AI 평가

AI 상담 체험 + 비교 분석강의록 보기 →
Week 203/12

에이전트 시대, 상담은 필요한가?

정신건강의 구조적 위기, AI 상담 현황, 문화적 차이(한국 vs 미국), 한 학기 핵심 질문 도출

  • 에이전트 시대에 상담은 여전히 필요한가?
  • 인간 상담과 AI 상담에서 대체 가능한 것, 보완 가능한 것은 각각 무엇인가?
  • 한국에서 상담받는 것이 미국보다 어려운 이유는 문화인가, 구조인가?
  • AI 상담은 완벽하게 해주지만, 실제 관계에서는 거절과 실망이 있다 — 그 간극은?
  • AI로 만든 것의 가치는 사람이 만든 것과 같은가, 새로운 레벨의 가치인가?
조별 토론 + 학기 질문 맵 완성강의록 보기 →
Week 303/19

누구나 만들 수 있는 시대, 상담사가 만들면 무엇이 다른가?

AI 사용 현황 공유, 개인 프로젝트 아이디어 토론, Replit + 바이브 코딩 체험

  • 내가 진짜로 AI로 만들고 싶은 것은 무엇인가? 왜 그것인가?
  • 상담 현장에서 가장 해결하고 싶은 문제는 무엇이고, AI가 어떻게 도울 수 있는가?
아이디어 토론 + 바이브 코딩 실습강의록 보기 →
Week 403/26

불완전한 인간의 공감이 완벽한 AI보다 치료적인가?

Rogers 공감 이론, 전이·역전이와 AI, 문화권별 상담 선호, 팀 프로젝트 방향 연결

  • 전이·역전이를 AI가 구현할 수 있는가? 학습하면 그건 생명체인가?
  • 휴머노이드가 옆에 앉아서 상담하면, 그건 상담인가?
  • 내담자가 AI에게 더 깊이 자기개방한다면, 그것은 치료적 진전인가?
  • AI의 불완전성에 인간은 어떻게 반응하는가?
  • 문화에 따라 공감 vs 문제해결 선호가 다르다면, AI 상담도 문화별로 달라야 하는가?
AI 공감 실험 + 팀 토론강의록 보기 →

Part 2: 윤리·특강·방향

5-8주차

Week 504/02

AI 시대의 연구 방법론 — 애자일 리서치

연구의 병목 변화(데이터→지식→지혜), Waterfall→Agile 연구, 프로토타입 기반 소통, AI 활용 연구 경험 공유

  • AI가 정보→지식 변환을 빠르게 해줄 때, 연구자의 고유한 역할은 무엇인가?
  • 연구 계획서 대신 연구 결과의 프로토타입으로 소통하면 무엇이 달라지는가?
  • 나의 연구에서 AI가 가장 도움이 된 순간과 한계를 느낀 순간은?
AI 활용 연구 경험 공유 + 팀 토론강의록 보기 →
Week 604/09

게스트 특강: 이정석

이정석 초청 특강 — AI 자살방지와 정신건강 위기 분류기

  • AI가 자살 위험을 감지했을 때, 개입 권한은 누구에게 있는가?
  • 95% 정확도의 위기 감지 — 나머지 5%의 무게는?
  • AI는 위기의 감지자인가, 개입자인가?
특강 + Q&A + 팀 토론강의록 보기 →
Week 704/16

게스트 특강: 오태호 (콰블)

오태호(콰블/Quabble) 초청 특강 — AI 서비스 개발과 상담

특강 + Q&A + 팀 토론강의록 보기 →
Week 804/23

중간 정리 + 팀 프로젝트 구상 발표

1-7주차 핵심 질문 정리, 팀 프로젝트 구상 발표, 피어 리뷰

  • 우리 팀 프로젝트가 해결하려는 상담 현장의 진짜 문제는?
  • AI가 맡을 부분과 인간이 맡을 부분의 경계를 어디에 둘 것인가?
팀별 구상 발표 + 피어 리뷰강의록 보기 →

Part 3: 팀 프로젝트 빌드

9-12주차

Week 904/30

팀 프로젝트 킥오프

팀별 역할 분담, 바이브 코딩으로 프로젝트 골격 만들기, 첫 데모

  • 상담사의 AI 페르소나를 만들어 여러 내담자에게 동시에 상담하면?
  • 내담자도 전 세계 상담사들에게 동시에 상담받을 수 있다면?
팀별 프로토타입 첫 데모강의록 보기 →
Week 1005/07

AI에게 어디까지 맡길 수 있는가?

AI API 연동 기초, 인간/AI 역할 경계 설계, 팀별 핵심 기능 1차 구현

  • AI가 퍼포먼스적으로 더 나을 때, 인간의 고유함은 무엇인가?
  • 불완전함이 인간의 가치인가?
  • 감정을 느끼는 것, 직접 경험하는 것의 교육과 회복이 상담사의 새 역할인가?
팀별 핵심 기능 시연강의록 보기 →
Week 1105/14

AI가 위기를 감지했을 때, 개입은 누가 하는가?

위기 감지/안전장치 설계 패턴, 팀별 안전장치 + 추가 기능 구현

  • AI가 잘못된 조언을 했을 때, 책임은 누구에게 있는가?
  • 내담자 데이터가 AI를 거칠 때, 비밀보장의 경계는 어디인가?
  • 동의서에 'AI 사용'을 고지해야 하는가?
팀별 안전장치 동작 시연강의록 보기 →
Week 1205/21

접근성을 100배 높이되 깊이를 잃지 않을 수 있는가?

상담 UX 원칙, 윤리 체크리스트, 팀별 UI/UX 개선

  • 은둔 청년에게 AI 상담은 교량인가, 대체재인가?
  • AI 상담에서 인간 상담으로 넘어가는 시점을 누가, 어떻게 결정하는가?
  • 대면과 비대면의 경계가 모호해지면, AI와의 대화도 '관계'인가?
팀별 사용자 흐름 시연강의록 보기 →

Part 4: 완성 + 발표

13-16주차

Week 1305/28

실제 사용자는 어떻게 반응하는가?

Think-aloud 방법론, 팀 간 교차 테스트, 피드백 반영 수정

  • 내담자가 'AI가 사람보다 낫다'고 하면, 그건 성공인가 실패인가?
  • AI 상담이 인간 상담보다 나을 때, 상담사의 자괴감은 어떻게 다루는가?
팀 간 교차 테스트 + 피드백 반영강의록 보기 →
Week 1406/04

우리 도구는 현장의 진짜 문제를 해결하는가?

최종 다듬기, 발표 준비, SBI 피드백 모델, 팀별 리허설

  • 수련생이 AI 슈퍼비전에 의존하면 어떤 상담사가 되는가?
  • AI 시대에 상담사 수련 과정은 어떻게 바뀌어야 하는가?
팀별 리허설강의록 보기 →
Week 1506/11

AI 시대, 상담의 미래는 누가 결정하는가?

6개 팀 최종 발표, 동료 평가, 학기 회고

  • AI 시대, 상담의 미래를 결정하는 주체는 기술자인가, 상담사인가?
  • 인간은 AI보다 나를 더 잘 알 수 있는가?
  • 3년 후 우리의 직업은 어떤 모습인가?
팀 발표 (15분) + Q&A (10분)강의록 보기 →
Week 1606/18

기말고사 기간 (수업 없음)

수업 없음

수업 없음

평가 방법

20%

출석 및 참여

수업 출석, 토론 참여, 실습 참여도

20%

발제 및 토론

문헌 발제, 윤리 토론 참여

20%

중간 발표

MVP 프로토타입 발표 (8주차)

40%

최종 발표

프로젝트 완성도, 발표, 문서화 (15주차)

수업 정책

  • 지각 3회 = 결석 1회
  • 결석 4회 이상 시 F 처리
  • 공결은 사전 승인 필요
  • AI 도구 사용 적극 권장, 모든 AI 활용 내역 명시 필수
  • AI 결과물에 대한 비판적 검토 필수
  • 타인의 코드/결과물 무단 사용 금지

프로젝트 안내

바이브 코딩으로 상담 플랫폼 개발

개인 프로젝트로 진행됩니다. 상담 프로세스의 특정 단계를 AI로 지원하는 프로토타입을 개발합니다.

접수

접수 면접 시스템

초기 면접 폼, 위기 스크리닝

평가

심리검사 플랫폼

검사 실시 및 결과 시각화

목표 설정

치료 목표 설정 도우미

Treatment goal 협의 지원

개입

CBT 자가관리 앱

인지재구조화, 사고기록지

모니터링

회기 기록 시스템

상담 노트, 진행 추적

종결/추수

추수 상담 관리

Follow-up 스케줄링

제출물

  • 중간 발표 자료 (8주차)
  • 최종 프로토타입 + 발표 자료 (15주차)
  • README 문서 (사용법, 윤리적 고려사항 포함)

참고 문헌

추천 도서

AI × 상담

The Counseling Singularity: Empathy & AI in the Art of Healing

Gainer, S. R., Joshi, A. P., & Nelson, A. R. / American Counseling Association, 2025

AI 미래

넥서스 (Nexus): 석기시대부터 AI까지, 정보 네트워크의 역사

유발 하라리 (Yuval Noah Harari) 저, 김명주 역 / 김영사, 2024

AI 거버넌스

The Coming Wave: AI, Power, and Our Future

Mustafa Suleyman & Michael Bhaskar / Crown, 2023 — NYT 베스트셀러

AI 리터러시

박태웅의 AI 강의 2025

박태웅 저 / 한빛비즈, 2025 — AI 원리·윤리·사회적 영향 종합 해설

AI 상담 효과성 · LLM 리뷰

  • Li, H., Zhang, R., Lee, Y. C., Kraut, R. E., & Mohr, D. C. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. npj Digital Medicine, 6(236).
  • Stade, E. C., et al. (2024). Large language models could change the future of behavioral healthcare: A proposal for responsible development and evaluation. npj Mental Health Research, 3(12).
  • Xu, X., et al. (2025). A scoping review of large language models for generative tasks in mental health care. npj Digital Medicine.
  • Chen, Y., et al. (2025). The applications of large language models in mental health: Scoping review. Journal of Medical Internet Research, 27(1), e69284.

AI 상담 윤리

  • American Psychological Association. (2023). Guidelines for the use of artificial intelligence in psychology practice.
  • Khawaja, Z., & Bélisle-Pipon, J. C. (2023). Your robot therapist is not your therapist: Understanding the role of AI-powered mental health chatbots. Frontiers in Digital Health, 5, 1278186.
  • Harari, Y. N. (2024). Nexus: A Brief History of Information Networks from the Stone Age to AI. Random House. — AI의 자율적 의사결정 역량과 윤리적 함의

프롬프트 엔지니어링 · 도구

  • MIND-SAFE Framework. (2025). A prompt engineering framework for large language model-based mental health chatbots. JMIR Mental Health, 12, e75078.
  • Priyadarshana, Y. H. P. P., et al. (2024). Prompt engineering for digital mental health: A short review. Frontiers in Digital Health, 6, 1410947.
  • Sentio University. (2025). Survey: ChatGPT may be the largest provider of mental health support in the United States. — 미국 정신건강 지원에서 LLM 활용 현황
  • meeting.tobl.ai — 실시간 AI 전사 + 분석 서비스. 회의·상담 대화를 실시간으로 텍스트 변환, 화자 자동 구분, AI 기반 분석 제공.

안전 및 윤리 체크리스트

AI 윤리 - 기술과 인간의 균형

프로젝트 제출 시 반드시 확인해야 할 사항입니다.

🛡️

필수 안전장치

  • AI임을 사용자에게 명확히 고지했는가?
  • 자해/자살 키워드 감지 시스템이 있는가?
  • 위기 상황 시 전문가 연계 안내가 있는가?
  • 진단명 언급을 금지했는가?
  • 약물 처방 관련 조언을 금지했는가?
🔒

개인정보 보호

  • 데이터 저장 방식이 안전한가?
  • 비밀보장에 대한 고지가 있는가?
  • 데이터 삭제 방법이 명시되어 있는가?
⚠️

한계 인식

  • AI의 한계가 명시되어 있는가?
  • 전문 상담을 대체하지 않음을 고지했는가?
  • 환각(hallucination) 대응 방안이 있는가?