Chapter 15 · 06/09 ~ 06/15

최종 발표

한 학기의 여정에서 AI와 상담심리학의 융합에 대해 무엇을 배웠고, 무엇이 남았는가?

이번 주 읽기: 기술과 공감, 한 학기의 결론

드디어 마지막 주다. 15주 전, 1주차에서 AI에게 처음 고민을 털어놓았을 때를 기억하는가? “AI도 공감할 수 있을까?”라는 질문에서 출발한 이 여정이 이제 끝에 다다랐다. 하지만 끝이라기보다는, 새로운 시작에 더 가깝다. 한 학기 동안 배운 것은 정답이 아니라, 올바른 질문을 던지는 법이다.

Gainer(2025)는 책의 결론에서 AI와 상담심리학의 만남이 앞으로 세 단계를 밟을 거라고 내다본다. 첫 번째는 보조(augmentation, AI가 상담사의 잡무를 대신 해주는 것) 단계다. 상담 기록 정리, 일정 잡기, 심리검사 채점 같은 행정적 업무를 AI가 맡아주는 수준이다. 마치 진료실에 유능한 비서가 한 명 생긴 것과 비슷하다. 상담사는 하루에 평균 40%의 시간을 행정 업무에 쓴다는 연구가 있다. AI가 이 부분을 대신하면 상담사는 내담자와의 직접적인 만남에 더 집중할 수 있다.

두 번째는 협업(collaboration, 상담 중 AI가 실시간으로 도움을 주는 것) 단계다. 상담 세션이 진행되는 동안 AI가 내담자(상담을 받는 사람)의 감정 패턴을 실시간으로 분석해서 상담사에게 “지금 불안 수준이 높아지고 있어요” 같은 제안을 건네는 수준이다. 마치 수술 중에 모니터가 환자의 생체 신호를 실시간으로 보여주듯, AI가 내담자의 심리적 신호를 시각화해준다. 상담사는 이 정보를 참고하되, 최종 판단은 스스로 내린다.

세 번째는 통합(integration, AI와 인간이 역할을 나누는 것) 단계다. 가벼운 스트레스나 수면 문제에는 AI가 독립적으로 개입하고, 상담사는 복잡한 트라우마나 관계 문제처럼 깊은 사례에 집중하는 구조다. 1차 진료는 일반의(GP)가 맡고 복잡한 수술은 전문의가 맡는 의료 시스템의 구조와 비슷하다. AI가 1차 대응을 맡으면, 상담사는 자신의 전문성이 가장 필요한 곳에 에너지를 쏟을 수 있다.

Gainer에 따르면 2025년 현재 대부분의 상담 현장은 아직 첫 번째 단계에 머물러 있다. 이 학기에 우리가 한 것은 두 번째 단계의 가능성을 직접 실험해본 셈이다. AI가 감정을 분석하고, 위기를 감지하고, 대화를 보조하는 플랫폼을 만들면서 “협업 단계”의 가능성과 한계를 모두 체험했다. 완벽하지는 않았다. AI가 맥락을 놓치는 경우도 있었고, 위기 감지가 너무 민감하거나 둔감한 경우도 있었다. 하지만 이런 시행착오 자체가 “AI와 협업한다는 것이 무엇인가”를 몸으로 배우는 과정이었다.

세네카 R. 게이너

세네카 R. 게이너

상담의 미래는 인간 대 기계의 경쟁이 아니다. 기술을 이해하는 상담사와 기술을 이해하지 못하는 상담사의 격차가 결정적 차이를 만들 것이다.

Gainer (2025, p. 312)

한 학기를 되돌아보면

1주차에서 AI에게 처음으로 고민을 털어놓아 보았다. “AI도 공감할 수 있을까?”라는 질문에서 출발했다. 2~3주차에서 바이브 코딩(vibe coding, 자연어로 AI에게 시켜서 코드를 만드는 방식)을 배우면서 코딩을 몰라도 웹 앱을 만들 수 있다는 걸 직접 체험했다. 처음으로 자기가 만든 웹페이지가 브라우저에 뜨는 순간의 놀라움을 기억하는가? 그것이 이 여정의 시작이었다.

4~6주차에서는 CBT(인지행동치료, 생각을 바꿔서 감정을 바꾸는 치료법), 정신역동(무의식의 패턴을 찾는 접근), 인본주의(있는 그대로의 나를 수용하는 접근) 같은 상담 이론을 AI와 결합하는 법을 탐구했다. 상담 이론이 코드로 변환되는 과정에서 이론을 더 깊이 이해하게 된 경험도 있었을 것이다. “공감적 반영을 AI에게 어떻게 가르치지?”라고 고민하다 보면, “공감적 반영이란 정확히 무엇인가?”를 다시 생각하게 된다.

7~9주차에서는 API(Application Programming Interface, 프로그램끼리 대화하는 통로)를 연결하고 감정 분석을 구현했다. 10~11주차에서 윤리적 안전장치와 접근성을 설계했고, 12~13주차 프로젝트 워크숍에서 자신만의 상담 플랫폼을 만들었다. 14주차에서는 사용자 테스트로 “남의 눈”으로 내 작품을 점검했다. 이 여정 전체가 “기술로 무엇이 가능하고 무엇이 불가능한가”를 몸으로 체득하는 과정이었다.

조지프 와이젠바움

조지프 와이젠바움

컴퓨터가 대체할 수 없는 것들이 있다. 판단, 공감, 도덕적 선택 — 이것들은 인간만의 영역이다.

Weizenbaum (1976)

Weizenbaum은 1966년에 ELIZA를 만들면서 이 사실을 처음으로 깨달은 사람이다. ELIZA는 아주 단순한 규칙으로 대화했지만, 사용자들은 ELIZA에게 깊은 감정적 유대를 느꼈다. Weizenbaum은 이 현상에 충격을 받고, 이후 평생을 “컴퓨터가 할 수 있는 것과 해서는 안 되는 것”을 구분하는 데 헌신했다. 60년이 지난 지금, AI가 훨씬 정교해졌지만 그의 질문은 여전히 유효하다. 우리가 이 학기에 탐구한 것도 결국 같은 질문이다.

AI 시대에 상담사의 가치는 어디에 있는가

AI가 상담의 일부를 대신할 수 있다면, 그래도 상담사만이 할 수 있는 건 뭘까?Gainer(2025)는 세 가지를 꼽는다. 첫째, 실존적 만남이다. AI는 적절한 말을 생성할 수 있지만, 두 사람이 함께 “고통 속에 머무르는” 경험은 의식을 가진 존재만 할 수 있다. 친구가 울고 있을 때 옆에 앉아 함께 침묵하는 그 순간 — AI는 그걸 흉내 낼 수 있어도, 진짜로 “함께 있는” 건 아니다. Rogers가 말한 “온전한 현존(presence)”은 의식과 의도를 가진 존재만이 제공할 수 있다.

둘째, 윤리적 판단이다. AI는 학습한 패턴에 따라 결정하지만, 상담사는 한 사람의 고유한 맥락을 고려해서 규칙을 넘어서는 결정을 내릴 수 있다. 예를 들어 “비밀보장 원칙”을 지키되, 내담자가 위험한 상황이면 그 원칙을 깨야 할 때도 있다. 이런 미묘한 판단은 사람만이 할 수 있다. 셋째, 문화적 민감성이다. AI의 학습 데이터가 특정 문화에 편향되어 있을 때, 상담사는 내담자의 문화적 배경을 직접 이해하고 반영한다. 한국 사회에서 “부모님 기대”가 주는 심리적 압박의 무게는 미국 데이터로 학습한 AI가 온전히 이해하기 어렵다.

세네카 R. 게이너

세네카 R. 게이너

공감은 마법이 아니다. 의도적으로 설계하고, 가르치고, 측정할 수 있는 역량이다. 하지만 한 존재가 다른 존재의 고통에 진정으로 공명하는 경험은 의식을 전제로 한다. 이 지점이 AI 상담의 본질적 경계이자, 인간 상담사의 대체 불가능한 영역이다.

Gainer (2025, p. 47)

동시에 AI 시대의 상담사에게는 새롭게 필요한 역량도 있다.기술 리터러시(technology literacy, AI 도구의 원리와 한계를 이해하는 능력) — AI가 어떻게 작동하는지, 어떤 데이터로 학습했는지, 어떤 편향이 있을 수 있는지를 이해하는 능력이다. 이것을 알아야 AI의 답변을 비판적으로 평가할 수 있다.데이터 윤리 역량(내담자 데이터가 어떻게 수집되고 보호되는지 파악하는 능력) — 내담자의 대화 기록이 어디에 저장되는지, 누가 접근할 수 있는지, 삭제 절차가 있는지를 파악하고 내담자에게 설명할 수 있어야 한다.하이브리드 치료 설계(인간 상담과 AI 개입을 효과적으로 섞는 능력) — 어떤 부분은 AI에게 맡기고 어떤 부분은 인간 상담사가 직접 해야 하는지 판단하는 능력이다. 전통 상담 교육에서 다루지 않았던 영역이고, 이 학기 수업이 그 첫걸음이었다.

세계보건기구(WHO)에 따르면 전 세계적으로 정신건강 전문가 부족은 약 430만 명에 달한다. 특히 저소득 국가에서는 인구 10만 명당 정신건강 전문가가 2명 이하인 곳이 많다. AI 상담 도구가 이 격차의 일부를 메울 수 있다면, 그것은 기술적 성과가 아니라 사회적 기여다. 한국에서도 농어촌 지역, 군부대, 교도소 같은 곳에서 상담 접근성은 도시에 비해 크게 떨어진다. AI 기반 상담 도구는 이런 사각지대를 채울 수 있는 잠재력을 가지고 있다.

Gainer(2025)는 AI와 인간 상담사가 “경쟁하는 게 아니라 생태계를 함께 만들어가는 것”이라 표현한다. 마치 병원에서 의사와 간호사가 경쟁하는 게 아니라 각자 역할을 나누듯, AI와 상담사도 각자 잘하는 걸 맡는 구조를 설계하는 것이 다음 세대 상담 전문가의 과제라는 뜻이다.

칼 로저스

칼 로저스

다른 사람의 세계를 마치 내 것처럼 느끼는 것, 그러나 '마치 ~처럼(as if)'이라는 조건을 잃지 않는 것.

Rogers (1957)

1주차에서 만났던 Rogers의 이 말을 다시 떠올려 보자. 한 학기를 지나온 지금, 이 문장이 처음과는 다르게 읽히지 않는가? 우리는 이제 “마치 ~처럼”을 AI가 시뮬레이션할 수 있다는 것도 알고, 동시에 그 시뮬레이션이 진짜 공감과 어떻게 다른지도 안다. AI는 “마치 ~처럼”의 표면을 재현하지만, 그 안에 담긴 “진정으로 느끼는 것”은 재현하지 못한다.

그 구분을 아는 것 자체가 이 수업의 가장 큰 수확이다. 기술의 가능성에 눈을 뜨는 동시에, 인간만이 할 수 있는 것의 가치를 더 깊이 이해하게 된 것 — 이것이 15주간의 여정이 남긴 선물이다. 이 수업을 시작할 때 “코딩도 모르는데 왜 이걸 배워야 하지?”라고 생각했던 사람도 있을 것이다. 이제 답을 알 것이다. 기술을 알아야 기술의 한계를 말할 수 있고, 기술의 한계를 알아야 인간의 가치를 지킬 수 있다. 이것이 AI 시대 상담사의 출발점이다.

최종 발표: 6단계로 15분 안에 정리하기

최종 발표는 한 학기 동안 만든 상담 플랫폼의 전 과정을 15분 안에 전달하는 프레젠테이션이다. 단순히 “이런 기능이 있어요”를 보여주는 시연(demo, 실제 작동하는 모습을 보여주기)이 아니라, “왜 이걸 만들었고, 어떤 이론을 적용했고, 실제로 써보니 어떤 문제가 있었는가”를 비판적으로 분석하는 학문적 발표다. 학회에서 연구 결과를 발표하는 것과 비슷한 구조라고 생각하면 된다.

발표의 구조는 6단계다. 왜 6단계인가? 이 구조는 과학적 연구 논문의 구성(서론-방법-결과-논의)을 상담 기술 프로젝트에 맞게 변형한 것이다. 각 단계가 논리적으로 연결되어야 발표가 설득력을 갖는다. 문제가 명확해야 이론 선택의 이유가 납득되고, 이론이 분명해야 기술 구현의 방향이 이해되며, 윤리적 고려가 있어야 상담 도구로서의 자격이 인정된다.

1단계: 문제 정의(Problem Definition, 어떤 문제를 풀려는가). “불안을 다루는 앱을 만들었다”는 너무 막연하다. “취업 불안 때문에 잠을 못 자는 대학생에게 취침 전 10분짜리 인지적 재구조화(cognitive restructuring, 부정적 생각 패턴을 현실적인 생각으로 바꾸는 기법) 개입을 제공한다” 정도로 대상, 문제, 개입 방식을 특정해야 한다. 문제 정의가 흐리면 발표 전체가 흔들린다. 좋은 문제 정의는 “누가(대상), 어떤 상황에서(맥락), 무엇을(개입), 어떻게(방식)”를 한 문장으로 담는다.

2단계: 이론적 근거(Theoretical Foundation, 왜 이 방법인가). 어떤 상담 이론을 적용했는지 설명한다. CBT(인지행동치료)의 인지적 재구조화를 썼는지, 정신역동(무의식 패턴을 찾는 접근)적 패턴 인식을 구현했는지, 인본주의(있는 그대로의 나를 수용하는 접근)적 공감 반영을 중심에 뒀는지. 이론 없는 기술 구현은 “상담 도구”가 아니라 “일반 챗봇”이다. 이론이 기술에 구체적으로 어떻게 반영됐는지를 보여줘야 한다. 예를 들어 “Beck의 인지 모델에 따라, 사용자의 자동적 사고를 탐지하고 대안적 사고를 제안하는 프롬프트를 설계했다”처럼 이론과 구현의 연결 고리를 명확히 한다.

세네카 R. 게이너

세네카 R. 게이너

기술과 이론의 결합이 이 수업의 핵심이다. 이론적 근거 없는 AI 상담 도구는 좋은 의도를 가진 위험한 실험에 불과하다.

Gainer (2025, p. 287)

3단계: 기술 구현(Technical Implementation, 어떻게 만들었는가). 어떤 기술을 썼는지(Replit, Next.js, OpenAI API, Gemini API 등), AI 프롬프트(prompt, AI에게 주는 지시문)를 어떻게 설계했는지, 바이브 코딩으로 만든 부분과 직접 커스터마이징(customize, 필요에 맞게 수정)한 부분을 구분해서 보여준다. “왜 GPT-4가 아니라 Gemini를 선택했는가?”, “왜 실시간 채팅이 아니라 비동기 메시지를 택했는가?” 같은 기술적 의사결정의 이유도 밝힌다. 프롬프트 설계 과정을 보여주면 특히 좋다. 초기 프롬프트에서 AI가 진단적 표현을 쓰는 문제가 있었고, 이를 수정하기 위해 어떤 지시를 추가했는지 같은 시행착오 과정이 청중에게 실질적인 배움을 준다.

4단계: 윤리적 고려(Ethical Considerations, 안전장치가 있는가). 위기 감지 체계(예: “죽고 싶다” 입력 시 즉각 전문기관 연결), AI 한계 고지(disclaimer, “이 앱은 전문 상담을 대체하지 않습니다”라는 안내), 비밀보장, 데이터 보호를 어떻게 구현했는지 시연한다. 11주차에서 배운 상담 윤리 원칙(자율성 존중, 선행, 악행 금지, 정의)이 코드에 어떻게 반영됐는지 연결한다. 이론과 구현의 연결을 보여주는 것이 핵심이다. “악행 금지 원칙을 지키기 위해 AI 응답에 진단적 표현을 금지하는 프롬프트를 설계했다”처럼 원칙과 코드가 어떻게 대응하는지 구체적으로 보여준다. 이 단계에서 시연을 직접 보여주면 효과적이다. 실제로 위기 키워드를 입력하고 시스템이 어떻게 반응하는지를 청중 앞에서 보여주면, 구현의 진지함이 전달된다.

5단계: 테스트 결과(Test Results, 사용자 반응은 어땠는가). 14주차 사용자 테스트에서 나온 핵심 발견을 보여준다. 어떤 문제가 있었고, 심각도를 어떻게 분류했고, 개선 전후가 어떻게 달라졌는지. “5명 중 4명이 위기 자원까지 3번 클릭 이내에 도달했다” 같은 데이터가 발표를 설득력 있게 만든다. 수정 전후 스크린샷을 나란히 보여주면 개선의 효과가 시각적으로 드러난다. 테스트 결과를 보여줄 때는 숫자와 함께 테스터의 구체적 반응도 인용하면 좋다. “테스터 3이 위기 자원 버튼을 찾지 못하고 30초간 화면을 헤맸다” 같은 구체적 관찰이 청중의 이해를 돕는다.

6단계: 성찰(Reflection, 무엇을 배웠는가). 이 프로젝트를 통해 무엇을 배웠고, 가장 큰 한계는 무엇이며, 6개월 더 개발한다면 무엇을 가장 먼저 고치겠는가. 기술 보고가 아니라 학문적 자기 비평(self-critique, 스스로 자신의 작품을 비판적으로 돌아보기)이다. 한계를 솔직하게 말하는 것은 약점이 아니라 깊이 있는 이해의 증거다. “이 도구가 모든 것을 해결합니다”보다 “이 도구는 가벼운 불안에는 도움이 되지만, 심한 우울증에는 전문 상담이 필요합니다”가 훨씬 신뢰할 수 있는 결론이다.

동료 평가와 질의응답

각 발표 후 10분간 질의응답이 이어진다. 발표자에게는 자기 프로젝트를 방어하고 깊이 있게 설명하는 기회이고, 청중에게는 비판적 질문을 연습하는 기회다. 질의응답은 발표의 연장이자, 때로는 발표보다 더 깊이 있는 학습이 일어나는 시간이다. 예상치 못한 질문에 답하면서 자기 프로젝트를 새로운 각도에서 보게 된다.

좋은 질문의 예를 보자. “AI가 부적절한 답변을 한 사례가 있었나요? 어떻게 대응했나요?”, “위기 감지에서 false positive(과잉 감지)와 false negative(미감지) 비율은 어땠나요?”, “이 도구를 실제 상담 현장에 도입하려면 가장 먼저 해결해야 할 문제는 뭘까요?” 같은 질문은 발표자에게도 배움이 되고, 청중에게도 새로운 관점을 준다. 반대로 “잘 만드셨네요” 같은 피드백은 누구에게도 도움이 되지 않는다. 구체적 관찰에 기반한 질문이 좋은 질문이다.

평가 기준은 다섯 영역이다. 기술 완성도(30%) — 핵심 기능이 안정적으로 동작하는가. 상담 이론 적용(25%) — 이론이 기술에 실질적으로 반영됐는가.윤리적 고려(20%) — 안전장치, 고지, 비밀보장이 적절한가. 사용자 테스트(15%) — 테스트를 체계적으로 하고 피드백을 반영했는가. 발표 및 문서(10%) — 발표가 구조적이고 README가 충실한가.

세네카 R. 게이너

세네카 R. 게이너

기술 역량 없는 상담사는 미래 상담 현장에서 자율성을 잃게 된다. 기술을 이해해야 'AI가 편향을 포함하는가?', '데이터 수집이 비밀보장에 부합하는가?'를 질문할 수 있다.

Gainer (2025, p. 312)

동료 평가는 루브릭(rubric, 채점 기준표)을 사용한다. 각 영역에 1~5점을 매기고, “가장 인상적이었던 부분”과 “개선이 필요한 부분”을 각각 하나씩 구체적으로 적는다. “전반적으로 좋았다”는 피드백이 아니라, “위기 감지 시나리오에서 false positive 처리가 인상적이었고, AI 응답의 공감 수준은 개선이 필요하다” 처럼 구체적으로 쓴다. 남의 프로젝트를 기술적, 이론적, 윤리적으로 분석하다 보면, 자연스럽게 자기 프로젝트도 같은 눈으로 다시 보게 된다. 평가하는 행위 자체가 곧 배움이다. 상담에서 사례 발표(case presentation)를 하면서 동료의 피드백을 받는 것과 같은 원리다.

칼 로저스

칼 로저스

치료적 관계에서 가장 중요한 것은 기법이 아니라, 치료자가 진정으로 그 자리에 존재하는 것이다.

Rogers (1980)

1주차에 AI에게 처음 고민을 털어놓던 어색함부터, 자기가 만든 플랫폼에서 동료가 실제로 도움을 경험하는 순간의 보람까지 — 이 여정은 기술의 가능성과 인간 공감의 대체 불가능성을 동시에 느끼는 과정이었다.

이 수업에서 배운 것을 한 줄로 정리한다면 — “기술은 도구이고, 공감은 본질이며, 윤리는 경계선이다.” 기술을 잘 다루면 더 많은 사람에게 도움을 줄 수 있다. 공감을 잃지 않으면 그 도움이 진짜 도움이 된다. 윤리적 경계를 지키면 도움이 해가 되는 것을 방지할 수 있다. 이 세 가지를 동시에 갖추는 것이 AI 시대 상담 전문가의 핵심 역량이다.

마지막 주에 Rogers의 말을 다시 떠올려 보자. 기법과 기술도 물론 배웠지만, 결국 상담에서 가장 핵심적인 것은 “진정으로 그 자리에 존재하는 것”이다. AI는 거기에 “있는 척”할 수 있지만, 진짜 “있는 것”은 우리 몫이다. 이 수업이 끝난 후에도, 기술이 아무리 발전해도, 이 한 가지는 변하지 않을 것이다. 15주의 여정을 함께한 여러분 한 명 한 명이 이미 “기술을 이해하는 상담사”로서 첫걸음을 뗐다. 그 걸음이 이어지길 바란다.

성찰 에세이: 한 학기를 내 언어로 정리하기

성찰 에세이는 과제 요약이 아니다. 한 학기 동안 내가 무엇을 경험하고 어떻게 달라졌는지를 솔직하게 적는 글이다. 학술적 성찰(academic reflection, 경험을 체계적으로 되돌아보고 의미를 찾는 글쓰기)이라고 거창하게 부르지만, 핵심은 “내 경험을 내 말로 쓰는 것”이다. 최소 1,000자 이상이며, 세 부분으로 구성된다.

왜 성찰 에세이를 쓰는가? 경험은 그 자체로는 배움이 되지 않는다. 경험을 되돌아보고 의미를 부여할 때 비로소 배움이 된다. 상담에서 내담자에게 “그 경험이 당신에게 어떤 의미인가요?”라고 묻는 것과 같은 원리다. 한 학기 동안 코딩하고, 테스트하고, 윤리를 고민한 경험을 글로 정리하면, 그 과정에서 미처 의식하지 못했던 깨달음이 떠오른다.

첫째, 출발점 — 학기 초의 나. 수업 전에 AI와 상담에 대해 어떻게 생각했는지를 적는다. AI가 무서웠는가, 기대됐는가, 별 관심이 없었는가? 코딩 경험이 있었는가, 전혀 없었는가? 상담사가 기술을 배워야 한다고 생각했는가? 솔직할수록 좋다. “AI? 나는 코딩도 모르는데 왜 이 수업을 들어야 하지?”라고 생각했다면 그대로 적으면 된다. 출발점이 솔직해야 변화의 폭이 드러난다.

둘째, 전환점 — 인식이 변한 순간. 학기 중 가장 의미 있는 깨달음의 순간을 구체적으로 묘사한다. 바이브 코딩(vibe coding, 자연어로 AI에게 시켜서 코드를 만드는 방식)으로 처음 웹페이지를 만든 순간일 수도 있고, AI가 위기 상황을 놓치는 걸 목격한 순간일 수도 있다. 혹은 사용자 테스트에서 동료가 내 플랫폼을 쓰며 보인 반응 — 놀라움, 혼란, 감동 — 이 전환점이 될 수도 있다.

전환점은 구체적이고 개인적일수록 좋다. “AI의 한계를 깨달았다”보다 “테스트에서 동료가 ‘죽고 싶다’를 입력했을 때 내 챗봇이 ‘그런 기분이 드시는군요’라고만 반응하는 걸 보고, AI의 안전장치 설계가 생명과 직결되는 문제임을 절감했다”처럼 구체적 장면을 그려야 한다. 좋은 성찰 에세이는 추상적 주장이 아니라 구체적 장면으로 이루어진다.

셋째, 도착점 — 현재의 나와 미래. AI 상담에 대한 현재 입장을 정리한다. AI 상담의 가능성 3가지와 한계 3가지를 구체적 경험에 기반해서 쓴다. 그리고 “상담심리학 전공자로서 AI 시대에 나의 역할은?”에 대한 개인적 답을 제시한다. 정답은 없다. 기술을 적극 활용하겠다는 방향도, 인간적 만남의 가치를 더 깊이 추구하겠다는 방향도 모두 좋다. 핵심은 그 답이 한 학기의 구체적 경험에 근거해야 한다는 것이다. “AI가 중요하다”가 아니라 “내가 직접 만들어보니 이런 점에서 가능성이 있고, 이런 점에서 한계가 있으므로, 나는 이렇게 활용하겠다”가 되어야 한다.

세네카 R. 게이너

세네카 R. 게이너

AI가 생성할 수 없는 것은 '체험된 진정성(lived authenticity)'이다. AI는 정교한 성찰 에세이를 만들 수 있지만, 그것은 당신의 경험이 아니다.

Gainer (2025, p. 298)

에세이 작성의 철칙이 하나 있다 — AI의 도움 없이 본인의 언어로 쓴다.Gainer(2025)가 말했듯이 AI는 그럴듯한 에세이를 얼마든지 생성할 수 있다. 하지만 그건 당신의 경험이 아니다. 15주간 직접 부딪히며 얻은 통찰을 자기 말로 기록하는 것 — 그 자체가 이 수업의 마지막 실습이다. 한 학기 동안 AI의 힘을 빌려 코딩하고, 분석하고, 테스트했지만, 마지막 에세이만큼은 오롯이 자기 힘으로 쓴다. 그것이 “AI 시대에 인간만이 할 수 있는 것”의 가장 직접적인 실천이다.

Gamma AI로 발표 자료 만들기

Gamma AI(gamma.app)는 텍스트만 입력하면 프레젠테이션(presentation, 발표용 슬라이드) 자료를 자동으로 만들어주는 AI 도구다. 사용법은 간단하다. 먼저 6단계 발표 구조에 맞춰 각 단계의 핵심 메시지를 텍스트로 정리한다. 이걸 Gamma에 입력하면 슬라이드 구조, 시각적 레이아웃(layout, 화면 배치), 디자인 테마(theme, 전체 색상과 분위기)까지 자동으로 잡아준다. 생성된 초안에서 불필요한 장식을 빼고, 프로젝트 스크린샷, 테스트 데이터, 수정 전후 비교 이미지 같은 자기만의 콘텐츠를 넣으면 된다.

발표 슬라이드에서 가장 흔한 실수는 글자를 너무 많이 넣는 것이다. 슬라이드는 발표자의 말을 보조하는 시각 도구이지, 발표 원고를 그대로 옮겨놓는 문서가 아니다. 핵심 키워드, 데이터 시각화, 스크린샷만 넣고 상세한 설명은 말로 전달한다. 15분 발표에 적절한 슬라이드 수는 12~18장이고, 한 장당 1분 내외로 넘기는 게 효과적이다. 청중은 복잡한 슬라이드를 읽느라 발표자의 말을 놓치고, 간결한 슬라이드에서는 발표자에게 집중한다.

Gamma AI가 만든 초안을 그대로 쓰면 안 되는 이유가 있다. AI는 보기 좋은 레이아웃을 만들지만, 내 프로젝트의 맥락을 모른다. 어떤 스크린샷이 핵심적인지, 어떤 데이터가 청중을 설득하는지는 발표자만 안다. AI 초안은 뼈대로만 쓰고, 살은 직접 붙여야 한다. 리허설을 할 때는 시간을 꼭 재본다. 15분을 넘기면 청중의 집중력이 떨어지고, 질의응답 시간이 줄어든다. 시간이 부족하면 Minor한 내용을 과감히 빼고, 문제 정의와 윤리적 고려에 집중한다.

제이콥 닐슨

제이콥 닐슨

사용성 문제의 85%는 단 5명의 사용자 테스트로 발견할 수 있다. 완벽한 테스트를 기다리는 것보다, 소규모 테스트를 반복하는 것이 훨씬 효과적이다.

Nielsen (2000)

발표에서 사용자 테스트 결과를 보여줄 때도 같은 원리다.Nielsen(2000)이 말한 “5명이면 85% 문제를 찾는다”는 원칙을 기억하자. 소수의 테스트라도 체계적으로 정리하면 충분히 설득력 있는 발표가 된다. 테스트 인원이 적다고 변명할 필요가 없다. 오히려 적은 인원으로 의미 있는 발견을 했다면, 그것이 Nielsen의 원칙을 직접 증명한 셈이다.

참고 문헌

  • American Psychological Association. (2023). Guidelines for the use of artificial intelligence in psychology practice. APA.
  • Gainer, S. R. (2025). The counseling singularity: AI integration in therapeutic practice. Professional Publishing.
  • Miner, A. S., Milstein, A., Schueller, S., Hegde, R., Mangurian, C., & Linos, E. (2016). Smartphone-based conversational agents and responses to questions about mental health, interpersonal violence, and physical health. JMIR mHealth and uHealth, 4(3), e38.
  • Stade, E. C., Stirman, S. W., Ungar, L. H., Boland, C. L., Schwartz, H. A., Yaden, D. B., ... & DeRubeis, R. J. (2024). Large language models could change the future of behavioral healthcare: A proposal for responsible development and evaluation. Nature Medicine, 30(4), 884–886.
  • World Health Organization. (2022). World mental health report: Transforming mental health for all. WHO.