Featured Talks

Artificial Intelligence Index Report 2025
스탠포드 HAI 연구소의 AI 인덱스 2025 보고서의 핵심 내용을 요약한 대화형 오디오입니다. 이 보고서는 AI 기술의 현재 상태와 발전 방향에 대한 포괄적인 분석을 제공합니다.
이 대화에서는 AI의 기술적 발전 속도, 책임 있는 AI 개발, 그리고 경제 및 과학적 영향력 등 주요 주제를 다룹니다. 특히, AI 모델의 성능 향상, 편향성 문제, 선거에서의 AI 오용, 그리고 생산성과 과학적 발견에 미치는 영향 등을 논의합니다.
AI 기술의 밝은 면과 함께 위험 요소와 사회적 과제에 대한 균형 잡힌 시각을 제공합니다.
대화 내용
00:00 안녕하세요. 오늘 저희 스탠포드 hai 연구소의 AI 인덱스 2025 보고서 그 방대한 내용 속에서 어 정말 알아야 할 핵심만 쏙쏙 뽑아왔습니다.
00:11 네 양이 정말 많죠
00:13 네 그래서 짧은 시간 안에 AI가 지금 어디까지 왔는지 또 어디로 가고 있는지 딱 감을 잡으실 수 있게 도와드릴게요.
00:22 맞아요. 이 보고서가 AI 기술 현황을 정말 다각도로 보여주거든요. 오늘은 특히 그 기술 발전 속도 있잖아요. 그거랑 어 책임 있는 AI 문제 그리고 경제나 과학적 영향 뭐 이런 흥미로운 지점들을 좀 짚어보려고 합니다.
00:38 좋습니다. 들으시면서 아 이런 점이 있구나 혹은 어 이건 왜 이렇지 하고 질문을 떠올리시는 계기가 되면 좋겠네요.
00:46 네 그러길 바랍니다.
00:48 자 그럼 먼저 AI가 얼마나 빨리 똑똑해지고 있는지 그 속도부터 좀 볼까요? 작년에 나온 그 어려운 벤치마크들이 있잖아요.
00:57 아 내내 mu나 gpqa 같은 것들이요.
00:59 네 맞아요. 그런 것들을 AI가 불과 1년 만에 정말 놀라운 수준으로 풀어내고 있어요.
01:05 그렇죠 특히 그 코딩 능력 보는 syyw 벤치 이거 정말 대단했죠
01:11 와 이거 정말 할 말이 많은데요. 2023년에는 정답률이 4 4%였는데
01:17 네 거의 못 풀었죠.
01:19 2024년엔 이게 71 7%까지 올랐어요.
01:23 이야 1년 만에 그러니까 규칙 기반 문제 해결 능력은 정말 음 무섭게 발전하는 거죠.
01:30 그런데 또 한편으로는 좀 어려운 문제들 뭐랄까 복잡한 추론 이런 건 여전히 숙제라고요
01:37 습니다. 여러 단계를 거쳐야 하는 수학 문제라든지 아니면 뭐 계획 세우기 같은 거요. 이런 건 문제 규모가 좀 커지면 AI 시스템이 좀 불안정해져요. 아직은요. 그렇군요. 근데 또 재밌는 변화도 있어요. 어떤 건데요? 예전에는 무조건 모델 크기가 커야 성능이 좋다고 생각했잖아요.
01:56 네 당연히 그랬죠. 파라미터 수 경쟁하고 그랬으니까요.
02:00 그렇죠 근데 요즘엔 훨씬 작은 모델들이 뭐랄까 기대 이상으로 잘해요. 예를 들어서 마이크로소프트 파이 3 미니 모델 이게 파라미터가 38억 개거든요. 38억이요 네 근데 이게 2년 전에 나온 구글 8 모델 그건 파라미터가 5400억 개였어요.
02:18 5400원 엄청난 차이인데요
02:20 네 근데 성능은 mlu 기준으로 보면 거의 비슷하다는 거예요. 크기는 140배 넘게 작은데 말이죠.
02:27 와 그럼 이제 무조건 큰 게 좋은 게 아니네요. 효율성이 중요해지는
02:32 그렇죠 효율성 경쟁이 심해지면서 시장 판도도 좀 달라지는 것 같아요.
02:37 아 그 수렴 현상이요
02:39 네 맞아요. 2022년 말에 채치 피티 처음 나왔을 때는 오픈 AI랑 구글이 거의 뭐 압도적이었잖아요.
02:46 네 그랬죠.
02:47 그런데 지금은 메타나 엔스로픽 같은 다른 회사들 모델 성능도 상당히 비슷해졌어요. 어느 한 기업이 확 치고 나가기보다는 좀 평준화되는 느낌 그런 경쟁 구도가 만들어지고 있는 거죠.
02:58 흥미롭네요. 기술 발전 속도만큼이나 이 기술을 어떻게 책임감 있게 쓸 거냐 이 문제도 중요해지고 있는데요. 보고서 보니까 AI 관련 사고나 오용 사례가 계속 늘고 있다고요
03:09 네 그 수치가 좀 걱정스러워요. 2024년에 보고된 건수가 233건 이게 역대 최고치고요. 2023년보다 56% 넘게 늘어난 거예요.
03:20 56프로나요 문제가 계속 생기고 있는데 기업들 대응은 좀 어떤가요? 뭔가 기준 같은 걸 만들고 있나요?
03:28 네 그런 시도는 있어요. 책임 있는 AI rai라고 하죠. 그 기준을 만들어서 평가하려는 움직임은 있습니다. 햄 세티나 AI 벤치 같은 새로운 평가 도구들도 나왔고
03:41 다행이네요.
03:42 근데 아직은요 이런 기준을 표준화해서 진짜 일관되게 적용하는 경우는 좀 드물다 이렇게 보고서는 지적해요. 그러니까 위험성은 아는데 실제 그걸 막기 위한 어떤 구체적인 조치는 아직 좀 부족하다는 거죠.
03:57 인식과 행동 사이에 아직 거리가 좀 있군요. 그래도 뭐 긍정적인 면도 있겠죠
04:02 네 없진 않습니다. 그 모델 개발 과정의 투명성 이건 좀 나아지고 있어요.
04:08 아 투명성이요?
04:09 네 주요 개발사들의 평균 투명성 점수라는 게 있는데 이게 2023년 10월에는 37점이었는데 24년 5월에는 58점까지 올랐어요.
04:19 꽤 올랐네요.
04:21 네 물론 뭐 학습 데이터는 어떻게 구했는지 저작권 문제는 괜찮은 건지 아직 해결할 거 많죠.
04:28 학습 데이터 문제는 정말 계속 논란이 되죠.
04:31 그렇죠 그리고 더 우려스러운 건 이른바 안묵적 편향 문제
04:35 안묵적 편형이요
04:37 네 최신 LM들 뭐 GPT 4나 클로드 3 같은 모델들이 개발 과정에서 편향 줄이려고 되게 노력했거든요.
04:44 네 그렇다고 들었어요.
04:46 그런데도 여전히 특정 인종 그룹에는 부정적인 단어를 더 많이 연결시킨다거나 여성은 스템 분야보다는 인문학 쪽이랑 더 연관 짓는다거나 이런 경향이 남아 있다는 거예요. 지표 자체는 좀 나아졌을지 몰라도 근본적인 해결은 아직 멀었다는 거죠.
05:03 음 그 편향 문제는 정말 어려운 숙제 같아요. 그리고 2024년은 전 세계적으로 선거가 많았던 애잖아요. AI 이용한 가짜 뉴스 이것도 문제였다고요?
05:14 네 아주 두드러졌습니다. 보고서 보면 최소 12개국 이상 10개 넘는 소셜미디어에서 이런 사례가 보고됐어요.
05:22 12개국이나요? 구체적으로 어떤 사례들이 있었나요?
05:25 인도에서는 어떤 후보가 AI로 유권자 개개인에게 맞춤형 캠페인 독려 영상을 보낸다거나
05:32 개인 맞춤으로요
05:33 네 또 미국 대선 관련해서는 스팸플러즈라고 AI가 만든 이미지 같은 걸 이용해서 허위 정보를 엄청나게 퍼뜨리는 작전도 있었고요. 남아공에서는 뭐 도로 상태 나쁘다고 비난하는 가짜 AI 이미지가 돌기도 했고요.
05:48 정말 다양한 방식으로 악용될 수 있네요.
05:50 그렇죠 다만 이런 가짜 정보들이 실제 선거 결과에 얼마나 영향을 미쳤는지는 아직 좀 불분명하다 이렇게 보고서는 얘기해요. 그래도 정보 환경에 새로운 위협인 건 분명하죠
06:01 네 그건 확실하네요. 자 그럼 경제 쪽으로 한번 넘어가 볼까요? AI가 생산성을 높여준다는 얘기는 계속 나오잖아요.
06:09 그런 연구 결과들이 꾸준히 나오고 있습니다. 대표적인 게 그 고객 지원 업무 있잖아요. 거기에 생성형 AI 도우미를 도입했더니 시간당 문제 해결 건수가 평균 14 2% 늘었대요.
06:22 14 2%면 꽤 큰데
06:24 그렇죠 근데 여기서 더 흥미로운 건 이 효과가 누구한테 더 크게 나타나냐는 거예요. 누구한테요? 상대적으로 숙련도가 좀 낮은 직원들 이분들한테서 생산성 향상이 훨씬 컸어요. 저숙년 직원은 무려 34%나 향상됐는데 고숙년 직원은 유의미한 변화가 없었고요.
06:42 와 34%요 그럼 약간 AI가 옆에서 숙련된 사수처럼 도와주는 느낌이었을까요?
06:49 그렇죠 그런 해석이 가능하죠. 어쩌면 AI가 이런 기술 격차를 좀 메워줄 수도 있겠다. 이런 가능성을 보여주는 거죠.
06:57 오 그건 정말 긍정적인 측면이네요. 과학 분야에서도 정말 큰 일이 있었죠. 2024년에 AI 관련 연구로 노벨상이 2개나 나왔잖아요.
07:07 네 이건 정말 상징적인 사건이었죠. 구글 딥마인드의 데미스 하사비스랑 존 점퍼 그 단백질 구조 예측하는 알파폴드 개발 공로로 노벨 화학상을 받았고요.
07:18 네 알파폴드는 정말 유명하죠.
07:20 그리고 존 호필드 교수랑 제프리 힌튼 교수 이분들은 인공 신경망 연구의 기초를 닦은 공로로 노벨 물리학상을 받으셨어요. AI가 이제 인류 지식의 최전선을 넓히는 데 정말 핵심적인 역할을 하고 있다는 걸 보여준 거죠.
07:35 정말 대단한 성과예요. 자 오늘 이렇게 AI 인덱스 2025 보고서를 쭉 훑어봤는데요. 정리해 보면 AI는 정말 놀라운 속도로 발전하면서 우리 생산성도 높여지고 과학적인 발견도 막 앞당기고 있어요.
07:50 그렇죠 하지만 동시에 뭐 책임 있는 사용 문제라든지 정보의 진실성 문제 또 아까 얘기했던 편향성 같은 거 우리가 같이 풀어야 할 숙제들도 점점 더 명확해지고 있는 것 같습니다.
08:02 기술 발전의 밝은 면과 함께 그 그림자 즉 위험과 과제들을 어떻게 잘 관리하고 균형을 맞출 것인가 이게 정말 중요해 보이네요. 단순히 기술 개발만 할 게 아니라 사회적인 고민과 합의 또 제도 마련이 꼭 필요하다는 생각이 듭니다.
08:18 있습니다. 특히 그 기술적 노력에도 불구하고 계속되는 암묵적 편향 문제나 AI가 만들어내는 정보의 진실성 그리고 선거 개입 가능성 같은 위험들 이건 정말 사회 전체가 깊이 고민하고 대비해야 할 문제입니다.
08:32 오늘 저희가 나눈 이야기들이 당신이 이 복잡한 AI 시대를 이해하시는 데 조금이나마 도움이 되었으면 좋겠습니다. 마지막으로 당신에게 질문 하나를 던지면서 마무리할까 합니다. 이 빠르게 변화하는 AI 환경 속에서 당신에게 가장 중요하게 다가온 AI의 가능성은 무엇인가요? 혹은 가장 우려되는 위험은 무엇인가요? 그리고 앞으로 우리는 AI의 어떤 면을 더 주의 깊게 지켜봐야 할까요? 한번 진지하게 생각해 보시면 좋겠습니다.