← 메인으로
EP. 73·25.10.26·⭐⭐⭐⭐·1시간 31분 22초

씁쓸한 교훈 The Bitter Lesson

AI 역사의 전설 Sutton이 "LLM, 내가 말한 거 다 오해했어"라고 폭탄 발언을 터뜨렸고, 그게 진짜 맞는 말인지 틀린 말인지 세 명이 1시간 반 동안 치열하게 뜯어봤어.

▶ 유튜브에서 원본 보기← 앞: EP 72. AI & 인터페이스→ 다음: EP 74. 비즈니스 관점에서 오늘의 AI : 도망자 연합 발족 선언

EP 73. 씁쓸한 교훈 The Bitter Lesson

🗺️ 이 영상의 위치

⚡ 5분 요약

한 줄

AI 역사의 전설 Sutton이 "LLM, 내가 말한 거 다 오해했어"라고 폭탄 발언을 터뜨렸고, 그게 진짜 맞는 말인지 틀린 말인지 세 명이 1시간 반 동안 치열하게 뜯어봤어.

핵심 3개

1) Sutton의 폭탄선언 — "The Bitter Lesson을 너네가 다 오해했다" AI 연구의 70년 역사를 되돌아보면 "사람의 지식을 주입하는 것"보다 "연산을 늘리는 것"이 항상 이겼어. 이게 Bitter Lesson인데, LLM 업계가 이걸 자기네 편인 줄 알고 인용해왔거든. 근데 Sutton 본인이 나타나서 "그게 아니야, 인터넷 데이터도 결국 인간 지식을 주입하는 거라 내가 비판한 것"이라고 해버린 거야. AI 업계 전체가 멘붕.

2) RLVR — 왜 갑자기 AI가 수학을 잘 풀게 됐냐 기존엔 모델이 틀린 답을 내놔도 리뷰어를 속이면 보상을 받을 수 있었어(리워드 해킹). RLVR은 "정답만 정답으로 인정"하는 방식이라 이 해킹이 막혀. 거기다 모델이 스스로 자유롭게 추론하게 냅두니까, 프리트레이닝 때 묻혀있던 진짜 실력이 갑자기 드러나는 현상이 생긴 거야. 이게 지금 AI 추론 폭발의 핵심 이유야.

3) OOD 문제 — AI가 아직 못 넘는 진짜 벽 모델은 본 적 없는 영역(Out-of-Domain)에서 여전히 무너져. 카파시도 자기가 만든 특이한 코드베이스에 에이전트를 써봤더니 다 망가지더라고 했을 정도야. 이게 AGI로 가는 길에서 가장 큰 미해결 문제고, 이걸 풀려면 모델이 "항상 학습하는 것" 자체가 에이전트의 일부가 돼야 한다는 게 김성현의 결론이야.

가장 인상적인 한 마디

"만약 저명한 노과학자가 무언가가 불가능하다고 말한다면, 그건 높은 확률로 틀렸다."

한나야, 이게 무슨 말이냐면 — Sutton이 "LLM으로는 진짜 AI 못 만들어"라고 했는데, 클라크의 법칙에 따르면 그런 말이야말로 오히려 "될 수도 있다"는 신호일 수 있다는 거야.

한나가 지금 당장 시도해볼 것

Sutton 인터뷰 원본(Dwarkesh Podcast)을 30분만 들어봐. 전부 이해 못 해도 돼. "이게 왜 이렇게 논란인가"를 분위기로 느끼는 것만으로도 다음 AI 뉴스가 훨씬 맥락 있게 들려. 유튜브에 "Sutton Dwarkesh" 검색하면 바로 나와.

🏷️ 태그