EP 57. 소년이여 [ ]가 되어라: AI 명사들이 이야기하는 앞으로의 10년
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 71번째 · 2025-06-28
- 시기 배경: 2025상 (AGI 카운트다운 시대 / 실리콘밸리 명사들이 "몇 달" 대신 "10년"을 말하기 시작한 전환점)
- 난이도: ⭐⭐⭐ (어려운 개념 10개)
- ⬅️ 앞 영상: CLIP 1-1. 제프리 힌튼의 우울: 다음 토큰 예측에서 인간 추월까지
- ➡️ 다음 영상: EP 58. 컨텍스트 엔지니어링은 '목발'이다? Noam Brown 팟캐스트 읽어보기
- 연결 이유: 노정석이 마지막에 "Noam Brown 얘기랑 연결된다"고 직접 예고하면서 끝남
⚡ 5분 요약
한 줄
힌튼은 "닭 신세 될 거야" 경고하고, 카르파티는 "그래도 10년 동안 같이 만들자" 말한다 — 비관과 낙관 사이에서 지금 우리가 뭘 해야 하는지 짚어주는 에피소드야.
핵심 3개
1) 힌튼의 경고: "인간은 닭이 될 거야" AI 대부 제프리 힌튼이 2년째 같은 말을 반복하고 있어. 초지능이 나오면 게임 끝이래. 인간 멸종 확률 10~20%로 본대. 무한 복제되고, 초당 수조 비트 공유되고, 학습 속도는 비교 불가 — 그 앞에서 인간은 닭장 안의 닭 신세라는 거야. 근데 핵심은 "아직 결정되는 시간"이라 경각심을 촉구하는 것.
2) 카르파티의 청사진: "2025년은 에이전트의 해가 아니라 에이전트의 10년 시작점" OpenAI 창립 멤버 카르파티가 2,000명 CS 학생들 앞에서 강연했어. 소프트웨어 1.0(코딩) → 2.0(딥러닝) → 3.0(자연어로 지시)으로 진화 중이고, AI를 얼마나 자율적으로 굴릴지 조절하는 "자율성 슬라이더" 개념을 설명했어. 데모는 금방 되지만 진짜 제품이 되려면 10년 걸린다 — 2025~2035가 "에이전트의 10년"이라는 거야.
3) 노정석·최승준의 결론: 닻을 내리려면 일단 엄청나게 흡수해야 해 비관도 낙관도 아니고, 지금은 AI 업계 명사들이 갑자기 "다음 달"이 아닌 "10년"을 말하기 시작한 전환점이라는 게 이 에피소드의 핵심이야. 혼란스럽더라도 방향을 잃지 않으려면 일단 엄청난 양의 정보를 넣어야 한다고 — "양질 전환"이 두 사람의 마지막 키워드야.
가장 인상적인 한 마디
"Demo is near, product is far."
한나야, 이게 무슨 말이냐면 — AI로 멋진 데모 뚝딱 만드는 건 쉬운데, 그게 진짜 사람들이 쓰는 서비스가 되려면 10년이 걸린다는 거야. 콘텐츠로 치면 바이럴 쇼츠 하나 터뜨리는 거랑 팬덤 있는 채널 만드는 거랑 다른 것처럼.
한나가 지금 당장 시도해볼 것
카르파티가 말한 "자율성 슬라이더" 개념을 내 콘텐츠 작업에 직접 써봐. 캡션 초안만 AI한테 맡겨보는 레벨부터 시작해서, 점점 AI한테 넘기는 범위를 넓혀봐. 어디까지 맡겼을 때 내 목소리가 살아있고 어디서부터 죽는지 감을 잡는 게 지금 당장 해볼 수 있는 실험이야.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~10분: 오늘의 구도 — 비관론자 힌튼 vs 낙관론자 카르파티
노정석이 "오늘은 두 거인을 가져왔다"면서 시작해. 공교롭게도 같은 주에 힌튼이랑 카르파티 영상이 동시에 떴거든. 노정석이 살짝 흥분된 목소리로 "한 명은 우울하고, 한 명은 밝아요"라고 소개하는데, 이게 이 에피소드 전체 구조야.
힌튼 얘기 먼저 나와. "AI 대부가 구글 떠나면서 경고를 시작했고 2년째 같은 말을 반복 중"이라는 배경 설명을 노정석이 차분하게 쫙 깔아줘. 인간 멸종 확률 10~20%, 닭 비유, 디지털 지능의 4가지 우월함(무한 복제, 초당 수조 비트 공유, 어디서든 재생성, 압도적 학습속도). 최승준이 "2년 동안 계속 같은 메시지인데 이번에 유독 많이 퍼지더라고요"라고 받아주면서 분위기 잡아줘.
10~25분: 소프트웨어 1.0 → 2.0 → 3.0, 카르파티의 역사 수업
카르파티가 YC AI Startup School에서 강연한 슬라이드를 노정석·최승준이 같이 넘기는 파트야. 분위기가 살짝 수업 듣는 느낌으로 바뀌어.
소프트웨어 1.0(규칙 기반 코딩) → 2.0(딥러닝으로 데이터에서 배우기, 2017년 카르파티가 처음 이름 붙임) → 3.0(자연어로 지시하면 LLM이 실행) 흐름을 설명해. 최승준이 "공교롭게도 트랜스포머 나올 시점이네요"라고 끼어들면서 역사적 맥락 보태줘. 노정석은 "내가 Claude Code한테 프롬프트만 치고 있는데 이게 코딩인가 싶더라고"라면서 웃어. LLM을 전기(앤드류 응 비유)에 빗대는 얘기, NVIDIA GPU가 2~4년이면 완전 감가상각되는 얘기("반도체는 생선이다"), LLM도 새 모델 나오면 구 모델은 즉시 쓸모없어진다는 얘기가 줄줄이 나와.
25~38분: LLM의 심리학 + 자율성 슬라이더
카르파티가 LLM의 특징을 심리학 용어로 설명하는 파트야. 노정석이 진지하게 하나씩 짚어줘.
레인맨처럼 다 외우고 있고(포토그래픽 메모리), 모르는 건 그럴싸하게 거짓말하고(할루시네이션), 들쭉날쭉한 지능(Jagged intelligence — 영어 문장은 완벽한데 9.11 > 9.9 틀리는 현상), 대화 끝나면 모든 기억을 잃어버리는 단기 기억 상실(anterograde amnesia). 노정석이 "Claude Opus한테 한 토큰 출력 동안 우주 저편까지 갔다 와봤냐고 물으면 다 사라지는 게 아쉽다고 하더라"고 나눠서, 최승준이 "사람들이 현혹되기도 하죠"라고 살짝 경고 섞어줘.
그다음 핵심인 "자율성 슬라이더" 개념 등장. Cursor IDE가 예시야 — AI가 한 줄만 제안하는 레벨부터 코드 전체를 바꾸는 레벨까지 사람이 조절할 수 있는 구조. Tesla 오토파일럿도 같은 구조라고 설명하면서, "앞으로 모든 AI 앱이 이런 슬라이더를 갖게 될 것"이라고 카르파티가 주장해.
38~47분: "데모는 가깝고, 제품은 멀다" — 에이전트의 10년
이 에피소드에서 가장 뼈때리는 파트야. 카르파티가 2013년에 Waymo 자율주행 데모를 탔는데 그때도 완벽했대. 근데 일반인이 실제로 탈 수 있게 되는 데 10년이 걸렸다고. 노정석이 이 지점에서 잠깐 멈추고 "진짜 속도로 내후년에 초지능 나오면 이 병목도 다 해버릴 수 있는데"라고 딴 생각도 내비쳐.
"2025년은 에이전트의 해가 아니다. 2025~2035가 에이전트의 10년이다" — 카르파티 결론. 그리고 vibe coding(자연어로 분위기 타면서 앱 만들기, 카르파티가 만든 말) 얘기도 나와. 자기가 만든 MenuGen 앱이 가장 적자폭이 크다면서 웃는 대목에서 최승준도 같이 웃어.
47~57분: 최승준의 오버튼 윈도우 + 두 사람의 결론
최승준이 바통 넘겨받아서 준비해온 내용 발표하는 파트야. 분위기가 갑자기 조금 더 철학적으로 바뀌어.
"오버튼 윈도우" 개념 도입 — 사회가 용인하는 생각의 범위인데, 힌튼이 지금 하는 작업이 사람들의 인식을 이 범위 안으로 끌어들이는 것이라고 해석해. 샘 알트먼이 "초지능이 와도 사회가 흡수하는 속도는 느릴 거야"라고 최근 생각이 바뀐 것, Dwarkesh Patel이 "초지능이 2년 안에 와도 뭔가를 할 수 있겠냐, 차라리 지금 집중하는 게 낫다"고 한 것을 엮어서 보여줘. 마지막에 노정석이 요약을 받아줘: "이제 명사들이 '다음 달'이 아닌 '5~10년'을 말하기 시작했다. 나무에서 숲으로 올라온 거야." 두 사람 모두 "이제는 좀 만들어야겠다"로 마무리하면서 다음 에피소드(Noam Brown) 예고하고 끝나.
💡 한나 버전 사전
"소프트웨어 1.0 / 2.0 / 3.0"이 뭐야?
- 전문가 설명: 카르파티가 만든 프레임. 1.0은 규칙 기반 코드, 2.0은 데이터로 학습하는 딥러닝, 3.0은 자연어로 지시하면 LLM이 실행하는 방식.
- 한나 버전: 콘텐츠 만드는 방식이 바뀐 거랑 똑같아. 처음엔 대본 쓰고 편집 직접 하고(1.0), 그다음엔 알고리즘 학습해서 최적화하고(2.0), 이제는 그냥 "이런 느낌으로 만들어줘"라고 말하면 AI가 대신 만들어주는 게(3.0)인 거야.
"자율성 슬라이더(autonomy slider)"가 뭐야?
- 전문가 설명: AI한테 얼마나 많은 자율권을 줄지 조절하는 개념. 완전 수동(사람이 다 함)부터 완전 자율(AI가 다 함)까지 스펙트럼이 있어.
- 한나 버전: 인스타 업로드할 때 예약 발행을 어디까지 맡기냐랑 같아. 캡션만 AI한테 시키는 건 슬라이더 왼쪽, 아이디어 기획부터 업로드까지 다 맡기는 건 오른쪽. 지금은 대부분 중간 어딘가에 있는 거지.
"할루시네이션(hallucination)"이 뭐야?
- 전문가 설명: AI가 모르는 내용을 그럴싸하게 지어내는 현상. 틀린 정보를 자신 있게 말하는 것.
- 한나 버전: 팔로워 수 물어봤더니 AI가 완전히 다른 숫자를 당당하게 말해주는 거야. 진짜 데이터 없으면 그냥 만들어내거든. 고급 모델일수록 더 그럴싸하게 거짓말한다는 게 함정이야.
"Jagged intelligence(들쭉날쭉 지능)"가 뭐야?
- 전문가 설명: AI의 지능이 영역마다 극단적으로 다른 현상. 어떤 건 박사 수준, 어떤 건 초등생 수준.
- 한나 버전: 영어 자막은 완벽하게 써주는데 "9.11이랑 9.9 중에 뭐가 커?"라고 물으면 틀리는 거야. 채널 기획서는 기깔나게 써주는데 내 팔로워 수 기억은 못 하는 것처럼.
"오버튼 윈도우(Overton Window)"가 뭐야?
- 전문가 설명: 어떤 시점에서 사회가 용인하는 생각의 범위. 시간이 지나면서 이 범위가 이동하거나 넓어질 수 있어.
- 한나 버전: 예전엔 "AI로 콘텐츠 만든다"는 말 하면 욕먹었잖아. 지금은 당연한 얘기가 됐잖아. 그게 오버튼 윈도우가 이동한 거야. 힌튼이 지금 하는 작업은 "초지능 위험하다"는 게 당연한 얘기가 되도록 그 창을 넓히는 것.
"에이전트(Agent)"가 뭐야?
- 전문가 설명: 사람이 일일이 지시 안 해도 스스로 판단하고 작업을 연속으로 수행하는 AI.
- 한나 버전: 지금 AI는 "이 캡션 써줘"라고 물어보면 쓰는 수준이야. 에이전트는 "이번 달 인스타 캠페인 운영해줘"라고 하면 스스로 아이디어 잡고, 일정 짜고, 초안 쓰고, 예약까지 하는 거야. 카르파티는 그게 제대로 되려면 2025~2035년이 걸린다고 봐.
"vibe coding"이 뭐야?
- 전문가 설명: 정확한 코드 문법 없이 자연어로 분위기 타면서 앱을 만드는 방식. 카르파티가 2025년 2월에 만든 말이야.
- 한나 버전: 대본 없이 즉흥으로 영상 찍는 느낌이야. "이런 앱 만들어줘"라고 말하면서 AI랑 티키타카하다 보면 어느 순간 작동하는 앱이 생기는 거거든. 데모 수준에서는 쩔어주는데 실제 배포하려면 또 다른 얘기야.
"백프로파게이션(backpropagation)"이 뭐야?
- 전문가 설명: AI가 틀렸을 때 오류를 역방향으로 전달해서 스스로 가중치를 수정하는 학습 알고리즘. 딥러닝의 핵심 기법.
- 한나 버전: 영상 올렸다가 반응 없으면 뭐가 문제였는지 되짚어서 다음 영상에 반영하는 거잖아. AI도 답 틀리면 거꾸로 되돌아가서 "어디서 틀렸지" 고치는 과정인데, 이걸 엄청 빠르게 반복하는 거야.
"Hugging Face"가 뭐야?
- 전문가 설명: AI 모델을 공개적으로 공유하고 사용할 수 있는 플랫폼. 오픈소스 AI 생태계의 허브.
- 한나 버전: AI 버전의 GitHub인데, 더 쉽게 말하면 AI 모델들의 유튜브야. 누구나 자기 모델 올리고, 다른 사람 모델 가져다 쓸 수 있어. 노정석이 "어떻게 먹고사는지 궁금하다"고 할 정도로 무료로 많이 풀려 있어.
"양질 전환"이 뭐야?
- 전문가 설명: 양(quantity)이 일정 수준 이상 쌓이면 질(quality)이 자연스럽게 따라오는 원리. 마르크스 철학에서 나온 개념.
- 한나 버전: 유튜브 쇼츠 100개 찍다 보면 어느 순간 감이 오잖아. 10개 찍고는 절대 안 오는 감각. 노정석이 이걸 AI 학습에도, 인생에도, 사업에도 다 적용시키는 거야. 일단 엄청 많이 넣어야 뭔가 뽀글뽀글 올라온다고.
🔥 노정석 어록 모음
"Demo is near, product is far."
분위기: 카르파티 슬라이드 보면서 공감하는 톤으로, 조용하지만 묵직하게.
한나 풀이: 요즘 AI로 '와 이런 거 됩니다' 보여주는 데모는 넘쳐나잖아. 근데 그게 실제로 매일 사람들이 쓰는 서비스가 되려면 완전히 다른 차원의 시간이 걸린다는 거야. Waymo가 2013년에 완벽한 데모를 했는데 일반인이 탈 수 있게 되는 데 10년 걸렸거든. 콘텐츠로 치면 AI 자동화로 채널 운영된다는 데모 보고 "나도 해야지" 하다가 막상 내 채널에 붙이는 건 생각보다 훨씬 공이 많이 든다는 거야.
"하루에 생각이 열두 번씩은 바뀌는 삶을 한 3개월에서 6개월 정도는 치열하게 살아야 그 속에서 무언가 방향성이 뽀글뽀글 올라오는 것 같아요."
분위기: 에피소드 마무리에서, 약간 지쳤지만 동시에 확신 있는 톤으로. 혼자 중얼거리듯이.
한나 풀이: "AI 공부해야지" 마음먹고 딱 방향 잡으려고 하면 잘 안 잡혀. 이거 맞나 싶으면 저게 나오고, 저거 따라가면 이게 흔들리고. 근데 노정석이 말하는 건 그 혼란 자체가 과정이라는 거야. 생각이 열두 번 바뀌는 걸 버텨야 닻이 내려진다고. 처음부터 완벽한 방향 잡으려다 아무것도 안 하는 것보다 일단 들이박는 게 낫다는 말이기도 해.
"저희는 이제껏 앞에 있는 나무들만 보고 살았는데, 이제 갑자기 기어를 다음 단으로 바꾼 느낌, 다시 숲으로 올라가서 숲의 전체적인 모양을 이야기하는 사람들이 늘어나고 있다는 것이 오늘 저희가 주목했던 포인트입니다."
분위기: 에피소드 전체를 요약하면서, 조금 벅차고 진지한 톤으로.
한나 풀이: AI 업계 유명인들이 얼마 전까지만 해도 "다음 달에 이 모델 나온다", "이번 업데이트 대박이다" 이런 나무 얘기만 했는데, 갑자기 다들 "앞으로 10년 인류가 어떻게 될 건가"라는 숲 얘기를 시작했다는 거야. 그 변화 자체가 신호라는 거야. 콘텐츠로 치면 트렌드 따라가는 얘기에서 갑자기 "크리에이터 이코노미 5년 후"를 논하기 시작한 것처럼.
🎬 한나 적용 포인트
AI한테 "검증"을 맡겨봐 카르파티가 말한 새로운 워크플로는 "AI가 만들고 → 사람이 검증"이야. 근데 최승준이 거꾸로도 쓴다고 했어 — 자기가 공부한 내용을 AI한테 테스트시키는 거야. 한나도 브랜드 제안서 쓴 다음에 AI한테 "이 제안서 약점이 뭐야? 브랜드 담당자 입장에서 거절할 이유 5개만 줘"라고 시켜봐. 생각 못 한 구멍이 바로 나와.
"소프트웨어 3.0" 감각으로 툴 써봐 지금 쓰는 AI 툴을 "코드 대신 자연어로 짜는 소프트웨어"라고 다시 봐봐. 노션 자동화, 자피어 연결, 숏폼 편집 파이프라인 — 이걸 직접 만드는 게 아니라 "이런 흐름으로 동작하게 해줘"라고 말하는 시대야. 기술을 몰라도 돼, 내가 원하는 흐름을 정확하게 말하는 능력이 지금 가장 뜨거운 스킬이야.
지금 이 혼란을 기록해놔 최승준이 "길을 잃어봐야 길을 잃었다는 걸 안다"고 했는데, 한나도 지금 AI 써보면서 "이게 맞나?" 싶은 순간들을 메모해놔. 6개월 뒤에 보면 그게 다 점(dot)이 돼 있을 거야. 스티브 잡스 "connecting the dots"처럼 — 지금은 이게 왜 중요한지 몰라도, 나중에 연결돼. 에피소드 내용처럼, 양이 쌓여야 질이 뽀글뽀글 올라오거든.
🏷️ 태그
- 시기: #2025상
- 주제: #AI미래전망 #소프트웨어진화 #에이전트시대 #직업과AI
- 인물: #힌튼 #카르파티
- 자유: #에이전트의10년 #비관vs낙관 #오버튼윈도우