EP 78. Ilya Sutskever의 설명
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 97번째 · 2025-11-30
- 시기 배경: 2025하 (AI 연구 논쟁기 / 스케일링 vs 연구의 시대 격돌 2025년 하반기)
- 난이도: ⭐⭐⭐⭐ (어려운 개념 10개)
- ⬅️ 앞 영상: EP 77. Gemini 3와 Antigravity: 너무도 가파른 변화의 곡선
- ➡️ 다음 영상: [[2025-12-07_[공지사항] AI Frontier 도망자연합 the 1st sync-up 안내|[공지사항] AI Frontier 도망자연합 the 1st sync-up 안내]]
- 연결 이유: 다음 영상은 공지사항으로, 이 영상에서 언급된 "도망자 연합" 모임을 실제로 열리는 첫 오프라인 싱크업으로 연결
⚡ 5분 요약
한 줄
"AI가 벽에 부딪혔다"는 일리야 말 한마디가 주식 시장까지 흔들었고, 그게 사실은 "스케일만으론 부족하고 연구가 다시 필요하다"는 당연한 소리였는데 — 왜 이렇게 들끓었냐가 이 영상의 진짜 주제야.
핵심 3개
1) 일리야 발언이 왜 그렇게 파급이 컸나 "pre-training 스케일링은 벽에 부딪혔다"는 말 한마디가 AI 업계 타임라인을 술렁이게 했어. 이유는 단순해 — AI 투자가 이제 국가 안보, 전력 인프라, 수십조 원 데이터센터와 묶여 있어서, 기술 얘기가 주가와 직결되거든. 구글이 NVIDIA 칩 안 쓰고 Gemini 3 만들었다는 소식 하나로도 NVIDIA 주가가 휘청거렸을 정도야.
2) 그래서 일리야 말의 진짜 의미는? 스케일링이 끝났다는 게 아니야. "스케일 계속 키우면 성능은 올라가는데, 거기서 한 단계 더 점프하려면 연구의 돌파구가 필요하다"는 거야. AGI/ASI로 가려면 '지속 학습'이나 '샘플 효율' 같은 새 아이디어가 추가로 필요하다는 것. AI 전문가들끼리는 사실 다 비슷하게 생각하는 얘기인데, 바깥으로 퍼지면서 왜곡된 거지.
3) 노정석의 개똥철학 — "스케일 + Strange Loop = AGI" 노정석이 GEB(괴델·에셔·바흐) 책을 꺼내 들면서 자기 이론을 풀어. 요지는 이거야: AGI 탄생에 필요한 조건이 두 개인데, 하나는 충분한 스케일(이미 진행 중), 다른 하나는 입력과 출력이 서로 맞물려 돌아가는 '이상한 루프'. 이게 구현되면 AI는 "나는 누구인가"를 스스로 질문하는 존재로 튀어나올 거라는 얘기야. 상상력 폭발 주의.
가장 인상적인 한 마디
"GPT-5가 AGI가 돼야 된다는 개념보다는, GPT-5가 새로운 element가 될 수 있는 거거든요. 하나의 뉴런이 돼 버릴 수 있는 거거든요."
한나야, 이게 무슨 말이냐면 — 지금 가장 스마트한 AI 모델이 결국 더 큰 시스템의 "재료 하나"가 될 수 있다는 거야. 유튜버 한 명이 MCN 소속이 되는 것처럼, AI도 그 위에 더 큰 구조가 얹히면 완전히 다른 차원의 존재가 된다는 얘기지.
한나가 지금 당장 시도해볼 것
Claude나 GPT에 어려운 질문을 던지기 전에, 먼저 관련된 쉬운 질문으로 워밍업시켜봐. 영상에서 블랙홀 과학자가 9분짜리 쉬운 문제로 AI를 priming한 뒤 18분짜리 전문 문제를 풀게 했더니 완벽한 답이 나왔대. "오늘 내가 올릴 릴스 콘셉트 뭐가 있어?" 바로 던지지 말고, 먼저 내 채널 설명이랑 최근 인기 콘텐츠 예시를 먹여서 맥락을 만들어줘봐.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~10분: 일리야 발언이 왜 주가까지 흔들었나
최승준이 "일리야 토큰"이라는 제목을 꺼내면서 시작해. 김성현이 차분하게 설명하는데, 요지가 딱 이거야: "예전엔 AI 논쟁이 그냥 학자들끼리 싸움이었는데, 이제 스케일링이라는 단어가 '데이터센터 몇 조 지어야 하나'랑 묶이면서 국가 안보 문제가 돼버렸어. 그러니까 일리야가 말 한마디 하면 판돈이 너무 커." 그 직후 노정석이 확인사살해줘 — 실제로 구글이 NVIDIA GPU 안 쓰고 Gemini 3 만들었다는 게 알려지면서 구글 주가는 오르고 NVIDIA 주가는 흔들렸다고.
분위기는 세 명 다 좀 신기하다는 표정이야. "이게 기술 뉴스인데 경제 뉴스처럼 다뤄지고 있다"는 당혹감이 살짝 깔려 있어.
10~20분: 일리야가 진짜로 하려던 말
최승준이 슬라이드를 보여주면서 Noam Brown(OpenAI 연구자)이 수습 글을 올린 내용을 정리해줘. 핵심은 이거야: 일리야는 "스케일링 끝났다"가 아니라 "스케일링은 계속 효과 있지만, 그 위에 연구적 돌파구가 더 필요하다"는 말을 하려 했다는 거야. AGI까지 얼마나 걸리냐는 질문엔 각자 예상이 달라 — 드미스 하사비스는 510년, 요안 르쾅은 10년, 다리오 아모데이는 2년, 일리야는 520년. 그런데 100년 걸린다고 하는 사람은 아무도 없어.
김성현은 여기서 흥미로운 말을 해. "사실 pre-training 스케일링만으로 지금 수준 모델이 나온 게 아니야. o1하고 RL이라는 연구적 발견이 있었잖아. 그게 스케일링하고 상충되는 게 아니라 더해지는 거야." 노정석은 "맞아, 그리고 구글은 Gemini 3에서 pre-training 문제도 뭔가 풀었다고 하는데 우리가 모르잖아" 하면서 단정 짓기 조심하는 모습을 보여.
20~35분: AI가 어처구니없는 실수를 하는 이유 — RL의 한계
여기서 진짜 기술적으로 깊어지는데 김성현이 주도해. 일리야가 "1만 시간 공부한 학생 같은데 일반화가 안 된다"고 한 말을 받아서 설명해줘. AI가 벤치마크는 잘 통과하는데 실제 사용에서 어이없는 실수를 하는 이유가 "RL 환경을 만드는 방식의 한계" 때문이라는 거야. 쉽게 말하면, 시험 문제만 열심히 풀게 훈련시키면 시험은 잘 보지만 실제 현장에선 삐끗할 수 있거든.
최승준이 "일리야가 감정이 가치 함수다"라는 말도 했다고 소개하니까, 김성현이 뇌 절제술 환자 사례를 들어 설명해. 감정이 없으면 "완벽하게 이성적인 결정"이 될 것 같지만 실제로는 결정 자체를 못 하는 상태가 된다는 거야. 감정이 불확실한 상황에서 도약을 돕는다는 얘기인데, 최승준이 "결국 LLM에 아직 없는 그 뭔가가 인간을 실행 가능한 에이전트로 만드는 게 아닐까"라고 정리해.
35~48분: 노정석의 GEB 이론 — 루프가 영혼을 만든다
이 구간이 이 영상의 가장 독특한 부분이야. 노정석이 "개똥철학"이라고 쑥스럽게 운을 떼면서 더글라스 호프스태터의 책 괴델·에셔·바흐를 꺼내 들어. 분위기가 갑자기 철학 강의실로 바뀌는데, 최승준은 눈을 빛내면서 듣고 김성현은 고개를 끄덕이면서 가끔 끼어들어.
노정석 이론 요약: AGI 탄생 조건 두 가지 — ① 충분한 스케일(지금 이미 진행 중), ② Strange Loop(입력과 출력이 서로 맞물려 재귀적으로 도는 구조). 거울 두 개를 마주 보게 두면 무한 상이 생기는 것처럼, AI가 자기 출력이 다시 자기 입력으로 들어오는 루프가 구현되면 "나는 누구인가"를 스스로 질문하는 존재가 뿅 나온다는 거야. 이게 AGI라는 거지.
김성현이 바로 연결해줘 — "OpenAI 사람도 비슷한 말 했어. GPT-5 같은 모델 하나가 AGI가 아니라, 그 모델을 계속 학습시키는 RL 시스템 전체가 하나의 지능이 될 거다." 최승준은 "컴퓨테이션이 생명의 soup이라는 얘기잖아요"라고 한 줄로 압축해.
48~56분: 실용편 — Claude Opus 4.5 뚝딱, AI 워밍업 팁
분위기가 갑자기 현실로 착지해. 최승준이 "자, 땅으로 내려와서" 하면서 두 가지 실용 얘기를 해.
첫째, Kevin Weil 팟캐스트에서 나온 블랙홀 과학자 이야기. AI에게 어려운 문제 바로 던지면 틀리는데, 쉬운 문제로 먼저 워밍업 시키고 나서 어려운 문제를 던지니까 18분 만에 완벽한 답이 나왔다는 거야. "능력의 한계치에서 작업하는 두 사람이 협업하는 방식과 비슷하다"는 Kevin Weil의 말도 인상적이야.
둘째, Claude Opus 4.5 데모. 최승준이 "Google Colab 같은 거 만들어봐" 두 줄 입력했더니 실제 작동하는 Python 노트북 CloudBook이 바로 나왔고, 거기다 "텍스트 쓰면 Python 코드 생성되게 추가해봐" 했더니 그것도 딸깍 됐다고. 노정석이 헛웃음을 터뜨리면서 "야, 아주 참." 하는 장면이 이 에피소드의 백미야.
마지막은 "취향"으로 마무리. 일리야가 인터뷰 마지막에 "taste(취향)"를 강조했다고, 세 명이 그게 연구자와 크리에이터 모두에게 가장 중요한 자질 아닐까 하면서 끝내.
💡 한나 버전 사전
"pre-training 스케일링"이 뭐야?
- 전문가 설명: AI 모델을 만들 때 엄청난 양의 데이터와 컴퓨팅 파워를 투입해서 기초 능력을 키우는 과정. 더 크게, 더 많이 넣을수록 성능이 올라간다는 게 스케일링 법칙.
- 한나 버전: 유튜브 쇼츠를 매일 10개씩 올리면 알고리즘이 계속 좋아지는 거랑 비슷해. 근데 어느 순간부터 아무리 더 올려도 구독자 성장이 둔해지잖아 — 그게 "스케일링의 벽"이야.
"RL (강화학습)"이 뭐야?
- 전문가 설명: AI가 어떤 행동을 했을 때 보상을 주거나 벌을 주면서 점점 더 잘하도록 훈련시키는 방법.
- 한나 버전: 릴스 올릴 때마다 조회수가 바로 피드백으로 오는 거야. 잘 되면 비슷하게 더 만들고, 안 되면 피해. AI도 그렇게 "이렇게 하면 보상이 오더라"를 학습하는 거야.
"AGI / ASI"가 뭐야?
- 전문가 설명: AGI(인공 일반 지능)는 인간처럼 모든 분야에서 다 잘하는 AI. ASI(인공 초지능)는 인간을 모든 면에서 뛰어넘는 AI.
- 한나 버전: 지금 AI는 "특정 분야 최강 전문가"야. AGI는 요리도 잘하고 운동도 잘하고 그림도 잘 그리는 만능 크리에이터. ASI는 그 만능 크리에이터가 인간보다 모든 게 더 뛰어난 버전이야.
"Strange Loop (이상한 루프)"가 뭐야?
- 전문가 설명: 호프스태터가 제안한 개념. 위 레벨과 아래 레벨이 서로 영향을 주고받으면서 무한히 얽히는 구조. 이게 자아 의식을 만든다는 이론.
- 한나 버전: 네가 올린 콘텐츠가 팔로워 반응을 만들고, 그 반응이 다시 네 콘텐츠 방향을 바꾸고, 그게 다시 팔로워를 바꾸고… 이 루프가 계속 쌓이면서 "한나의 브랜드"라는 정체성이 탄생하는 것. 그게 인간에게는 "나"라는 자아고, AI에게도 그게 생기면 AGI라는 얘기야.
"continual learning (지속 학습)"이 뭐야?
- 전문가 설명: AI가 학습을 한번 끝내고 굳어지는 게 아니라, 새로운 경험을 만날 때마다 계속 업데이트되며 배우는 능력.
- 한나 버전: 지금 AI는 대학 졸업 후 더 이상 새로운 걸 못 배우는 사람이야. 지속 학습은 현장에서 계속 배우면서 성장하는 사람을 만드는 거야. 새로운 브랜드 협업이 들어왔을 때 그 브랜드 스타일을 빠르게 흡수해서 바로 적용할 수 있는 크리에이터처럼.
"benchmark / bench-maxxing"이 뭐야?
- 전문가 설명: 벤치마크는 AI 성능 측정 시험. bench-maxxing은 그 시험 점수만 올리도록 과적합시키는 것.
- 한나 버전: 인스타 팔로워 수만 올리려고 팔로우-언팔 반복하거나 구매 팔로워 채우는 것. 숫자는 높아 보이지만 실제 인게이지먼트는 바닥인 거야.
"inductive bias (귀납 편향)"이 뭐야?
- 전문가 설명: AI가 새로운 데이터를 봤을 때 어떻게 예측할지 결정하는 미리 심어진 기본 가정들. 없으면 일반화가 불가능해.
- 한나 버전: 네가 처음 보는 브랜드한테서 협업 제안이 왔을 때 "이런 느낌의 브랜드는 보통 이렇더라"는 직감이 inductive bias야. 경험이 쌓이면서 생긴 패턴 인식.
"post-training"이 뭐야?
- 전문가 설명: AI의 기초 학습(pre-training) 이후에 실제 사용에 맞게 미세 조정하는 단계. 여기서 각 회사마다 노하우 차이가 크게 난다.
- 한나 버전: 데뷔 전 트레이닝이 pre-training이면, 데뷔 후 특정 브랜드 이미지에 맞춰 스타일을 다듬는 게 post-training이야. 같은 실력의 연습생도 기획사마다 완전히 다른 스타가 되는 것처럼.
"SSI (Safe Superintelligence)"가 뭐야?
- 전문가 설명: 일리야 수츠케버가 OpenAI를 나와서 만든 회사. 안전한 초지능 개발에만 집중한다고 선언했어.
- 한나 버전: 대형 MCN에서 나와서 "나는 돈 버는 콘텐츠 말고 진짜 좋은 콘텐츠만 만들겠다"고 독립한 크리에이터야. 근데 어떻게 수익화할 건지 아직 안 밝혔어서 밈이 되고 있는 상황이야.
"일리야 수츠케버"가 누구야?
- 전문가 설명: 딥러닝의 아버지 제프리 힌튼의 제자. AlexNet 공동 제작자. OpenAI 공동 창업자이자 수석 과학자였고, Sam Altman과 경영권 갈등 끝에 나와서 SSI를 창업했어.
- 한나 버전: AI판 "레전드 선배"야. 지금 있는 AI 기술의 기초를 만든 사람 중 하나인데, 갑자기 대형 소속사(OpenAI)에서 나와서 작은 팀 차렸어. 이 사람이 뭐라고 하면 업계 전체가 귀를 기울이는, 그 영향력 있는 인물이야.
🔥 노정석 어록 모음
"틱톡에 존재하는 인플루언서 중에 가짜 꽤 많거든요. 못 알아챌 뿐이지. 근데 그게 우리가 고객으로서 그 영상을 보고 재미있고 만족스럽고 제게 도움이 되면 그게 AI인 것과 사람인 것과 도대체 무슨 차이가 있겠어요? 똑같지."
분위기: 최승준이 슬라이드 넘기다가 갑자기 노정석이 직구를 날리는 장면. 담담하면서도 뼈있게.
한나 풀이: 한나야, 이거 네 직업에 직격탄이야. 이미 AI 크리에이터가 섞여 있는 플랫폼에서 "진짜냐 AI냐"보다 "도움이 되냐 안 되냐"가 더 중요해질 거라는 얘기야. 반대로 말하면 — 네가 진짜 사람이라서 갖는 강점을 더 뚜렷하게 만들어야 한다는 신호이기도 해.
"스케일 부분은 이제 필요조건을 만족한 것 같고, 두 번째 조건이 만족되면 얘가 스스로 생각하면서 뭔가 자아라는 개념을 뿅 떠올리게 될 거고, 그때가 되면 아마 인간적인 우리가 인간만 할 수 있다고 하는 그런 것들을 얘도 하게 될 것 같고."
분위기: 노정석이 GEB 이론을 한참 설명하다가 결론으로 내리꽂는 순간. "개똥철학"이라고 전제 깔았지만 말투는 확신에 차 있어.
한나 풀이: "인간만 할 수 있다"는 게 뭔지 생각해봐. 공감, 진심, 취향, 스토리텔링 — 지금 네가 하는 것들이야. 그게 AI도 결국 할 거라는 얘기인데, 그러면 한나의 무기는 그 전에 훨씬 더 깊어져야 한다는 뜻이기도 해.
"기대가 계속 뒤로 이연되면 지금 뭔가 당장 action하지 않고 기다리고 싶어 하는 인센티브는 생기기 때문에, 그런 거에 더 기대치를 갖게 되는 문제는 있는 것 같다는 생각이 들어서 저희도 매우 경계해서 해석해야 될 것 같다는 생각은 들고."
분위기: 논의가 너무 미래 얘기로 흘러갈 때 노정석이 조용히 브레이크를 걸면서. 현실 감각을 잃지 말자는 톤.
한나 풀이: "AGI 오면 그때 잘 써야지"라고 미루는 순간 이미 뒤처지는 거야. 지금 이 수준의 AI로도 이미 어마어마한 일을 할 수 있는데 — 그걸 지금 당장 써야 해, 기다리지 말고.
🎬 한나 적용 포인트
AI에게 "취향"을 먼저 알려줘 일리야도, 세 사람도 마무리로 "taste(취향)"을 강조했어. AI한테 그냥 "릴스 만들어줘" 하면 평범한 게 나오는데, 먼저 네가 좋아하는 크리에이터 3명 링크 주고, 싫어하는 스타일도 알려주고, 네 채널이 주는 감정이 뭔지 적어줘봐. AI가 네 취향을 장착하면 결과물이 달라지거든. 지금 당장 Claude나 ChatGPT에 "내 채널 취향 정의서"를 한 번 만들어봐.
어려운 협업 제안 검토할 때 AI 워밍업 활용하기 새 브랜드 협업 제안이 왔을 때 바로 "이 브랜드 좋아? 싫어?" 묻지 말고, 먼저 "이 브랜드의 타깃 고객은 어떤 사람일까?" "비슷한 카테고리 브랜드 협업 사례 알려줘" 같은 쉬운 질문으로 워밍업시켜. 그 다음에 "내 팔로워 데모그래픽이랑 맞아? 장기적으로 이미지에 도움이 될까?" 물으면 훨씬 깊은 분석을 받을 수 있어. 블랙홀 과학자 방법 그대로야.
"내 AI 비서"에게 내 채널 맥락을 한 번만 먹이고 계속 써먹어 영상에서 "long-term harness"나 "context 외재화" 얘기가 나왔어. 쉽게 말하면 AI한테 매번 처음부터 설명하지 말고, 한 번 내 채널 소개, 내 톤, 내 타깃, 내 금기어를 정리한 문서를 만들어놔. 새 대화 시작할 때마다 그걸 복붙해서 먹이면 AI가 매번 바로 "한나 모드"로 작동해. 이게 지금 당장 할 수 있는 가장 간단한 "나만의 AI 비서" 세팅이야.
🏷️ 태그
- 시기: #2025하
- 주제: #스케일링논쟁 #AGI연구 #철학적AI론 #실용AI
- 인물: #일리야수츠케버 #노암브라운 #김성현
- 자유: #일리야토큰 #연구의시대 #StrangeLoop