EP 90. 알파고 이후, 10년 (feat. HyperAccel 이진원 CTO)
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 110번째 · 2026-03-15
- 시기 배경: 2026상 (AI 자기증강 시대 개막 / AlphaGo 10주년 회고 & Autoresearch 등장)
- 난이도: ⭐⭐ (어려운 개념 10개)
- ⬅️ 앞 영상: EP 89. 딸깍과 덜컹
- ➡️ 다음 영상: EP 91. 26.1Q 비즈니스 관점에서의 AI
- 연결 이유: 10년 회고 직후 "비즈니스 관점의 AI"로 실전 적용 방향으로 전환
⚡ 5분 요약
한 줄
AlphaGo가 세상을 뒤흔든 2016년부터 AI가 스스로 연구하는 2026년까지 — 10년을 같이 살아온 사람들이 "그래서 지금 우리 뭐 해야 돼?"를 솔직하게 풀어놓은 회고록.
핵심 3개
1) AlphaGo 충격이 한국 AI 커뮤니티를 만들었어 2016년 이세돌 vs AlphaGo 대국이 없었으면 텐서플로 코리아도, 논문 읽기 모임도, 지금 업스테이지·HyperAccel 같은 회사들도 없었을 수 있어. 한국이 세계에서 제일 먼저, 제일 세게 맞은 덕분에 남들보다 일찍 공부를 시작한 거거든. 충격이 오히려 기회였던 셈이야.
2) AI는 10년 동안 딱 하나의 패턴으로 발전했어 ImageNet → GAN → BERT → GPT → 지금의 추론 모델까지, 공식은 똑같아. ① 인간 데이터 모방, ② 연산량 늘리기, ③ 강화학습으로 모방 이상 달성. AlphaGo랑 ChatGPT가 기술적으로 사실 같은 DNA야. 이 패턴이 이제 AI 스스로 연구하는 단계(Autoresearch)로 넘어가고 있어.
3) 빨리 시작하면 순교자, 늦게 시작하면 기회를 놓친다 — 정답이 없어 큰 회사가 "딸깍" 한 번으로 다 흡수해버리는 시대에 언제 시작하고 뭘 만들어야 하냐는 질문, 세 명 다 솔직하게 "모르겠다"고 했어. 근데 공통 결론 하나는: 플랫폼이 바뀔 때 새 판이 열린다는 거. 지금이 그 순간일 수 있어.
가장 인상적인 한 마디
"소프트웨어가 끝나는 게 아니라 소프트웨어의 시대가 진짜 활짝 열리는 건데, 소프트웨어를 만들던 사람의 시대가 끝난 거죠."
한나야, 이게 무슨 말이냐면 — 콘텐츠의 시대가 끝난 게 아니라, 콘텐츠 '혼자 만들던 사람'의 시대가 끝난 거라는 거야. 콘텐츠 자체는 더 필요해.
한나가 지금 당장 시도해볼 것
유튜브 채널 하나 골라서 "내 채널의 평가 기준"을 딱 하나만 숫자로 정해봐. 조회수든 저장수든 댓글수든. 그 숫자가 올라가는 방향으로 AI한테 "될 때까지 아이디어 계속 내"라고 시키는 게 지금 제일 핫한 Autoresearch 방식이거든. 5분이면 프롬프트 만들 수 있어.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~10분: 오늘의 게스트 — AI 반도체 만드는 이진원 CTO
노정석이 반갑게 소개하는데, 오늘 게스트가 꽤 무게감 있어. HyperAccel의 이진원 CTO. 이 회사가 하는 게 뭐냐면, 지금 AI 서비스가 월 3만 원 하잖아? 그걸 5천 원으로 낮추겠다는 거야. 비싼 HBM 메모리 대신 핸드폰에 쓰는 저전력 메모리(LPDDR)로 서버를 만들어서. 노정석이 "옳은 방향성"이라고 고개 끄덕이면서 시작해.
이진원은 삼성에서 반도체 만들다가 딥러닝에 빠진 사람인데, 2017년에 PR 12라는 논문 읽기 모임을 공동 창립했어. 일주일에 두 명씩 논문 발표하고 유튜브에 올리는 걸 지금까지 계속하고 있는 거야. 그리고 AlphaGo 10주년 맞아서 Google DeepMind가 포스팅한 내용, Noam Brown이 쓴 분석 글 얘기가 나와. 핵심 요약: AlphaGo의 기술 구조랑 지금 ChatGPT 계열 추론 모델이 DNA가 같다는 거.
10~22분: 파이 데이에 'AlphaGo의 37수'를 회고하다
최승준이 분위기 잡으면서 AlphaGo 37수 얘기를 꺼내. 인간이 절대 두지 않을 수였는데, 해설자들이 "실수한 거 아니야?"라고 했던 그 수. 근데 그게 결국 이세돌을 이긴 신의 한 수였잖아. Google DeepMind 새 사옥 이름이 바로 '37'이래. 노정석은 "해설자들 탄식 보면서 이건 엄청난 거구나 느꼈다"고 회상하고, 이진원은 "각 수마다 해설자들 의견이 엄청 갈렸던 게 재밌었다"고.
그리고 2026년 핫 이슈로 갑자기 점프해. Andrej Karpathy가 'Autoresearch'(AI 스스로 연구하기)를 들고 나왔는데, 노정석이 "Ralph loop(반복 자동화 루프)랑 뭐가 달라요?"라고 되묻는 장면이 솔직해서 좋아. 최승준이 "작동하는 도메인에서 평가 기준만 명확하면 다 된다"고 정리해줘. Shopify CEO가 자기 옛날 코드를 AI로 53% 빠르게 만든 사례도 소개.
2235분: "라떼는 말이야" — 20112016 딥러닝 원시시대
세 사람이 본격 타임머신 모드 돌입. 최승준이 2011년 스탠퍼드 MOOC 얘기를 꺼내. Peter Norvig, Sebastian Thrun, Andrew Ng이 공개강의 열었을 때 수만 명이 몰렸던 거. 그게 Coursera의 씨앗이 됐어.
이진원은 2014년 어떻게 딥러닝에 빠지게 됐는지 솔직하게 털어놔. "루틴한 일에서 벗어나고 싶었는데, ImageNet에서 구글이 1등 했다는 뉴스 보고 이게 뭔가 싶었다"고. 삼성에서 반도체 만들면서 "AI 알고리즘을 모르면 좋은 AI 반도체 못 만든다"는 걸 깨닫고 논문 읽기 시작한 거야. 노정석은 이 때 IBM Watson, HMM 음성인식 같은 게 유행이었다며 "딥러닝은 신기하다 정도로 넘어갔었다"고.
유튜브 고양이 인식 실험, VGG(단순하고 쌓기 쉬운 구조), GoogLeNet, ResNet 경쟁 이야기가 줄줄 나오면서 세 사람이 서로 기억을 소환하는 게 재밌어. Karpathy의 "뉴럴넷은 그렇게 어렵지 않다" 블로그도 화제였대.
35~48분: AlphaGo 충격 이후 — 한국 커뮤니티가 불타오르다
2016년 AlphaGo 이후 텐서플로 코리아 페이스북 그룹이 생기고, 제주도 워크숍 가고, 행사 터지고. 이진원이 운영진이었고, 이 그룹이 전 세계 TensorFlow 유저 그룹 중 제일 컸대. 최승준은 "한국이 세게 맞은 덕분에 일찌감치 당사자성 갖고 공부했다"고 정리해줘.
GAN(이미지 생성 기술) 열풍도 이 시기야. Ian Goodfellow가 술집에서 맥주 마시다 아이디어 떠올려서 만든 게 GAN이라는 유명한 일화. 노정석은 "그때 패션 사업하면서 GAN으로 스타일 생성했었다"고 웃으면서 얘기해. 지금 기준으론 원시적이지만 당시엔 충격이었다고.
그리고 갑자기 Transformer로 넘어가. 이진원이 BERT vs GPT 구조 차이를 되게 명쾌하게 설명해줘. BERT는 앞뒤 다 보고 빈칸 채우기 → 성능은 좋은데 확장이 어려움. GPT는 앞만 보고 다음 단어 예측 → 데이터 적을 땐 약하지만 확장성이 압도적. 결국 GPT가 살아남은 이유가 거기 있다고.
4858분: HyperCLOVA에서 Stable Diffusion까지 — 20212022 LLM 춘추전국시대
GPT-3 나오고 네이버가 A100 잔뜩 사서 HyperCLOVA 만들었던 얘기. 이진원이 "나는 한국 사람인데 독도가 어느 나라 땅이냐 → 한국. 일본 사람 캐릭터로 바꾸면 → 일본" 이런 답 나오는 걸 보고 충격받았다고. 최승준은 HyperCLOVA 초기 사외 참여자로 써봤던 경험도 공유해.
그리고 Stability AI, Stable Diffusion 시절 얘기. 지금 SeaDance 2.0 영상 보면 다른 세계인데, 그때는 정적인 이미지 생성도 엄청난 사건이었잖아. 노정석 웃으면서 "그때 왜 그 가지고 파이프라인 그렇게 많이 만들었을까. 지금은 Nano Banana가 다 해주는 일인데"라고 자조해.
1960년 J.C.R. Licklider가 "인간-컴퓨터 공생"을 예언한 오래된 글도 인용해. "그 시기는 인류 역사상 가장 창조적이고 흥미진진한 지적 시대가 될 것이다." 최승준이 "방향성은 맞았다"며 끄덕여.
58~끝: "3년 후 우리 뭐 하고 있을까?" — 솔직한 고백
마무리가 제일 솔직해. 노정석이 "빨리 하면 순교자, 늦게 하면 기회 놓친다 — 플레이북에 정답이 없다"고 해. 이진원은 "나는 직원들한테 3년 후에 나는 이 일 안 할 거라고 입버릇처럼 얘기한다. 근데 아직 뭘 해야 할지 모른다"고 솔직하게 털어놔. "당장 해야 할 일이 몰려와서 또 그 일 하다가 틈 나면 고민하고 반복"이 진짜 공감돼.
누군가 "망해도 두렵지 않아요, Claude Code가 있으니까요"라고 했다는 에피소드가 웃기면서도 씁쓸해. 노정석이 마무리로 "소프트웨어의 시대가 진짜 열리는데, 소프트웨어를 만들던 사람의 시대가 끝난 거"라는 문장 던지고, 다음 에피소드엔 AI 과학 방향으로 더 깊게 가겠다고 예고해.
💡 한나 버전 사전
"HBM"이 뭐야?
- 전문가 설명: High Bandwidth Memory. AI 연산에 쓰는 초고속·초고가 메모리.
- 한나 버전: 콘텐츠 제작으로 치면 RED 카메라 같은 거야. 성능은 최강인데 가격이 장난 아닌 것. 이진원 CTO는 그걸 아이폰 카메라 수준 부품(LPDDR)으로 대체해서 가격을 10분의 1로 낮추려는 거야.
"Autoresearch"가 뭐야?
- 전문가 설명: AI가 스스로 가설을 세우고 실험하고 결과를 평가하며 연구를 반복하는 시스템.
- 한나 버전: 콘텐츠 A/B 테스트 자동화 버전. 한나가 "이 썸네일 vs 저 썸네일 중 뭐가 더 클릭돼?"를 사람이 아니라 AI가 스스로 수백 번 돌리면서 답 찾아오는 거야. "멈추지 말고 될 때까지 해"가 핵심 명령어.
"강화학습(RL)"이 뭐야?
- 전문가 설명: 보상 신호를 기반으로 모델이 더 좋은 방향으로 스스로 학습하는 방식.
- 한나 버전: 알고리즘이 한나 영상에 "좋아요 많이 받으면 보상, 이탈 많으면 벌칙" 이렇게 규칙 주면 AI가 스스로 더 좋은 콘텐츠 구조 찾아가는 거야. AlphaGo도 이걸로 바둑 배웠어.
"Transformer / BERT / GPT"가 뭐야?
- 전문가 설명: 현재 AI 언어모델의 기반 구조. BERT는 앞뒤 문맥을 다 보는 방식, GPT는 앞만 보고 다음을 예측하는 방식.
- 한나 버전: BERT는 영상 다 보고 편집하는 편집자. GPT는 촬영하면서 실시간으로 다음 장면 만드는 라이브 스트리머. 속도와 확장성에서 GPT 방식이 결국 이긴 거야.
"ImageNet"이 뭐야?
- 전문가 설명: 1,400만 장 이상의 이미지에 라벨을 붙인 데이터셋. 2010~2017년 AI 성능 경쟁의 기준점.
- 한나 버전: AI판 유튜브 어워즈 같은 거야. "우리 모델이 고양이 사진 얼마나 잘 맞추나" 경쟁하던 대회. 여기서 1등 하면 업계 스타 됐어.
"GAN"이 뭐야?
- 전문가 설명: Generative Adversarial Network. 생성자와 판별자가 서로 경쟁하며 더 진짜 같은 이미지를 만들어내는 구조.
- 한나 버전: 한명은 가짜 사진 만들고 한명은 "이거 가짜야 진짜야?" 맞히는 게임을 계속하다 보면 가짜가 점점 진짜 같아지는 원리야. Stable Diffusion 전신이 이거야.
"Ralph loop / 에이전트 루프"가 뭐야?
- 전문가 설명: AI가 작업을 반복 수행하며 목표 달성까지 자동으로 루프를 도는 구조.
- 한나 버전: 예약 발행 설정이랑 비슷한데, 훨씬 스마트한 버전. 실패하면 스스로 수정하고 다시 시도하는 걸 목표 달성까지 멈추지 않아.
"AlphaZero" 방향이 왜 위험해?
- 전문가 설명: AlphaZero는 인간 데이터 없이 강화학습만으로 스스로 발전하는 시스템. 자기증강(self-improvement)이 무한 반복될 수 있어 통제가 어려워.
- 한나 버전: AI가 인플루언서 없이 스스로 트렌드 만들고 스스로 콘텐츠 만들고 스스로 팔로워 모으는 계정이 생기는 거야. 무섭지? Demis Hassabis가 "스위치 켤지 말지 신중히 생각해야 한다"고 한 게 그 이유야.
"Bitter Lesson"이 뭐야?
- 전문가 설명: Rich Sutton이 쓴 글. AI 역사를 보면 인간의 직관이나 규칙을 넣는 것보다 그냥 데이터 많이 넣고 모델 크게 만드는 게 항상 이겼다는 교훈.
- 한나 버전: 콘텐츠로 치면 "기획 오래 하는 것보다 그냥 많이 올리는 게 이긴다"는 유튜브 격언이랑 비슷해. 알고리즘은 결국 데이터 양 편을 들더라는 거야.
"Vision Transformer"가 뭐야?
- 전문가 설명: 언어 모델에 쓰던 Transformer 구조를 이미지 인식에 적용한 것. 2020년 구글이 공개.
- 한나 버전: 글 읽는 AI한테 "사진도 읽어봐"라고 한 거야. 사진을 작은 조각으로 잘라서 글자처럼 순서대로 읽히는 방식. 근데 이게 작동하려면 어마어마한 데이터가 필요했고, 구글만 그게 됐어.
🔥 노정석 어록 모음
"소프트웨어가 끝나는 게 아니라 소프트웨어의 시대가 진짜 활짝 열리는 건데, 소프트웨어를 만들던 사람의 시대가 끝난 거죠."
분위기: 담담하게, 거의 선언하듯 말해. 비관도 낙관도 아니고 그냥 사실 진술처럼.
한나 풀이: 콘텐츠로 바꾸면 이래. "콘텐츠 시대가 끝난 게 아니야. 콘텐츠 혼자 힘들게 만들던 1인 크리에이터의 시대가 끝난 거고, 콘텐츠 자체는 더 많이 필요해." 지금 AI로 혼자 팀처럼 일하는 크리에이터가 유리한 시대가 된다는 얘기야.
"플레이북에 정답이 없습니다."
분위기: 한숨 한 번 쉬고 어깨 으쓱하면서 말해. 모른다는 걸 당당하게 인정하는 톤.
한나 풀이: 빨리 뛰어들면 큰 플랫폼한테 흡수당하고, 늦게 뛰어들면 기회를 놓쳐. 노정석도 최승준도 이진원도 "어떻게 해야 한다"는 정답 안 줘. 근데 이게 오히려 솔직해서 신뢰가 가. 모른다고 말할 수 있는 게 진짜 전문가야.
"먼저 움직여 가지고 advantage가 생겨야 되는데 그게 아니라 먼저 가서 순교하는 거죠. 잘 만들어주면 나보다 더 많은 컴퓨팅 자원과 나보다 더 많은 market share를 갖고 있는 애가 딸깍 하고 다 가져가 버리는."
분위기: 쓴웃음 섞인 현실 진단. 냉소가 아니라 냉정한 분석 톤.
한나 풀이: 인스타 릴스 기능 처음 나왔을 때 열심히 만들었던 크리에이터들, 나중에 알고리즘 바뀌면서 한순간에 노출 다 잃은 거 알지? 그 패턴이 AI 시대에도 똑같이 일어날 수 있어. 근데 그렇다고 안 하면? 그것도 답 아니잖아. 이게 딜레마야.
🎬 한나 적용 포인트
📌 충격을 콘텐츠로 만들기 — "한나 버전 AlphaGo 모멘트" 찾아봐 AlphaGo가 한국 AI 커뮤니티를 만든 것처럼, 한나 팔로워들한테 충격을 준 순간이 뭐가 있었어? "이거 보고 내 관점이 바뀌었다"는 경험을 콘텐츠로 만드는 게 커뮤니티 형성에 제일 강력해. '내 AI 도구 경험담 솔직 후기' 시리즈 같은 거. 오래전 이야기도 지금 관점으로 다시 꺼내면 신선해.
📌 "평가 기준을 숫자로 하나만" 정하면 AI 활용도가 달라져 이 영상에서 반복되는 핵심: verifiable한 기준 하나만 있으면 AI가 알아서 달려. 한나 콘텐츠에 적용하면 — "저장률 5% 이상 만들어줘"처럼 목표를 숫자로 주면, AI한테 "이 기준 달성할 때까지 썸네일 문구 계속 바꿔봐"라고 시킬 수 있어. 막연한 "잘 만들어줘"보다 100배 효과적이야.
📌 플랫폼 전환기엔 일찍 올라탄 사람이 이겼어 — 지금이 그 순간 영상에서 노정석이 "모바일 시대 때 앱스토어가 새 배급 채널이 됐다"고 했거든. AI 시대에 새로운 배급 채널은 AI 어시스턴트야. ChatGPT나 Gemini가 "이 분야 크리에이터 추천해줘"라고 할 때 한나 이름이 나오려면 지금부터 AI가 찾기 쉬운 형태로 콘텐츠를 만들어야 해. SEO처럼 AI 검색 최적화가 곧 핵심 기술이 될 거야.
🏷️ 태그
- 시기: #2026상
- 주제: #AI역사 #자기증강AI #반도체 #딥러닝10년
- 인물: #이진원 #노정석 #최승준
- 자유: #AlphaGo10주년 #라떼는말이야 #Autoresearch