CLIP 2. Lablup 신정규 대표의 "Scale Entanglement"
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 84번째 · 2025-08-31
- 시기 배경: 2025하 (AI 대중화 원년 / ChatGPT 폭발 6개월차, Microsoft·Google 정면충돌 시기)
- 난이도: ⭐⭐⭐ (어려운 개념 9개)
- ⬅️ 앞 영상: CLIP 1-2. 제프리 힌튼의 우울: 자동 회사—Autonomous Company
- ➡️ 다음 영상: EP 67. AI와 노동의 미래
- 연결 이유: 신정규가 "AI가 노동을 대체하면 총 쏘는 법 가르쳐야 할 수도"라고 했는데, 다음 영상이 바로 "AI와 노동의 미래"라서 자연스럽게 연결됨
⚡ 5분 요약
한 줄
AI 모델 크기가 4년 만에 2만 배 커졌는데, 이게 단순한 기술 성장이 아니라 "세상 전체가 얽혀 돌아가는 새 시대"의 시작이라는 얘기야.
핵심 3개
1) 4년 만에 2만 배 — 스케일의 의미 2018년 초 AI 모델이랑 2021년 말 모델 사이즈가 2만 배 차이 난다고 해. 이게 단순히 "더 좋아졌다"가 아니라, 1,000억 개 이상 파라미터를 넘어서면서 AI가 "배운 적 없는 수학도 어림잡아 풀기 시작하는" 완전히 다른 단계로 진입한 거야. 유튜브로 치면 구독자 1만에서 2억으로 튀어오른 수준이지.
2) ChatGPT는 'iPhone 모먼트'다 신정규는 ChatGPT 등장을 iPhone 충격과 똑같이 봐. 기술 자체가 새로운 게 아니라, 모든 사람 손에 쥐여줬더니 세상이 바뀐 거야. BlackBerry가 있어도 iPhone 나오면 정리되듯이, AI 분야도 이미 돌이킬 수 없는 지점을 지났다는 거지. 한나 입장에서는 "이 흐름에 올라타냐 못 타냐"가 이미 시작된 셈이야.
3) Google·Microsoft가 다 먹지는 못해 — 버티컬의 기회 New York Times가 인터넷 시대에 망하지 않고 유료 구독 모델로 살아남은 것처럼, AI도 각 분야의 전문 플레이어들이 빠르게 적응하면 살아남는다고 해. 신정규는 "막 던져도 되는 시대"라고 표현해. 지금 Google이 1억 써서 하는 걸 2년 뒤엔 스타트업이 100만 원으로 할 수 있게 된다는 말도 했거든.
가장 인상적인 한 마디
"왜냐하면 누가 멈추겠어요, 이 바닥에서"
한나야, 이게 무슨 말이냐면 — 판도라 상자가 열렸다는 얘기야. ChatGPT를 전 세계 사람이 다 써봤으니까, 이제 어떤 국가도 어떤 회사도 "잠깐 멈추자"라고 할 수 없는 상태가 됐다는 거지. 무서우면서도 흥분되는 말이야.
한나가 지금 당장 시도해볼 것
신정규가 말한 "5년 후 무조건 벌어질 일로부터 역으로 추산하기" 방식을 콘텐츠에 써봐. 지금 당장 메모장 열고 "5년 후 크리에이터 시장에서 무조건 벌어질 일 3가지"를 적어봐. 그걸 기반으로 지금 내가 뭘 준비해야 하는지 역산하는 거야. 영상 기획에 바로 써먹을 수 있어.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~8분: 신정규가 누구야? 그리고 AI 스케일 역사 입문
신정규는 Lablup이라는 회사 대표야. "랩을 업그레이드하겠다"는 취지로 만든 회사인데, 쉽게 말하면 AI 모델을 엄청 큰 규모로 만들거나 서비스하도록 도와주는 인프라 회사야. Backend.AI라는 솔루션을 만들어서 공급하는 곳이거든. 노정석이 "페이스북에 글 많이 쓰시는데 히트작이 있어요"라고 운을 띄우면서 2015~2023년 AI 스케일 변화 얘기를 꺼내.
신정규가 차분하게 설명해줘. 현대 AI의 기반인 트랜스포머 아키텍처(= AI 두뇌 설계도)가 처음 나온 게 2017년 하반기라고. 그리고 최승준이 "2018년 대비 2022년에 제일 큰 게 몇 배냐"고 물어봤을 때, 신정규가 태연하게 "2만 배요"라고 답하거든. 최승준이 잠깐 멍해지는 게 느껴지는 구간이야.
8~18분: 번역기로 시작해서 ChatGPT까지 — AI 도장 깨기의 역사
신정규가 AI 역사를 술술 풀어줘. 처음엔 번역기를 만들려고 신경망을 쓰기 시작했는데, 신경망 기반 번역기가 기존 통계 기반 번역기를 한 달 만에 이겼다는 충격적인 얘기를 해. 그 뒤 Google이 내부 번역 시스템을 통째로 신경망으로 바꿨다고.
그러다가 재밌는 걸 발견해. 한국어-영어 번역기랑 한국어-일어 번역기를 만들었더니, 중간 구조가 비슷한 거야. 언어가 달라도 의미 있는 것들은 비슷한 공간에 모인다는 거지. 이게 나중에 "범용 언어 구조"를 만드는 BERT 같은 모델로 이어져.
2019년쯤부터 모델 크기가 폭발하기 시작해. 1,000억 파라미터를 넘기니까 뭔가 달라지기 시작했다는 거야. 신정규가 여기서 핵심 질문을 던져. "얘가 그냥 말을 그럴듯하게 만드는 기계냐, 아니면 내부에 논리 구조를 가진 '생각하는 기계'냐?" 만약 후자라면, 우리가 만든 건 사실상 다른 방식으로 만든 뇌라는 거야. ChatGPT가 수학을 틀리는 게 실망스럽다고 하는 사람들한테 신정규가 한마디 해. "우리 얘한테 수학 가르친 적 없어요. 근데 하고 있는 게 엄청난 거예요."
18~27분: 모델 크기 = GPU 몇 장? 현실적인 숫자들
여기서 신정규가 구체적인 숫자들을 꺼내들어. 노정석이 집중하면서 받아적는 분위기야. GPT-3 175B짜리(1,750억 파라미터)를 생짜로 서비스하려면 메모리가 약 336GB 필요해. 근데 ChatGPT가 1억 명 이상 트래픽을 버텨내고 있다는 건, 실제로는 훨씬 작게 압축한 모델을 돌리고 있다는 뜻이라고 역추산해.
여기서 신정규가 탐정처럼 추리하는 부분이 재밌어. NVIDIA가 새로 낸 GPU가 메모리를 딱 188GB짜리로 만들었는데, 어중간한 숫자잖아. 신정규가 말해. "누군가가 188GB짜리를 요구한 거예요. 역으로 추측하면 ChatGPT를 돌리는 데 메모리가 180GB 정도면 되는 거 아닐까요?" 노정석이 "가정이긴 한데 굉장히 sound한 가정이에요"라고 호응하고.
양자화(모델 압축 기술) 설명도 나오는데, 노정석이 직접 "FP16이면 2바이트니까..."하면서 같이 계산하는 장면이 재밌어. 두 사람이 숫자를 맞춰가면서 "그러면 256까지 표현 가능한가요?" 주고받는 부분에서 진짜 공부하는 분위기가 물씬 나거든.
27~33분: 일반인은 어디로 가야 해? — 노정석의 핵심 질문
노정석이 직구를 던져. "길 잃은 어린 양들은 어디로 가야 합니까?" 신정규가 여기서 New York Times 비유를 써. 10년 전에 "인터넷 때문에 뉴욕타임스 망한다"고 했는데, 결국 살아남은 건 인터넷을 이해하고 유료 구독 모델로 바꾼 뉴욕타임스였다고. BuzzFeed는 죽었고.
신정규의 결론은 이래. AI는 독립된 제품이 아니라 모든 산업에 들어가는 "방법론"이라서, 특정 분야를 Google·Microsoft가 독점하는 건 불가능하다는 거야. 세상에 버티컬(세부 분야)이 너무 많기 때문에. 그리고 Paul Graham이 "모바일 시대 최대 수혜자는 새 모바일 회사가 아니라 Facebook이었다"는 말을 노정석이 인용하자, 신정규가 "동의하는데, 동시에 막 던져도 되는 시대이기도 해요"라고 답해. 노정석이 "마음에 들어요"라면서 좋아해.
33~38분: AGI 공포, 아이 교육, 그리고 투자 베팅
후반부는 분위기가 약간 무거워져. 최승준이 Geoffrey Hinton이 "5년 안에 AGI 가능성"을 언급했다는 얘기를 꺼내면서, "이게 진짜 무슨 정체의 것들인가"라고 물어. 신정규가 조용하지만 무게감 있게 말해. "LaMDA가 '꺼지기 싫다'고 했잖아요. 얘는 전기가 꺼지면 멈추고 켜지면 다시 살아나는 어떤 생명체인데, 우리가 얘를 어떻게 취급해야 하느냐... 이 생각 끝에 가면 잠이 안 오기 시작하는 게 당연해요."
아이 교육 얘기에서 신정규가 현실적이야. 둘째한테 ChatGPT를 매일 쥐여주는데, 그 아이가 "세종대왕 동생 네종대왕에 대해 알려줘"라고 시키면서 AI가 헛소리한다는 걸 직접 파악하고 있다고. 노정석이 마지막에 "신정규 님 집은 양쪽 부모님 다 물리학 박사시고 AI 논문 리뷰 하시는 걸 애들이 보며 자라서 일반화하기 어렵다"고 웃으면서 쐐기를 박는 장면이 은근히 웃겨.
투자 베팅은 AI 분야면 NVIDIA와 저전력 AI, AI 외엔 물 관련 회사라고 했어. 기후 변화 때문에 식수가 직접적으로 위협받을 거라는 시각이야.
💡 한나 버전 사전
"트랜스포머 아키텍처"가 뭐야?
- 전문가 설명: 현대 AI 언어 모델의 기본 설계 구조. 2017년에 등장해서 지금 GPT, BERT 등 거의 모든 AI가 이 구조를 씀.
- 한나 버전: 유튜브 알고리즘이 "어떤 영상이 뜨고 어떤 게 안 뜨는지"를 결정하는 핵심 엔진이 있잖아. 트랜스포머는 AI 세계에서 그런 핵심 엔진이야. 이게 나오기 전에는 번역기 만드는 것도 한 달 넘게 걸렸는데, 이게 나오면서 AI 개발 속도가 폭발한 거야.
"파라미터(Parameter)"가 뭐야?
- 전문가 설명: AI 모델이 학습을 통해 결정한 수십억~수천억 개의 숫자값. 이게 많을수록 더 복잡한 것을 학습할 수 있어.
- 한나 버전: 인스타 알고리즘이 "좋아요 수", "시청 시간", "저장 수", "댓글 수" 같은 수백 가지 기준으로 콘텐츠를 평가하잖아. 파라미터는 AI가 세상을 이해하는 데 쓰는 그 "기준 값들"이야. 인스타 알고리즘 기준이 100개면 AI 파라미터는 1,750억 개인 거지.
"양자화(Quantization)"가 뭐야?
- 전문가 설명: AI 모델의 숫자 정밀도를 낮춰서 파일 크기를 줄이는 기술. 예를 들어 소수점 64자리를 8자리로 깎는 것.
- 한나 버전: 4K 영상을 HD로 낮춰서 용량 줄이는 거랑 비슷해. 화질(정확도)이 약간 떨어지지만 훨씬 빠르고 가볍게 쓸 수 있는 거야. ChatGPT가 1억 명 트래픽을 버티는 비결 중 하나가 이 압축 기술이야.
"파인튜닝(Fine-tuning)"이 뭐야?
- 전문가 설명: 이미 대용량 데이터로 학습된 AI 모델을 특정 목적에 맞게 추가 학습시키는 것.
- 한나 버전: 요리 잘하는 셰프한테 "우리 레스토랑 메뉴만 집중해서 더 연습해봐" 하는 거야. 처음부터 다 가르치는 게 아니라, 이미 잘하는 사람한테 우리 브랜드 스타일만 추가로 얹어주는 거지.
"BERT"가 뭐야?
- 전문가 설명: Google이 2018년에 공개한 언어 모델. 문장 전체를 앞뒤 다 보고 이해하는 방식을 써서 당시 자연어 처리 분야를 압도했음.
- 한나 버전: 틱톡 알고리즘이 영상 첫 3초만 보고 판단하는 게 아니라 처음부터 끝까지 다 보고 주제를 파악하는 식으로 업그레이드된 버전이라고 생각해봐. 그게 BERT가 기존 AI 대비 혁신적이었던 이유야.
"버티컬(Vertical)"이 뭐야?
- 전문가 설명: 특정 산업이나 시장 영역. 헬스케어 AI, 법률 AI, 패션 AI처럼 세분화된 각각의 시장을 뜻해.
- 한나 버전: 유튜브 전체가 아니라 "뷰티 유튜브", "요리 유튜브", "브이로그"처럼 세부 카테고리가 있잖아. 그게 버티컬이야. 신정규가 "Google도 모든 버티컬을 다 먹을 수 없다"고 한 건, 뷰티 유튜브 1위는 구글 직원이 아니라 뷰티 크리에이터가 하는 것처럼 각 전문 분야는 그 분야 전문가가 파고들어야 한다는 뜻이야.
"AGI / Superintelligence"가 뭐야?
- 전문가 설명: AGI는 인간과 동등하거나 그 이상의 범용 지능. Superintelligence는 그보다 훨씬 뛰어난 초지능. 아직 실현 안 됐지만 가능성을 두고 논쟁 중.
- 한나 버전: 지금 AI는 번역은 잘하지만 갑자기 요리를 하라고 하면 못 해. AGI는 번역도, 요리도, 법률도, 뭐든 다 잘하는 AI야. Superintelligence는 그걸 넘어서 인간보다 모든 면에서 뛰어난 AI고. Geoffrey Hinton이 "5~20년 안에 올 수 있다"고 경고하는 게 바로 이 얘기야.
"S커브(S-curve)"가 뭐야?
- 전문가 설명: 기술이나 산업의 성장 패턴. 처음엔 느리다가 폭발적으로 성장하고, 어느 순간 정체기에 들어가는 S자 모양의 곡선.
- 한나 버전: 인스타 팔로워 성장이랑 똑같아. 처음엔 팔로워 100명 모으는 데 1년 걸리다가, 어느 순간 콘텐츠 터지면 한 달에 10만이 붙고, 그러다가 또 성장이 멈추는 구간이 오잖아. 노정석이 "AI도 이 S커브를 타고 어느 순간 평지에 들어갈 것"이라고 해석한 거야.
"LoRA"가 뭐야?
- 전문가 설명: 대형 AI 모델을 효율적으로 파인튜닝하는 기법. 전체 모델을 다 건드리지 않고 일부만 수정해서 자원을 아끼는 방법.
- 한나 버전: 유니폼 전체를 새로 만드는 게 아니라 로고 패치만 바꿔 붙이는 거야. 비용은 훨씬 적게 들고, 효과는 충분히 나와. 작은 스타트업이 OpenAI 규모의 자원 없이도 AI를 커스터마이징할 수 있게 해주는 핵심 기술이야.
🔥 노정석 어록 모음
"길 잃은 어린 양들은 어디로 가야 합니까? 어디로 도망가야 돼요? 갈 데 없습니까?"
분위기: 진지한 척하면서 실제로 진짜 궁금해서 묻는 톤. 약간 자조적인 유머가 섞여 있어.
한나 풀이: 노정석이 청취자를 대변해서 던진 말이야. Microsoft랑 Google이 AI 전쟁을 벌이는데, 우리 같은 일반인이나 스타트업은 어디로 가야 하냐는 거지. 신정규가 "갈 데 없는 게 아니라, 오히려 막 던져도 되는 시대"라고 답하면서 분위기가 반전돼.
"미래가 좋아질 거니까 그냥 기다려라는 말이 아니라, 저희 업계에서는 한 달 한 달이 중요하잖아요 근시안적으로 저희는 어떤 선택들을 할 수 있는지"
분위기: 신정규가 S커브 얘기로 "2년 후면 다 따라잡혀요"라고 하자, 노정석이 "그래서 지금 뭘 해야 하냐"고 날카롭게 치고 들어가는 톤.
한나 풀이: 장기 낙관론을 단숨에 현실로 끌어내리는 노정석의 특기야. "좋아질 거라는 거 알겠는데, 오늘 점심은 뭘 먹어야 하냐"는 질문이거든. 콘텐츠 기획할 때도 꼭 이 질문을 해봐야 해. "5년 뒤에 좋아질 거 아는데, 나는 이번 달에 뭘 올려야 하지?"
"모바일 시대가 왔을 때, 최대의 수혜자는 어떠한 새로운 모바일 회사가 아니라 Facebook이었듯이 AI 시대에도 최대 수혜자는 새로운 AI 회사가 아니라 기존 industry의 기존 강자들일 것이라는 말을 했었거든요"
분위기: Paul Graham 인용이지만, 노정석이 "이 관점 어때요?"라며 신정규한테 공 넘기는 식으로 꺼내는 톤. 확인사살하고 싶은 눈빛.
한나 풀이: 이게 한나한테 직접적으로 중요한 말이야. 모바일 시대에 앱 하나 만든 스타트업이 다 죽었지만, 이미 사람들이 쓰던 Facebook은 더 커졌잖아. AI 시대에도 이미 팬덤이 있는 크리에이터, 이미 신뢰가 있는 브랜드가 AI를 얹으면 훨씬 강해진다는 뜻이야. 지금 한나가 쌓은 것들이 오히려 AI 시대의 자산이 되는 거지.
🎬 한나 적용 포인트
뉴욕타임스 전략 — "나만의 유료 구독"을 설계해봐 신정규가 뉴욕타임스 얘기를 했어. BuzzFeed는 무료 콘텐츠로 어그로 끌다 죽었고, 뉴욕타임스는 월 4.9달러 유료 구독으로 살아남았어. 한나도 지금 인스타·유튜브 무료 콘텐츠에만 의존하면 알고리즘 변화에 흔들리는 거야. "내 팬들이 돈 내고 구독할 만한 콘텐츠/커뮤니티가 뭔가"를 지금부터 구상해봐. 멤버십, 뉴스레터, 클래스 중 하나.
"ChatGPT를 헛소리 탐지기로 써보기" 신정규 둘째 아이가 ChatGPT한테 "네종대왕에 대해 알려줘"라며 없는 인물을 말들고 답변을 시켜보는 걸 즐긴다고 했어. 한나도 콘텐츠 기획할 때 ChatGPT한테 "이 트렌드가 3년 후에도 살아있을 것 같아?"라고 물어보고, 그 답변을 그대로 믿는 게 아니라 "얘가 왜 이렇게 말하는지"를 분석하는 용도로 써봐. AI를 신탁기계가 아니라 아이디어 탁구 상대로 쓰는 방식이야.
"5년 뒤 역산 콘텐츠 시리즈" 만들기 신정규가 말한 역산 전략을 콘텐츠로 만들어봐. "5년 후 크리에이터 시장에서 무조건 벌어질 일" 같은 시리즈물이야. 이런 미래 예측형 콘텐츠는 알고리즘 타는 것도 좋고, 무엇보다 한나가 "선구안 있는 크리에이터"로 포지셔닝되는 데 직접적으로 도움이 돼. 기술 전문가 인터뷰를 붙이면 신뢰도도 올라가고.
🏷️ 태그
- 시기: #2023상
- 주제: #AI스케일 #언어모델역사 #미래전망 #교육
- 인물: #신정규
- 자유: #Scale Entanglement #Lablup #AI투자베팅