EP.8 현존최강 AI, GPT-4 의 숨겨진 유출정보 읽어보기
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 8번째 · 2023-07-12
- 시기 배경: 2023하 (GPT-4 출시 4개월차 / 내부 구조 유출 파문 + Code Interpreter 갓 등장)
- 난이도: ⭐⭐⭐⭐ (어려운 개념 9개)
- ⬅️ 앞 영상: EP.7 LLM 산업계의 구조 뜯어보기 + tinkering session
- ➡️ 다음 영상: EP.9 META 가 던진 소심한 승부수, LLAMA-2 는 왜 하필 지금 공개됐을까(?)
- 연결 이유: META의 LLaMA-2 공개 타이밍을 분석하는 EP.9로 이어짐 — "연옥계 선수들이 어떻게 응수하는가"의 첫 번째 사례
⚡ 5분 요약
한 줄
GPT-4가 어떻게 생겼는지 유출 자료로 뜯어보고, "이걸 알면 뭐가 달라지나?"를 실험으로 보여준 회차야.
핵심 3개
1) GPT-4는 사실 "16명짜리 팀"이었어 덩치 하나인 줄 알았는데 사실 AI 여러 개(16개 expert)가 분업해서 돌아가. 질문이 들어오면 그중 하나만 처리하는 구조 — 덕분에 10배 큰 모델인데 추론 비용은 3배밖에 안 올라감. 이게 MoE(전문가 혼합) 구조고, 전기세 아끼면서 성능 내는 핵심 비결이야.
2) 학습 데이터 13조 개 토큰 — 인터넷 거의 다 긁었다 GPT-3가 3,000억 토큰 썼는데 GPT-4는 13조. 공개 웹 크롤링, 코딩 데이터, 교과서급 텍스트, 심지어 유튜브 자막·Reddit·GitHub까지. 노정석 표현 빌리면 "2교시는 텍스트, 4교시는 코드로 빡세게" — 배열 순서까지 전략적으로 짰어.
3) Code Interpreter로 AI랑 "깊은 대화" 실험해봤는데… 최승준이 GPT-4한테 시 쓰게 하고, 스스로 비평하고, 개선하게 하는 멀티 라운드 실험을 라이브로 보여줘. 페르소나 여러 개 설정해서 토론 시키는 것까지. 결론은 "엄청 강력한데, ROI 따지면 아직 시간 대비 애매하다"는 현실 고백.
가장 인상적인 한 마디
"지금 필요한 건 상상력. GPT-4가 지금은 인턴인데 얘가 더 똑똑해진다는 가정을 했을 때 무엇을 할 것인가를 생각하고 뭔가를 스케치할 타이밍인 것 같아요."
한나야, 이게 무슨 말이냐면 — 지금 GPT-4 한계에 맞춰서 콘텐츠·사업 계획 세우지 말고, "이게 3~4배 더 똑똑해지면 뭐가 가능해?"를 먼저 상상해서 기획하라는 거야.
한나가 지금 당장 시도해볼 것
ChatGPT에 콘텐츠 아이디어 하나를 던지고 "이 아이디어의 논리적 허점을 찾아줘 → 개선안 제안해줘 → 그 개선안을 다시 비평해줘" 3단계로 이어서 물어봐. 노정석이 강조한 "몇 십 턴 이어서 질문할 수 있는 게 이 시대의 핵심 역량"이거든 — 오늘 딱 5분만 써봐.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~20분: GPT-4 유출 문서, 읽어도 되나 말아야 하나
노정석이 살짝 긴장한 표정으로 운을 떼. "이거 할까 말까 고민 많이 했어요." semianalysis.com이라는 실리콘밸리 프리미엄 정보 사이트 — 구독료가 연 100만원이 넘는 곳 — 에서 GPT-4 내부 스펙이 유출됐는데, 누가 트위터 스레드로 쭉 퍼뜨렸다가 "야, 우리 돈 받고 파는 거잖아" 항의에 삭제된 거야. 근데 인터넷은 한번 퍼지면 영원히 남으니까 복사본이 살아있었고, 두 사람이 그걸 함께 읽기로 결정.
읽다가 저작권 이야기가 나오는데, Jeremy Howard가 "정보 자체엔 저작권 없다"고 반박한 것까지 소개하면서 노정석이 씩 웃으며 "어차피 쟤들도 어떤 형태로든 도둑질한 건데"라고 끼얹어. 최승준이 "맞죠" 하면서 두 사람 동시에 소리 없이 웃는 분위기.
20~45분: 숫자로 보는 GPT-4의 실제 덩치
여기서 본격적으로 스펙을 뜯어. GPT-3의 파라미터가 1,750억 개였는데 GPT-4는 1.8조 개. 숫자를 보며 최승준이 "거의 2조 개네요" 하자 노정석이 "인간 뇌 시냅스가 10~15조 정도라는데 그것도 추정치야" 하면서 인간 뇌랑 비교해줘.
그리고 MoE 구조 설명이 이어지는데, 노정석이 "내가 설명을 너무 어렵게 하나요?" 하면서 스스로 멈추고 다시 정리하는 장면이 인상적이야. 핵심은 이거야 — 1.8조 파라미터가 동시에 다 돌지 않고, 실제 한 번에 쓰는 건 2,800억 개 정도. 16개 AI가 분업하는 셈이라 추론 비용이 생각보다 덜 들어.
학습 데이터 얘기도 나와. 13조 토큰, A100 GPU 2만 5천 장으로 99일 돌린 학습 비용이 대략 800억 원. "중간에 에러 나서 뻗으면 진짜 살 떨리겠다"며 노정석이 공감하는 표정을 지어.
45~65분: Microsoft Semantic AI 법칙 + LLM 생태계 지도
최승준이 3월에 나왔던 Microsoft Semantic AI 법칙 문서를 꺼내. 핵심만 두 가지:
- "모델이 할 수 있으면 코드 쓰지 마라" — 지금 GPT에 맞게 너무 촘촘하게 코드 짜면 모델이 더 좋아질 때 다 갈아엎어야 하니까, 모델 발전에 베팅하라는 얘기.
- "텍스트가 universal protocol이다" — 지금 AI 세계에서 모든 소통은 결국 텍스트(JSON)로 수렴한다.
그러고 나서 노정석이 "LLM 직접 못 만드는 회사는 다 orchestration layer로 올라와야 한다"고 결론 내려. 한나한테 직접 해당하는 말이야 — AI 인프라 만들 게 아니라 그걸 엮고 기획하는 레이어에서 승부해야 한다는 거거든.
65~88분: 최승준의 Code Interpreter 라이브 실험 — 좌절과 희망 사이
이 구간이 제일 생생해. 최승준이 자기가 밤새 혼자 실험한 걸 라이브로 보여주거든. "저도 오락가락하고 있어요 요즘" 하면서 솔직하게 시작.
실험 흐름은 이래:
- GPT-4한테 시 쓰게 함
- 스스로 비평하게 함
- 개선하게 함
- 여름·가을·겨울 반복시켰더니 "패턴화"돼서 단어만 바꿔치기 시작
- 페르소나(Alice, Bob, Charlie) 여러 명 설정해서 토론 붙임
- "저자 워크숍" 기법까지 끌어와서 피드백 시뮬레이션
노정석이 지켜보다가 "이렇게 수십 턴 이어서 ChatGPT 쓰는 사람을 본 적이 없어요"라고 진심 놀라며 말해. 최승준은 웃으면서도 "결과물 품질이 시간 투자 대비 아직 애매해요"라고 현실 고백.
마지막에 노정석이 정리해줘: "GPT-4는 지금 인턴이야. 근데 지치지 않는 인턴." 그리고 "10배 더 똑똑해진다고 가정하고 기획하라"는 말로 마무리.
💡 한나 버전 사전
"MoE (Mixture of Experts)"가 뭐야?
- 전문가 설명: 하나의 거대 AI 모델 안에 여러 개의 작은 전문 모델이 병렬로 있고, 입력이 들어오면 가장 적합한 전문 모델로 라우팅해서 처리하는 구조.
- 한나 버전: 유튜브 채널 운영할 때 편집팀·촬영팀·자막팀이 따로 있는데, 영상 들어오면 그중 맞는 팀한테만 넘기는 거야. 모든 팀이 동시에 일하는 게 아니라 필요한 팀만 투입 — 인건비(전기세) 아끼면서 퀄리티 유지하는 구조.
"파라미터 (Parameter)"가 뭐야?
- 전문가 설명: AI가 학습하면서 조정되는 수치들의 집합. 개수가 많을수록 더 복잡한 패턴을 기억하고 표현할 수 있음.
- 한나 버전: 한나가 콘텐츠 감각을 쌓으면서 머릿속에 저장한 "이건 되고 이건 안 되는" 기준들 전부. 파라미터가 많다 = 경험치가 많다.
"추론 / 인퍼런스 (Inference)"가 뭐야?
- 전문가 설명: 학습이 끝난 AI 모델이 실제로 사용자 질문에 답변을 생성하는 과정. 학습(training)과 반대 개념.
- 한나 버전: 영상 편집 배우는 게 training이고, 실제로 영상 한 편 뚝딱 만들어내는 게 inference야. ChatGPT한테 뭔가 물어볼 때마다 inference가 한 번씩 도는 거거든.
"RLHF (인간 피드백 강화학습)"가 뭐야?
- 전문가 설명: AI가 생성한 답변에 인간이 "이게 더 낫다/나쁘다" 피드백을 주면, 그 피드백을 기반으로 AI가 더 나은 답변을 내도록 조정하는 학습법.
- 한나 버전: 릴스 올렸을 때 댓글·좋아요 반응 보고 "아, 이런 톤이 좋구나" 학습하는 것처럼, AI한테 사람이 직접 "이게 더 좋아/나빠" 알려주면서 훈련하는 거야.
"컨텍스트 길이 (Context Length)"가 뭐야?
- 전문가 설명: AI가 한 번에 읽고 기억할 수 있는 텍스트의 최대 길이. 토큰 수로 측정됨.
- 한나 버전: ChatGPT랑 대화하다가 대화가 너무 길어지면 앞에 했던 말을 잊어버리는 경험 해봤지? 그 기억력의 한계가 컨텍스트 길이야. GPT-4는 8K~32K 토큰까지 기억 가능.
"SemiAnalysis"가 뭐야?
- 전문가 설명: 실리콘밸리 반도체·AI 산업 전문 리서치 미디어. 내부 관계자 정보를 토대로 심층 분석을 유료로 제공함. 연 구독료 약 100만 원 이상.
- 한나 버전: 뷰티/패션 업계에 내부 정보로 먹고 사는 프리미엄 뉴스레터 있잖아. "이 브랜드 다음 분기 어떻게 된다더라" 같은 거 독점으로 파는 데. SemiAnalysis가 AI 업계에서 그 역할이야.
"RAG (검색 증강 생성)"가 뭐야?
- 전문가 설명: AI가 답변할 때 미리 저장된 문서 데이터베이스에서 관련 내용을 검색해서 끌어와 활용하는 기법. AI의 기억력 한계를 보조하는 방법.
- 한나 버전: ChatGPT가 6개월 전 대화를 잊어버리는 문제 있잖아. RAG는 AI가 외부 메모장을 참고해서 "아 맞다, 저번에 이랬지"를 가능하게 해주는 기술이야.
"오케스트레이션 레이어 (Orchestration Layer)"가 뭐야?
- 전문가 설명: 여러 AI 모델과 도구들을 연결하고 조율하는 중간 소프트웨어 층. 직접 AI를 만들지 않아도 기존 AI를 엮어서 서비스를 만드는 영역.
- 한나 버전: 유튜브·인스타·틱톡 콘텐츠를 직접 촬영하는 대신, MCN처럼 여러 크리에이터를 연결해서 기획·관리하는 역할. AI판 MCN 기획자 포지션이야.
"Chain of Thought"가 뭐야?
- 전문가 설명: AI에게 최종 답만 요구하지 않고 "단계별로 생각하면서" 답하도록 유도하는 프롬프트 기법. 복잡한 문제에서 정확도가 올라감.
- 한나 버전: 유튜브 기획할 때 "이 영상 잘 될까?" 바로 묻는 것보다 "타겟 누구야 → 훅이 뭐야 → 경쟁 채널 뭐가 있어 → 그러면 어때?"처럼 단계별로 생각하게 하는 거야. GPT한테도 똑같이 단계별로 생각하게 하면 훨씬 정확해.
🔥 노정석 어록 모음
"이것의 한 3~4배가 된다고 가정했을 때 어떤 일이 일어나지? 그게 된다고 가정하고 사업 모델을 상상하자라고 하면 얼추 타이밍 맞지 않을까 싶어요."
분위기: 급하지 않게, 조용히 확신하는 투. 흥분보다는 침착한 예언자 같은 톤.
한나 풀이: 지금 GPT-4 기준으로 "이게 안 되네"라고 포기하지 말고, "이게 34배 좋아지면?" 기준으로 콘텐츠·사업 기획을 짜라는 거야. 지금 나온 한계에 맞춰서 기획서 쓰면 12년 뒤에 모델이 발전했을 때 그 기획서가 다 낡아버려. 반대로 "3배 스마트한 AI 있다고 치면 내 채널에서 뭐가 달라지지?"로 상상하면, 그 시점이 실제로 왔을 때 남들보다 먼저 움직일 수 있어.
"지금 필요한 건 상상력. 인턴인데 얘가 이제 멀티모달로 가고 모델도 더 커지고 하면서 더 똑똑해진다는 가정을 했을 때 무엇을 할 것인가를 생각하고 뭔가를 스케치할 타이밍인 것 같아요."
분위기: 영상 마지막 부분, 두 사람 모두 지쳐가는데 노정석이 오히려 목소리 살짝 올리면서 하는 말. 피곤하지만 눈빛은 반짝이는 느낌.
한나 풀이: 요즘 "AI 너무 빨라서 뭘 해야 할지 모르겠다"는 말 많이 하잖아. 근데 노정석은 반대로 얘기해 — 지금 이 순간이 오히려 스케치할 타이밍이라고. 완성된 서비스 론칭이 아니라, 가능성의 그림을 그려두는 것. 한나 입장에서는 "AI가 내 콘텐츠의 촬영·편집·기획을 얼마나 도울 수 있을까"를 지금부터 실험하고 메모해두는 게 그 스케치야.
"이런 수준의 티키타카를 ChatGPT랑 한 다섯 턴, 열 턴 넘어가게 하면 일단 저게 생각이 깊은 사람이거든요."
분위기: 최승준의 실험을 한참 지켜보다가 슬쩍 던지는 말. 칭찬인데 분석적으로 하는 칭찬.
한나 풀이: ChatGPT한테 "콘텐츠 아이디어 줘" 한 번 묻고 끝내는 사람이 대부분이야. 근데 그 답에 다시 "이건 왜 잘 될 거 같아?" 물어보고, 또 "그러면 안 될 이유는?" 물어보고 — 이렇게 10턴 이어가는 능력 자체가 경쟁력이 되는 시대야. 질문을 깊게 이어갈수록 AI에서 뽑아낼 수 있는 게 달라지거든.
🎬 한나 적용 포인트
1) 내 콘텐츠 기획서를 "3배 AI 기준"으로 다시 써봐 지금 ChatGPT가 못 해주는 것 때문에 포기한 기획이 있다면, "이게 3배 더 똑똑해지면 가능해질까?" 기준으로 다시 꺼내봐. 예를 들어 "AI가 내 목소리 학습해서 대본 읽어주는 쇼츠 만들기" — 지금은 어색한데 1년 뒤는 다를 수 있거든. 그 기획을 지금 메모해두는 게 타이밍 잡는 방법이야.
2) 페르소나 여러 개로 내 콘텐츠 비평 시켜봐 최승준이 Alice·Bob·Charlie 만들어서 토론 붙인 것처럼, 한나도 "내 영상을 좋아하는 구독자 Jane, 내 콘텐츠에 회의적인 경쟁 크리에이터 John, 광고주 관점의 마케터 Mike — 이 세 명이 이 기획안을 보면 어떻게 반응해?" 라고 GPT에 물어봐. 혼자 셀프 피드백하는 것보다 맹점이 훨씬 잘 보여.
3) 나만의 GPT 협업 일지 만들어봐 노정석이 GPT를 업무 일기장으로 쓴다고 했잖아. 한나도 매일 기획 아이디어 하나씩 GPT한테 던지고, 비평받고, 개선안 받은 것을 노션·옵시디언에 날짜별로 쌓아봐. 3개월 후에 "내가 AI한테 뭘 잘 물어보게 됐는지" 패턴이 보이고, 그게 한나만의 프롬프트 노하우가 돼.
🏷️ 태그
- 시기: #2023하
- 주제: #GPT-4구조 #MoE #유출정보 #프롬프트엔지니어링
- 인물: #샘알트만 #조지호츠
- 자유: #GPT4해부 #틴커링세션 #코드인터프리터실험