← 메인으로
EP. 8·23.07.12·⭐⭐⭐⭐·1시간 28분 39초

현존최강 AI, GPT-4 의 숨겨진 유출정보 읽어보기

GPT-4가 어떻게 생겼는지 유출 자료로 뜯어보고, "이걸 알면 뭐가 달라지나?"를 실험으로 보여준 회차야.

▶ 유튜브에서 원본 보기← 앞: EP.7 LLM 산업계의 구조 뜯어보기 + tinkering session→ 다음: EP.9 META 가 던진 소심한 승부수, LLAMA-2 는 왜 하필 지금 공개됐을까(?)

EP.8 현존최강 AI, GPT-4 의 숨겨진 유출정보 읽어보기

🗺️ 이 영상의 위치

⚡ 5분 요약

한 줄

GPT-4가 어떻게 생겼는지 유출 자료로 뜯어보고, "이걸 알면 뭐가 달라지나?"를 실험으로 보여준 회차야.

핵심 3개

1) GPT-4는 사실 "16명짜리 팀"이었어 덩치 하나인 줄 알았는데 사실 AI 여러 개(16개 expert)가 분업해서 돌아가. 질문이 들어오면 그중 하나만 처리하는 구조 — 덕분에 10배 큰 모델인데 추론 비용은 3배밖에 안 올라감. 이게 MoE(전문가 혼합) 구조고, 전기세 아끼면서 성능 내는 핵심 비결이야.

2) 학습 데이터 13조 개 토큰 — 인터넷 거의 다 긁었다 GPT-3가 3,000억 토큰 썼는데 GPT-4는 13조. 공개 웹 크롤링, 코딩 데이터, 교과서급 텍스트, 심지어 유튜브 자막·Reddit·GitHub까지. 노정석 표현 빌리면 "2교시는 텍스트, 4교시는 코드로 빡세게" — 배열 순서까지 전략적으로 짰어.

3) Code Interpreter로 AI랑 "깊은 대화" 실험해봤는데… 최승준이 GPT-4한테 시 쓰게 하고, 스스로 비평하고, 개선하게 하는 멀티 라운드 실험을 라이브로 보여줘. 페르소나 여러 개 설정해서 토론 시키는 것까지. 결론은 "엄청 강력한데, ROI 따지면 아직 시간 대비 애매하다"는 현실 고백.

가장 인상적인 한 마디

"지금 필요한 건 상상력. GPT-4가 지금은 인턴인데 얘가 더 똑똑해진다는 가정을 했을 때 무엇을 할 것인가를 생각하고 뭔가를 스케치할 타이밍인 것 같아요."

한나야, 이게 무슨 말이냐면 — 지금 GPT-4 한계에 맞춰서 콘텐츠·사업 계획 세우지 말고, "이게 3~4배 더 똑똑해지면 뭐가 가능해?"를 먼저 상상해서 기획하라는 거야.

한나가 지금 당장 시도해볼 것

ChatGPT에 콘텐츠 아이디어 하나를 던지고 "이 아이디어의 논리적 허점을 찾아줘 → 개선안 제안해줘 → 그 개선안을 다시 비평해줘" 3단계로 이어서 물어봐. 노정석이 강조한 "몇 십 턴 이어서 질문할 수 있는 게 이 시대의 핵심 역량"이거든 — 오늘 딱 5분만 써봐.

📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)

0~20분: GPT-4 유출 문서, 읽어도 되나 말아야 하나

노정석이 살짝 긴장한 표정으로 운을 떼. "이거 할까 말까 고민 많이 했어요." semianalysis.com이라는 실리콘밸리 프리미엄 정보 사이트 — 구독료가 연 100만원이 넘는 곳 — 에서 GPT-4 내부 스펙이 유출됐는데, 누가 트위터 스레드로 쭉 퍼뜨렸다가 "야, 우리 돈 받고 파는 거잖아" 항의에 삭제된 거야. 근데 인터넷은 한번 퍼지면 영원히 남으니까 복사본이 살아있었고, 두 사람이 그걸 함께 읽기로 결정.

읽다가 저작권 이야기가 나오는데, Jeremy Howard가 "정보 자체엔 저작권 없다"고 반박한 것까지 소개하면서 노정석이 씩 웃으며 "어차피 쟤들도 어떤 형태로든 도둑질한 건데"라고 끼얹어. 최승준이 "맞죠" 하면서 두 사람 동시에 소리 없이 웃는 분위기.

20~45분: 숫자로 보는 GPT-4의 실제 덩치

여기서 본격적으로 스펙을 뜯어. GPT-3의 파라미터가 1,750억 개였는데 GPT-4는 1.8조 개. 숫자를 보며 최승준이 "거의 2조 개네요" 하자 노정석이 "인간 뇌 시냅스가 10~15조 정도라는데 그것도 추정치야" 하면서 인간 뇌랑 비교해줘.

그리고 MoE 구조 설명이 이어지는데, 노정석이 "내가 설명을 너무 어렵게 하나요?" 하면서 스스로 멈추고 다시 정리하는 장면이 인상적이야. 핵심은 이거야 — 1.8조 파라미터가 동시에 다 돌지 않고, 실제 한 번에 쓰는 건 2,800억 개 정도. 16개 AI가 분업하는 셈이라 추론 비용이 생각보다 덜 들어.

학습 데이터 얘기도 나와. 13조 토큰, A100 GPU 2만 5천 장으로 99일 돌린 학습 비용이 대략 800억 원. "중간에 에러 나서 뻗으면 진짜 살 떨리겠다"며 노정석이 공감하는 표정을 지어.

45~65분: Microsoft Semantic AI 법칙 + LLM 생태계 지도

최승준이 3월에 나왔던 Microsoft Semantic AI 법칙 문서를 꺼내. 핵심만 두 가지:

  • "모델이 할 수 있으면 코드 쓰지 마라" — 지금 GPT에 맞게 너무 촘촘하게 코드 짜면 모델이 더 좋아질 때 다 갈아엎어야 하니까, 모델 발전에 베팅하라는 얘기.
  • "텍스트가 universal protocol이다" — 지금 AI 세계에서 모든 소통은 결국 텍스트(JSON)로 수렴한다.

그러고 나서 노정석이 "LLM 직접 못 만드는 회사는 다 orchestration layer로 올라와야 한다"고 결론 내려. 한나한테 직접 해당하는 말이야 — AI 인프라 만들 게 아니라 그걸 엮고 기획하는 레이어에서 승부해야 한다는 거거든.

65~88분: 최승준의 Code Interpreter 라이브 실험 — 좌절과 희망 사이

이 구간이 제일 생생해. 최승준이 자기가 밤새 혼자 실험한 걸 라이브로 보여주거든. "저도 오락가락하고 있어요 요즘" 하면서 솔직하게 시작.

실험 흐름은 이래:

  1. GPT-4한테 시 쓰게 함
  2. 스스로 비평하게 함
  3. 개선하게 함
  4. 여름·가을·겨울 반복시켰더니 "패턴화"돼서 단어만 바꿔치기 시작
  5. 페르소나(Alice, Bob, Charlie) 여러 명 설정해서 토론 붙임
  6. "저자 워크숍" 기법까지 끌어와서 피드백 시뮬레이션

노정석이 지켜보다가 "이렇게 수십 턴 이어서 ChatGPT 쓰는 사람을 본 적이 없어요"라고 진심 놀라며 말해. 최승준은 웃으면서도 "결과물 품질이 시간 투자 대비 아직 애매해요"라고 현실 고백.

마지막에 노정석이 정리해줘: "GPT-4는 지금 인턴이야. 근데 지치지 않는 인턴." 그리고 "10배 더 똑똑해진다고 가정하고 기획하라"는 말로 마무리.


💡 한나 버전 사전

"MoE (Mixture of Experts)"가 뭐야?

  • 전문가 설명: 하나의 거대 AI 모델 안에 여러 개의 작은 전문 모델이 병렬로 있고, 입력이 들어오면 가장 적합한 전문 모델로 라우팅해서 처리하는 구조.
  • 한나 버전: 유튜브 채널 운영할 때 편집팀·촬영팀·자막팀이 따로 있는데, 영상 들어오면 그중 맞는 팀한테만 넘기는 거야. 모든 팀이 동시에 일하는 게 아니라 필요한 팀만 투입 — 인건비(전기세) 아끼면서 퀄리티 유지하는 구조.

"파라미터 (Parameter)"가 뭐야?

  • 전문가 설명: AI가 학습하면서 조정되는 수치들의 집합. 개수가 많을수록 더 복잡한 패턴을 기억하고 표현할 수 있음.
  • 한나 버전: 한나가 콘텐츠 감각을 쌓으면서 머릿속에 저장한 "이건 되고 이건 안 되는" 기준들 전부. 파라미터가 많다 = 경험치가 많다.

"추론 / 인퍼런스 (Inference)"가 뭐야?

  • 전문가 설명: 학습이 끝난 AI 모델이 실제로 사용자 질문에 답변을 생성하는 과정. 학습(training)과 반대 개념.
  • 한나 버전: 영상 편집 배우는 게 training이고, 실제로 영상 한 편 뚝딱 만들어내는 게 inference야. ChatGPT한테 뭔가 물어볼 때마다 inference가 한 번씩 도는 거거든.

"RLHF (인간 피드백 강화학습)"가 뭐야?

  • 전문가 설명: AI가 생성한 답변에 인간이 "이게 더 낫다/나쁘다" 피드백을 주면, 그 피드백을 기반으로 AI가 더 나은 답변을 내도록 조정하는 학습법.
  • 한나 버전: 릴스 올렸을 때 댓글·좋아요 반응 보고 "아, 이런 톤이 좋구나" 학습하는 것처럼, AI한테 사람이 직접 "이게 더 좋아/나빠" 알려주면서 훈련하는 거야.

"컨텍스트 길이 (Context Length)"가 뭐야?

  • 전문가 설명: AI가 한 번에 읽고 기억할 수 있는 텍스트의 최대 길이. 토큰 수로 측정됨.
  • 한나 버전: ChatGPT랑 대화하다가 대화가 너무 길어지면 앞에 했던 말을 잊어버리는 경험 해봤지? 그 기억력의 한계가 컨텍스트 길이야. GPT-4는 8K~32K 토큰까지 기억 가능.

"SemiAnalysis"가 뭐야?

  • 전문가 설명: 실리콘밸리 반도체·AI 산업 전문 리서치 미디어. 내부 관계자 정보를 토대로 심층 분석을 유료로 제공함. 연 구독료 약 100만 원 이상.
  • 한나 버전: 뷰티/패션 업계에 내부 정보로 먹고 사는 프리미엄 뉴스레터 있잖아. "이 브랜드 다음 분기 어떻게 된다더라" 같은 거 독점으로 파는 데. SemiAnalysis가 AI 업계에서 그 역할이야.

"RAG (검색 증강 생성)"가 뭐야?

  • 전문가 설명: AI가 답변할 때 미리 저장된 문서 데이터베이스에서 관련 내용을 검색해서 끌어와 활용하는 기법. AI의 기억력 한계를 보조하는 방법.
  • 한나 버전: ChatGPT가 6개월 전 대화를 잊어버리는 문제 있잖아. RAG는 AI가 외부 메모장을 참고해서 "아 맞다, 저번에 이랬지"를 가능하게 해주는 기술이야.

"오케스트레이션 레이어 (Orchestration Layer)"가 뭐야?

  • 전문가 설명: 여러 AI 모델과 도구들을 연결하고 조율하는 중간 소프트웨어 층. 직접 AI를 만들지 않아도 기존 AI를 엮어서 서비스를 만드는 영역.
  • 한나 버전: 유튜브·인스타·틱톡 콘텐츠를 직접 촬영하는 대신, MCN처럼 여러 크리에이터를 연결해서 기획·관리하는 역할. AI판 MCN 기획자 포지션이야.

"Chain of Thought"가 뭐야?

  • 전문가 설명: AI에게 최종 답만 요구하지 않고 "단계별로 생각하면서" 답하도록 유도하는 프롬프트 기법. 복잡한 문제에서 정확도가 올라감.
  • 한나 버전: 유튜브 기획할 때 "이 영상 잘 될까?" 바로 묻는 것보다 "타겟 누구야 → 훅이 뭐야 → 경쟁 채널 뭐가 있어 → 그러면 어때?"처럼 단계별로 생각하게 하는 거야. GPT한테도 똑같이 단계별로 생각하게 하면 훨씬 정확해.

🔥 노정석 어록 모음

"이것의 한 3~4배가 된다고 가정했을 때 어떤 일이 일어나지? 그게 된다고 가정하고 사업 모델을 상상하자라고 하면 얼추 타이밍 맞지 않을까 싶어요."

분위기: 급하지 않게, 조용히 확신하는 투. 흥분보다는 침착한 예언자 같은 톤.

한나 풀이: 지금 GPT-4 기준으로 "이게 안 되네"라고 포기하지 말고, "이게 34배 좋아지면?" 기준으로 콘텐츠·사업 기획을 짜라는 거야. 지금 나온 한계에 맞춰서 기획서 쓰면 12년 뒤에 모델이 발전했을 때 그 기획서가 다 낡아버려. 반대로 "3배 스마트한 AI 있다고 치면 내 채널에서 뭐가 달라지지?"로 상상하면, 그 시점이 실제로 왔을 때 남들보다 먼저 움직일 수 있어.


"지금 필요한 건 상상력. 인턴인데 얘가 이제 멀티모달로 가고 모델도 더 커지고 하면서 더 똑똑해진다는 가정을 했을 때 무엇을 할 것인가를 생각하고 뭔가를 스케치할 타이밍인 것 같아요."

분위기: 영상 마지막 부분, 두 사람 모두 지쳐가는데 노정석이 오히려 목소리 살짝 올리면서 하는 말. 피곤하지만 눈빛은 반짝이는 느낌.

한나 풀이: 요즘 "AI 너무 빨라서 뭘 해야 할지 모르겠다"는 말 많이 하잖아. 근데 노정석은 반대로 얘기해 — 지금 이 순간이 오히려 스케치할 타이밍이라고. 완성된 서비스 론칭이 아니라, 가능성의 그림을 그려두는 것. 한나 입장에서는 "AI가 내 콘텐츠의 촬영·편집·기획을 얼마나 도울 수 있을까"를 지금부터 실험하고 메모해두는 게 그 스케치야.


"이런 수준의 티키타카를 ChatGPT랑 한 다섯 턴, 열 턴 넘어가게 하면 일단 저게 생각이 깊은 사람이거든요."

분위기: 최승준의 실험을 한참 지켜보다가 슬쩍 던지는 말. 칭찬인데 분석적으로 하는 칭찬.

한나 풀이: ChatGPT한테 "콘텐츠 아이디어 줘" 한 번 묻고 끝내는 사람이 대부분이야. 근데 그 답에 다시 "이건 왜 잘 될 거 같아?" 물어보고, 또 "그러면 안 될 이유는?" 물어보고 — 이렇게 10턴 이어가는 능력 자체가 경쟁력이 되는 시대야. 질문을 깊게 이어갈수록 AI에서 뽑아낼 수 있는 게 달라지거든.


🎬 한나 적용 포인트

1) 내 콘텐츠 기획서를 "3배 AI 기준"으로 다시 써봐 지금 ChatGPT가 못 해주는 것 때문에 포기한 기획이 있다면, "이게 3배 더 똑똑해지면 가능해질까?" 기준으로 다시 꺼내봐. 예를 들어 "AI가 내 목소리 학습해서 대본 읽어주는 쇼츠 만들기" — 지금은 어색한데 1년 뒤는 다를 수 있거든. 그 기획을 지금 메모해두는 게 타이밍 잡는 방법이야.

2) 페르소나 여러 개로 내 콘텐츠 비평 시켜봐 최승준이 Alice·Bob·Charlie 만들어서 토론 붙인 것처럼, 한나도 "내 영상을 좋아하는 구독자 Jane, 내 콘텐츠에 회의적인 경쟁 크리에이터 John, 광고주 관점의 마케터 Mike — 이 세 명이 이 기획안을 보면 어떻게 반응해?" 라고 GPT에 물어봐. 혼자 셀프 피드백하는 것보다 맹점이 훨씬 잘 보여.

3) 나만의 GPT 협업 일지 만들어봐 노정석이 GPT를 업무 일기장으로 쓴다고 했잖아. 한나도 매일 기획 아이디어 하나씩 GPT한테 던지고, 비평받고, 개선안 받은 것을 노션·옵시디언에 날짜별로 쌓아봐. 3개월 후에 "내가 AI한테 뭘 잘 물어보게 됐는지" 패턴이 보이고, 그게 한나만의 프롬프트 노하우가 돼.

🏷️ 태그