EP 42. GROK3 를 맞이하며 AI 세상에 대한 관점 정비하기
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 48번째 · 2025-02-23
- 시기 배경: 2025상 (AI 모델 춘추전국시대 / 그록3·딥시크·GPT-4.5 동시 등장, 누가 짱인지 안 보이기 시작)
- 난이도: ⭐⭐⭐ (어려운 개념 9개)
- ⬅️ 앞 영상: [[2025-02-12_[AI비즈포럼-토론발제#2] AI 시대의 비지니스 모델 탐구 (박상욱대표) - 제1회 AI비지니스포럼|[AI비즈포럼-토론발제#2] AI 시대의 비지니스 모델 탐구 (박상욱대표) - 제1회 AI비지니스포럼]]
- ➡️ 다음 영상: EP 43. GPT-4.5, CLAUDE-3.7, GROK-3 - AI목장의 결투 2월편
- 연결 이유: 이 영상에서 "모델 스펙 추적 그만, 서비스 집중"을 선언하고 → 다음 영상에서 GPT-4.5·Claude-3.7·Grok-3 실제 비교로 바로 이어짐
⚡ 5분 요약
한 줄
AI 모델 스펙 외우는 거 CPU 스펙 달달 외우는 것만큼 의미없어졌어 — 이제 그걸로 뭘 만들지에만 집중할 때야.
핵심 3개
1) 모델 품질은 다 비슷해져 가고 있어 오픈AI만 압도적이었던 시대는 끝났어. 그록3·딥시크·구글·앤트로픽 다 꼭대기에서 만나고 있거든. 유튜브 영상 퀄리티처럼 — 예전엔 스튜디오 급만 잘 나왔는데 이제 스마트폰으로도 똑같이 나오는 그 느낌.
2) AI 가격은 결국 0원으로 수렴해 회사들끼리 경쟁이 붙으면 편익은 소비자 몫이야. 인텔리전스가 집집마다 꽂혀 있는 전기 콘센트처럼 되는 거거든. "30원이냐 40원이냐" 토론은 의미없어. 그냥 0원이 된다고 생각하고 계획 짜.
3) 데이터 1,000개가 세상을 바꿨어 스탠포드 연구팀이 초고품질 데이터 1,000개만으로 최신 AI를 이긴 걸 증명했어. 많은 데이터가 아니라 내 도메인의 좋은 데이터가 이제 진짜 무기야. 한나한테 뷰티·라이프스타일 데이터가 있다면? 그게 바로 경쟁력.
가장 인상적인 한 마디
"모델이 어떻다 얘기하는게 꼭 CPU 스펙 외우는 꼴이랑 비슷한 거 같은 느낌이 들어서 저는 이제 요거는 그만하려고 해요"
한나야, 이게 무슨 말이냐면 — AI 뉴스 매일 챙기는 거 이제 쓸모없다는 거야. 어떤 모델이 더 좋냐 논쟁 말고, 그걸로 뭘 만들지에만 집중하라는 선언이야.
한나가 지금 당장 시도해볼 것
팔로하는 AI 뉴스 계정 절반만 끊고, 그 시간에 "내 콘텐츠 도메인에서 AI한테 물어볼 질문 10개"를 적어봐. 노정석이 실제로 하고 있는 거야 — 자기 뷰티 도메인 질문 리스트 만들기. 한나도 지금 당장 메모앱 열고 시작 가능해.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~7분: 미국 새벽에 혼자 앉아서 — "너무 빠르다, 정리 좀 하자"
노정석이 이번엔 최승준 없이 혼자야. 미국 출장 중에 시차 때문에 새벽에 깨서 혼자 카메라 켠 느낌. 톤 자체가 평소보다 좀 더 차분하고, 뭔가 오랫동안 혼자 생각 정리하다가 털어놓는 분위기야.
운을 떼는 게 "2022년 11월 챗GPT 이후로 놀라움의 주기가 연 → 분기 → 월 → 주 단위로 줄었다"거든. 논문도 하루에 500~1,000개씩 쏟아지고, 딥시크 쇼크, 그록3 발표, 구글 코사이언티스트 논문, GPT-4.5 예고… 5일 안에 이 모든 게 다 터졌다고. 그래서 "지수함수적 발전을 해석할 로그 렌즈가 필요하다"면서 오늘 영상을 시작해.
그리고 자기가 2020년부터 써온 틀을 꺼내 — 컴퓨트(하드웨어) / 알고리즘 / 서비스 세 카테고리. "이 관점은 여전히 유효한 것 같아서 오늘도 이걸로 정리해볼게"라고.
7~16분: 컴퓨트 — "그록3가 별로라고? 그게 원래 게임 규칙이야"
엔비디아 GPU 공급량 그래프를 보여주면서 시작해. 시장에 풀리는 연산량(컴퓨테이션)이 기하급수적으로 늘고 있다는 거. 일론 머스크가 그록3 만들면서 "외부 클라우드에 GPU 20만 개 만들어달라 했더니 2년 걸린다고 해서, 그냥 내가 직접 122일 만에 10만 대, 92일 후 추가 10만 대 박아버렸다"는 에피소드를 꺼내는데 — 노정석이 이 대목에서 약간 경이로운 듯, 동시에 "이 사람 미쳤네"라는 표정이 역력해.
근데 흥미로운 포인트가 나와. 커뮤니티에서 "그록3 생각보다 별로다" 말이 많은데, 노정석은 이걸 정면 반박해. 스케일링 법칙(2020년 논문)에 따르면 연산량 두 배 넣어도 성능이 두 배 안 올라. 손실이 24% 줄어드는 정도거든. 근데 벤치마크 보면 이미 현존 모델 탑 수준이야. "이게 앞으로 우리가 계속 볼 게임의 일반적인 양상"이라고 — 우주적인 연산 투입해도 체감 차이는 크지 않을 거란 거.
그다음에 핵심 포인트가 나와 — 모든 회사 모델들이 벤치마크 그래프에서 꼭대기로 수렴하고 있다는 거. "오픈AI 선두 우위가 급격히 위험해지고 있어. 샘 알트만 스텝이 꼬여 있을 것 같아"라고 직격탄 날려. 구글은 "조용히 결과만 보여줌", 그록3는 "시끄럽게 보여줌" — 둘 다 같은 결론이야. 그리고 "원클릭 웨이" 얘기도 나와 — 더 좋고 싼 게 나오면 유저는 순식간에 갈아타거든. 이건 팔로워가 더 재밌는 크리에이터 나오면 이동하는 거랑 완전 똑같아.
16~26분: 알고리즘 — "1,000개 데이터로 최신 AI를 이겼다, 황당하죠?"
이 구간이 오늘 영상에서 제일 핵심이야. 노정석이 기술 얘기를 하면서도 눈빛이 달라지는 파트거든.
딥시크 R1 논문 얘기부터 시작해. 핵심 메시지: "검증 가능한 정답이 있는 문제(수학, 코딩)를 가지고 강화학습 돌리면 그냥 일반 모델이 추론 모델로 바뀐다." 오픈AI가 숨겨온 o1의 비밀을 딥시크가 논문으로 다 공개해준 거라고.
더 재밌는 건 디스틸레이션(증류) 얘기야. 복잡한 강화학습 없이 좋은 데이터만 먹여도 작은 모델이 갑자기 추론 잘 하게 된다는 거. "멍청한 모델이 아무리 노력해봐야 성적 안 올라, 차라리 좋은 교과서 하나 보여줘라" — 이 대목에서 노정석이 진짜 재밌다는 표정이야.
그리고 폭탄 같은 스탠포드 S1 논문 등장. 구글 제미나이가 생성한 리즈닝 데이터 59,000개로 실험했더니, 1,000개 고품질 데이터만으로도 충분하다는 거. 3B짜리 작은 모델에 데이터 1,000개 먹이고 "답 나오면 멈추지 말고 한 번 더 생각해봐"라고만 해도 o1 프리뷰를 이기더라고. "황당하죠? 말도 안 되는 얘기예요"라면서 노정석이 웃어.
결론은 — 내 도메인의 초고품질 데이터 1,000개가 있으면 나만의 AI를 만들 수 있다. "저는 뷰티 도메인 하고 있으니 거기 리즈닝 데이터셋 60만 개 만들 수 있겠구나 생각했는데, 1,000개도 된다고?" 라면서.
26~34분: 그래서 우리는 뭘 해야 하냐 — "가전제품 만들어"
이 파트에서 노정석이 결론을 내려. 약간 피곤한 듯 담담하게.
"모델 성능 뉴스 팔로잉 그만해도 되겠다. 쓸만한 수준 다 넘어섰어. 이제 그걸로 만들어낼 부가가치에 미친 듯이 집중해야 해."
인텔리전스가 집안 전기 콘센트(파워 아울렛)처럼 될 거라고. 지금은 얼리어댑터 5% 집에만 꽂혀 있는데, 곧 모든 집에 달릴 거야. 그럼 중요한 건 전기를 어떻게 만드냐가 아니라 — 전기로 뭘 만드냐잖아. 세탁기, 에어컨, 다이슨 드라이어처럼. 똑같은 전기 쓰는데 끊임없이 재창조되는 가전시장이 AI 서비스 시장이라는 거야.
"저는 이제 가전제품에 집중해야겠다"는 말로 마무리. 에이전트/서비스 얘기는 주제가 너무 커서 다음 영상에서 따로 하겠다고.
💡 한나 버전 사전
"컴퓨테이션(Computation)"이 뭐야?
- 전문가 설명: AI 모델을 만들거나 돌릴 때 쓰는 연산 처리 능력의 총량. GPU가 계산 얼마나 많이 했냐는 거야.
- 한나 버전: 영상 렌더링할 때 컴퓨터 팬 엄청 돌잖아. 그게 컴퓨테이션이야. AI 모델 학습할 때 그걸 어마어마하게 쓰는 거거든. 더 좋은 AI 만들려면 이 연산량을 더 많이 투입해야 해.
"스케일링 법칙(Scaling Law)"이 뭐야?
- 전문가 설명: 연산량을 늘릴수록 AI 성능이 예측 가능한 비율로 좋아진다는 2020년 발표 법칙.
- 한나 버전: 팔로워 늘리려고 포스팅 2배 늘린다고 팔로워가 2배 안 되잖아. 근데 꾸준히 올리면 확실히 올라가긴 해. 그 관계를 수식으로 표현한 게 스케일링 법칙이야.
"디스틸레이션(Distillation, 증류)"이 뭐야?
- 전문가 설명: 크고 똑똑한 모델이 만든 고품질 답변 데이터를 작은 모델에게 학습시켜서 성능을 끌어올리는 기법.
- 한나 버전: 팔로워 1,000만인 크리에이터가 만든 콘텐츠 공식을 분석해서 신입 크리에이터한테 "이 구조로 만들어봐" 하고 가르치는 거야. 신입이 혼자 1,000만 가는 것보다 훨씬 빠르게 성장하는 거거든.
"강화학습(Reinforcement Learning, RL)"이 뭐야?
- 전문가 설명: 정답 맞추면 보상, 틀리면 페널티를 줘서 AI가 스스로 더 나은 답을 찾도록 훈련시키는 방법.
- 한나 버전: 유튜브 알고리즘이 조회수 높은 영상 더 밀어주고 낮은 거 덜 밀어주잖아. 그러면 크리에이터가 알아서 조회수 높은 콘텐츠 방향으로 맞춰가게 되는 거. AI도 똑같이 "맞으면 칭찬, 틀리면 벌" 받으면서 스스로 학습해.
"SFT(Supervised Fine-Tuning, 지도 파인튜닝)"이 뭐야?
- 전문가 설명: 기존 AI 모델에 특정 도메인의 질문-답변 데이터를 추가로 먹여서 그 분야에 맞게 조정하는 작업.
- 한나 버전: 유튜버가 원래 브이로그 채널인데 뷰티 콘텐츠로 전환하려고 뷰티 영상만 집중 업로드하는 거야. 채널 자체가 바뀌는 건 아닌데 방향성이 확 잡히잖아.
"TTC(Test-Time Compute, 테스트 타임 컴퓨트)"가 뭐야?
- 전문가 설명: 모델 학습이 끝난 후에도, 질문에 답하는 시점에 더 많은 연산을 투입해 성능을 높이는 방법. "답 내기 전에 더 오래 생각하기."
- 한나 버전: 릴스 올리기 전에 캡션 5초 쓰는 거랑 30분 고민해서 쓰는 거랑 다르잖아. 모델도 답 바로 뱉지 않고 더 오래 생각하게 하면 더 좋은 답 나오는 거야.
"에이전트(Agent)"가 뭐야?
- 전문가 설명: AI가 사람의 지시 없이 스스로 여러 단계 작업을 수행하고, 필요하면 다른 도구나 AI와 협력해서 목표를 달성하는 시스템.
- 한나 버전: 매니저 같은 거야. "이번 달 스폰서 협업 정리해줘"라고 하면 — 이메일 열고, 내용 분류하고, 답장 초안 쓰고, 캘린더 업데이트까지 알아서 다 하는. 한 번 지시하면 혼자 연쇄 작업 하는 AI야.
"MOE(Mixture of Experts)"가 뭐야?
- 전문가 설명: AI 모델 안에 여러 전문가 유닛을 두고, 질문 종류에 따라 해당 전문가만 깨워서 쓰는 구조. 효율이 올라가.
- 한나 버전: 에디팅팀·기획팀·마케팅팀 따로 두고, 영상 편집할 땐 에디팅팀만 부르는 것처럼. 다 동시에 굴리지 않아서 에너지·비용 절약.
"벤치마크(Benchmark)"가 뭐야?
- 전문가 설명: AI 모델 성능을 수치로 비교할 수 있게 만든 표준 시험 세트.
- 한나 버전: 크리에이터 랭킹 같은 거야. 팔로워수·평균 조회수·댓글 참여율로 "이 계정 얼마나 잘 나가냐" 비교하는 거거든. 근데 요즘 AI 벤치마크도 "시험을 위한 시험"이 됐다고 — 실생활 성능이랑 괴리 있다는 비판이 나오고 있어.
🔥 노정석 어록 모음
"모델이 어떻다 얘기하는게 꼭 CPU 스펙 외우는 꼴이랑 비슷한 거 같은 느낌이 들어서 저는 이제 요거는 그만하려고 해요"
분위기: 오랫동안 고민하다 내린 결론을 조용히 선언하는 톤. 자기 자신한테도 하는 말 같아.
한나 풀이: AI 뉴스 매일 챙기는 거, 어떤 모델이 벤치마크 1위냐 따라가는 거 — 이제 쓸데없다는 거야. 스마트폰 스펙 줄줄 외워봤자 그걸로 돈 버는 게 아닌 것처럼. 이제 진짜 질문은 "AI로 뭘 만들어서 어떻게 팔 건데?"야.
"인텔리전스의 가격이 0원으로 수렴해 가고 있다. 30원이냐 40원이냐 이런 토론은 그만해야 되겠다"
분위기: 약간 웃기도 하고, 이미 결론 내린 사람 특유의 단호함이 섞인 말투.
한나 풀이: AI 사용 비용이 결국 거의 무료가 된다는 거야. 회사들끼리 경쟁하면 가격은 내려가게 되어 있거든. 그러니까 "요금제 어디가 더 싸냐"에 에너지 낭비하지 말고, 무료에 가까워진 AI로 어떤 콘텐츠·사업을 만들 건지 생각하는 데 집중해.
"좋은 교과서 하나만 있으면 다 된다는 거를 보여 주는 거죠. 텍스트북 이즈 올 유."
분위기: 스탠포드 S1 논문 소개하면서 진심으로 감탄하는 톤. "이거 실화냐"라는 느낌.
한나 풀이: 엄청난 양의 데이터보다 진짜 좋은 데이터 1,000개가 더 강하다는 거야. 한나로 치면 — 콘텐츠 1,000개 양치기보다 진짜 잘 만든 영상 100개가 채널을 더 빠르게 키우는 것처럼. AI 학습도 똑같은 원리가 적용됐어.
🎬 한나 적용 포인트
1) 내 분야 "AI 질문 리스트" 만들기 — 이게 미래 무기야 노정석이 실제로 하고 있는 거야. 뷰티 도메인에서 AI한테 물어볼 질문을 모아서 데이터셋을 만드는 중이거든. 한나도 콘텐츠·마케팅·브랜드 협업 관련해서 "내가 자주 고민하는 질문 리스트" 100개 만들어봐. 이게 나중에 나만의 AI 학습 재료가 돼. 지금 당장은 거창하게 생각 안 해도 돼 — 그냥 메모장에 질문 리스트부터.
2) AI 뉴스 알림 대신 "AI 활용 예제" 팔로우로 갈아타 어떤 모델 벤치마크 1위냐 쫓는 계정 대신, 실제로 에이전트나 AI로 콘텐츠 자동화·사업 자동화 하는 사람들 계정 팔로우해봐. 노정석이 "AI 엔지니어 서밋에서 실질적 예제들이 쏟아지고 있다"고 했거든. 기술 스펙 아니라 활용 사례 보는 거야.
3) "AI가 나 대신 뭘 해줄 수 있나" 목록 만들기 전기가 세탁기·냉장고·드라이어 됐듯이, AI가 한나 비즈니스에서 무슨 가전제품 역할을 할 수 있는지 써봐. 예: 협찬 이메일 초안 쓰기 / 콘텐츠 캘린더 짜기 / 댓글 분석해서 다음 주제 뽑기. 이 목록이 쌓일수록 한나가 "AI 가전제품" 만드는 사람에 가까워지는 거야.
🏷️ 태그
- 시기: #2025상
- 주제: #AI관점정리 #모델경쟁 #데이터전략 #서비스전환
- 인물: #일론머스크 #샘알트만
- 자유: #인텔리전스가전화 #관점정비 #혼자녹화