← 메인으로
EP. 5·23.07.06·⭐⭐⭐⭐·1시간 5분 5초

GPT-4 대항마 Google Gemini 이야기

구글 Gemini가 GPT-4의 가장 큰 약점인 "계획 세우기"를 파고든다 — AI가 이제 한 방향으로 달리는 게 아니라, 생각을 되감고 되짚으면서 더 나은 답을 찾는 방식으로 진화 중이야.

▶ 유튜브에서 원본 보기← 앞: EP.4 음성 Gen-AI 대표 서비스 typecast.ai 이야기 - 네오사피엔스 김태수 대표→ 다음: EP.6 chatGPT 의 초강력 신기능, 코드 인터프리터(Code Interpreter) 체험해보기

EP.5 GPT-4 대항마 Google Gemini 이야기

🗺️ 이 영상의 위치

⚡ 5분 요약

한 줄

구글 Gemini가 GPT-4의 가장 큰 약점인 "계획 세우기"를 파고든다 — AI가 이제 한 방향으로 달리는 게 아니라, 생각을 되감고 되짚으면서 더 나은 답을 찾는 방식으로 진화 중이야.

핵심 3개

1) GPT-4의 약점은 "계획(Planning)"이었고, Gemini는 딱 거기를 노린다 마이크로소프트가 GPT-4를 빡세게 테스트한 논문(Sparks of AGI)에서 계획 능력은 꼴찌였어. 구글 Gemini는 알파고가 바둑에서 썼던 "앞으로 갔다가 다시 되돌아보는" 트리 탐색 방식을 LLM에 붙이려는 거야. 후발주자가 약점만 정확히 찌르면 역전 가능하다는 전략이지.

2) AI는 지금 "생각의 방법론" 싸움 중이다 CoT(생각을 한 줄로 이어가기) → Tree of Thoughts(여러 방향 가보다가 되돌아오기)로 진화 중이야. 유튜브로 치면 영상 편집 없이 원테이크로 말하던 시대에서, 여러 컷 찍어두고 가장 좋은 걸 조립하는 시대로 넘어가는 거야.

3) AI 시장은 지금 3단계로 나뉜다 ① 넘사벽 초대형 연구소(OpenAI·Google) ② 중형 모델로 기업용 서비스 만드는 회사들(MosaicML 등) ③ 이 모델들 위에 서비스 얹는 나머지 모두. 한나는 지금 ③인데, ②들이 어떻게 경쟁하느냐에 따라 쓸 수 있는 도구가 달라져.

가장 인상적인 한 마디

"충분히 발달한 기술은 마법과 구분할 수 없다."

한나야, 이게 무슨 말이냐면 — 지금 AI가 이상하게 잘 돼서 "이게 왜 되지?" 싶은 그 느낌, 그게 바로 아직 이해는 못 했는데 기술이 이미 마법 같은 일을 하고 있다는 거야. 1962년에 나온 말인데 지금 OpenAI가 직원들한테 이 책을 나눠준다고.

한나가 지금 당장 시도해볼 것

ChatGPT 대화창에서 왼쪽 화살표(이전 답변 되돌리기) 눌러본 적 있어? 오늘부터 GPT 답변이 마음에 안 들면 그냥 다시 쓰지 말고, 화살표로 되돌려서 그 분기에서 다른 방향으로 질문을 바꿔봐. 최승준이 직접 쓰는 방법이야 — 생각의 나무를 내가 직접 만드는 거거든.

📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)

0~10분: 6월은 AI 슬럼프, 7월엔 Gemini로 입맛 돌아오다

노정석이 "오랜만에 돌아왔습니다" 하면서 시작하는데, 둘 다 6월 내내 좀 지쳐 있었다는 걸 솔직하게 털어놔. 최승준은 "3월에 도파민을 너무 크게 맞아서" 그 이후가 시들했다고 하더라고. GPT-4가 등장했을 때 그 충격이 너무 컸던 거야.

근데 구글 Gemini 관련 뉴스를 보면서 "다시 입맛이 돌아왔다"고 해. 최승준이 분위기를 설명하면서 '먹방 유튜버가 슬럼프 왔다가 신메뉴 나왔다고 다시 카메라 켠' 느낌이랄까.


10~25분: 1962년 책에서 꺼낸 OpenAI의 마인드셋

최승준이 OpenAI 블로그 일러스트 작가를 파다가 Arthur C. Clarke의 1962년 책 《Profiles of the Future》를 발견해. OpenAI가 직원들한테 이 책을 한정판으로 만들어서 나눠준 거야.

여기서 '클라크의 3법칙' 얘기가 나오는데, 요지는 "나이 든 과학자가 '이건 불가능하다'고 하면 거의 틀리더라"는 거야. 두 사람이 이걸 힌튼(될 거야) vs. 르쿤(이거론 안 돼)에 바로 대입해. 그리고 OpenAI가 슬쩍 AGI 대신 "superintelligence(초지능)"라는 단어를 쓰기 시작했다고 지적해 — 'artificial(인공)'이라는 느낌을 빼고 싶은 거라고.


25~40분: Gemini의 비밀 무기 — 생각을 되감는 AI

Demis Hassabis(구글 DeepMind 대표) 인터뷰를 보면서 Gemini의 핵심을 분석해. 키워드는 "planning(계획 세우기)"이야.

최승준이 설명하는 구조를 풀어보면: 기존 GPT는 답을 한 방향으로 쭉 뽑아내(Chain of Thought, CoT). 근데 알파고는 여러 수를 놓아보고, 좋은 수가 아니면 다시 돌아와서 다른 수를 둬(Monte Carlo Tree Search, MCTS). Gemini는 이걸 LLM에 붙이려 한다는 거야. 그리고 실제로 이 방향을 논문으로 썼던 연구자 7명 중 4명이 DeepMind 사람이었다고 최승준이 들뜬 목소리로 말해.

노정석이 "그 Sparks of AGI 논문에서 GPT-4 꼴찌가 planning이었잖아요"라고 딱 끊어주는 부분에서 두 사람이 동시에 "맞다!" 하는 분위기.


40~52분: 시스템 2, 온도(temperature), 창의성 실험

심리학자 대니얼 카너먼의 "시스템 1(빠른 직관) vs. 시스템 2(느린 숙고)" 이론이 등장해. AI 연구자들이 모델을 "숙고하게" 만들려는 시도들을 전부 '시스템 2 흉내 내기'로 보거든.

최승준이 실제로 ChatGPT Playground 화면을 켜서 temperature(=답변 다양성 조절 손잡이)를 직접 시연해 보여줘. 0이면 항상 같은 답, 2면 말이 막 튀어. 그리고 자기가 요즘 쓰는 기술을 공개해 — 질문은 한국어로, 답변은 영어로 받기. 이게 체감상 품질이 더 높다고.

최승준이 "토큰 단위로 온도를 바꿀 수 있으면 어떨까"라는 사고실험을 꺼내고, 노정석이 "너무 재밌는 주제다"라고 받아치면서 두 사람이 신난 표정으로 막 확장해 나가는 구간이야.


52~65분: AI 시장 3층 구조 + "이제 겨우 시작"

노정석이 AI 시장을 세 층으로 정리해.

  • 1층: OpenAI·Google·Microsoft (넘사벽 규모, 초지능 경쟁)
  • 2층: MosaicML·Cohere·Inflection 같은 중간 규모 회사들 (기업용 중형 모델)
  • 3층: 모델 빌려다 서비스 만드는 나머지 모두

MosaicML이 1.3조 달러에 Databricks에 팔렸다는 뉴스를 하면서 "시장이 층위가 생겼다"고 분석해.

마지막에 두 사람 모두 6월 슬럼프를 인정하면서도 "이제 겨우 시작"이라는 말로 마무리해. 최승준이 "hype에 놀아나는 것도 때로는 연료가 된다"고 고백하는 부분이 좀 귀여워.


💡 한나 버전 사전

"Gemini"가 뭐야?

  • 전문가 설명: 구글 DeepMind가 개발 중인 대규모 언어 모델. GPT-4의 경쟁 모델.
  • 한나 버전: 유튜브에 오랫동안 MrBeast(GPT-4)가 1위였는데, 구글이 "우리도 크리에이터 키울게" 하고 준비 중인 메가 채널이야. 아직 풀론칭은 아니지만 예고편이 나온 상태.

"Chain of Thought(CoT)"이 뭐야?

  • 전문가 설명: AI에게 "단계별로 생각해봐"라고 프롬프트를 주면 정확도가 올라가는 기법.
  • 한나 버전: 영상 촬영할 때 원테이크로 바로 올리는 거야. 말이 뚝뚝 끊겨도 그냥 쭉 이어가는 방식.

"Tree of Thoughts(ToT)"가 뭐야?

  • 전문가 설명: 여러 답변 방향을 동시에 탐색하고, 좋지 않은 방향은 버리면서 최적 경로를 찾는 추론 방식.
  • 한나 버전: 영상 여러 테이크 찍어두고 편집으로 가장 좋은 컷만 골라 붙이는 거야. 보는 사람은 모르지만 그 뒤에 버려진 테이크들이 엄청 많은 거지.

"MCTS(Monte Carlo Tree Search)"가 뭐야?

  • 전문가 설명: 알파고가 바둑에서 쓴 방법. 가능한 수들을 트리 구조로 쭉 탐색하다가, 별로면 되돌아와서 다른 방향을 다시 탐색함.
  • 한나 버전: 인스타 릴스 여러 버전 만들어서 소규모로 테스트 돌려보고, 반응 없으면 폐기하고 다른 방향으로 틀어서 다시 테스트하는 그 과정이야.

"Mixture of Experts(MoE)"가 뭐야?

  • 전문가 설명: 큰 AI 하나 대신, 각기 다른 분야에 특화된 소형 AI 여러 개를 조합해서 쓰는 방식. GPT-4가 이 방식이라는 루머가 있음.
  • 한나 버전: 혼자 다 하는 만능 크리에이터 한 명 대신, 촬영 전문 / 편집 전문 / 기획 전문 스태프 여러 명을 용도에 맞게 부르는 거야.

"Scaling Law(스케일링 법칙)"가 뭐야?

  • 전문가 설명: 모델 크기와 데이터를 키우면 키울수록 AI 성능이 예측 가능하게 올라간다는 법칙.
  • 한나 버전: 유튜브에서 "영상 많이 올릴수록 구독자 오른다"는 경험 법칙이랑 비슷해. 근데 어느 순간부터는 영상 더 올려도 구독자가 그만큼 안 오르는 한계가 오잖아. 지금 AI도 그 지점에 왔다는 얘기야.

"RAG(Retrieval-Augmented Generation)"가 뭐야?

  • 전문가 설명: AI가 답할 때 외부 데이터를 실시간으로 검색해서 끌어와 답하는 방식.
  • 한나 버전: 영상 스크립트 쓸 때 AI한테 "이 자료도 참고해줘" 하고 링크나 문서를 붙여 넣는 거야. AI가 자기 머릿속 지식만 쓰는 게 아니라, 내가 줬던 자료까지 같이 활용해서 답하는 방식.

"Superalignment"가 뭐야?

  • 전문가 설명: AI가 인간의 가치와 의도에 벗어나지 않도록 자동화된 방법으로 정렬하는 연구. OpenAI가 4년 목표로 팀 꾸림.
  • 한나 버전: 크리에이터가 이상한 말 막 올릴 수 없게 커뮤니티 가이드라인 세우는 거야. 근데 그 가이드라인을 AI가 스스로 지키도록 AI한테 다시 AI로 가르치는 작업이야.

"Temperature(온도)"가 뭐야?

  • 전문가 설명: AI 답변의 무작위성을 조절하는 수치. 낮으면 항상 비슷한 답, 높으면 의외의 단어가 튀어나올 확률 높아짐.
  • 한나 버전: 인스타 캡션 쓸 때 "항상 안전하게 쓰기" vs "가끔 엉뚱한 거 써보기" 중에 어느 쪽으로 갈지 조절하는 손잡이야. 0이면 모범생 답안, 2면 취한 상태로 쓴 것처럼 튀어.

"Fine-tuning / LoRA"가 뭐야?

  • 전문가 설명: 기존 AI 모델을 특정 분야·스타일에 맞게 추가 학습시키는 것. LoRA는 전체를 다시 학습하지 않고 차이(delta)만 조금 붙이는 가벼운 방법.
  • 한나 버전: 아이유 필터 + 이효리 바이브를 Stable Diffusion에 합쳐서 내 얼굴에 씌우는 그거야. 모델 자체를 새로 만드는 게 아니라, 기존 모델에 "이 특성만 더해줘" 하고 얇은 레이어를 붙이는 거지.

🔥 노정석 어록 모음

"175B에 computation이 이 정도 투입하면 이거밖에 안 나오는데, 이거를 10배, 100배의 computation과 모델 사이즈를 투입해 보면 어떨까라고 하는 가정을 세웠을 거고, 그 과정 중에 '이런 것들이 되네, 되네, 되네'라는 거를 저는 discover했을 거라고 생각이 들어요."

분위기: 스타트업 투자자 특유의 "왜 이게 됐는지는 나중에 알아도 된다, 일단 돌려봐" 하는 실용적 태도로 말하는 장면.

한나 풀이: OpenAI가 천재라서 만든 게 아니라, "그냥 크게 만들어봤더니 되더라"를 먼저 발견한 사람들이라는 거야. 유튜브 알고리즘도 처음엔 아무도 몰랐는데 되는 걸 먼저 발견한 크리에이터가 터지는 것처럼. 선점이 곧 해자야.


"유저가 필요로 하는 어떠한 문제를 해결하는 어떤 임계점만 넘어가면 그거는 서비스로서의 밸류는 있는 거고, 그게 인간을 투입하는 인건비보다 싸지는 상황이 되면 얼마든지 adoption은 일어나는 거라서, 이제 겨우 시작이라는 생각은 들어요."

분위기: 1시간 가까이 복잡한 기술 얘기를 신나게 하다가 마무리에서 딱 현실로 랜딩하는 톤. "결국 사업 얘기야" 하는 느낌.

한나 풀이: 완벽한 AI가 아니어도 돼. 내 콘텐츠 기획·편집·DM 답변 중에서 하나라도 "사람 쓰는 것보다 이게 더 싸고 충분하다"는 임계점을 넘으면 그냥 쓰면 되는 거야. 완벽 기다리다가 늦어.


"Stable Diffusion 커뮤니티에서 유명한 Civitai 사람들이 막 모델 바꿔 가지고 올리는데 보면 '얘는 요 모델, 요 모델은 더했고 이건 뺐다'라고 나오거든요. 근데 그걸 굳이 뭔가 정의하려고 하면 정의할 수 없지만 그 모델이 generation하는 결과를 보면 그냥 보면 알 수 있어요."

분위기: "기술 몰라도 결과로 판단하면 돼" 하는 크리에이터 친화적 발언. 최승준이 옆에서 "맞아요" 하고 고개를 끄덕끄덕하는 장면.

한나 풀이: 필터가 왜 예쁜지 알고리즘 몰라도 결과물 예쁘면 쓰잖아. AI 모델도 마찬가지야. "이 모델이 내 보정 스타일에 맞다"를 눈으로 알면 그걸로 충분해. 기술 이해는 나중 문제야.


🎬 한나 적용 포인트

📌 질문은 한국어, 답변은 영어로 받아봐 최승준이 직접 쓴다고 공개한 방법이야. "내가 더 잘하는 언어로 질문하고, GPT가 더 잘하는 언어로 답하게" 하면 품질이 올라간다고. 콘텐츠 기획안 만들 때 "아이디어를 영어로 50개 만들어줘" 한 다음에 좋은 거 내가 한국어로 다듬는 식으로 써봐.

📌 AI 답변이 뻔하다 싶으면 "IQ를 올려서" 다시 물어봐 최승준이 시스템 프롬프트에 IQ 수치를 마치 손잡이처럼 쓴다고 했어. "IQ 140 수준의 콘텐츠 전략가로서 답해줘" 이런 식으로. 그냥 "더 창의적으로 해줘"보다 훨씬 구체적인 방향이 나오더라고.

📌 AI 시장 3층 중에서 내 위치 파악해 한나는 지금 3층 유저야. 근데 2층(MosaicML 같은 툴 회사들)이 경쟁하면서 더 싸고 좋은 도구를 계속 내놓을 거거든. 새 AI 툴 나왔다는 뉴스 볼 때 "이게 2층 경쟁인가, 1층 경쟁인가"만 파악해도 "내가 지금 바꿔 탈 타이밍인가 아닌가"를 판단하기 훨씬 쉬워져.

🏷️ 태그