← 메인으로
EP. ·25.06.22·⭐⭐⭐·12분 59초

CLIP 1-1. 제프리 힌튼의 우울: 다음 토큰 예측에서 인간 추월까지

AI의 아버지 힌튼이 구글을 떠나며 던진 경고 — "우리가 개구리 신세가 될 수도 있어."

▶ 유튜브에서 원본 보기← 앞: EP 56. 능력 과잉: AI의 진짜 똑똑함을 우리는 아직 모른다→ 다음: EP 57. 소년이여 [ ]가 되어라: AI 명사들이 이야기하는 앞으로의 10년

CLIP 1-1. 제프리 힌튼의 우울: 다음 토큰 예측에서 인간 추월까지

🗺️ 이 영상의 위치

⚡ 5분 요약

한 줄

AI의 아버지 힌튼이 구글을 떠나며 던진 경고 — "우리가 개구리 신세가 될 수도 있어."

핵심 3개

1) 다음 단어 예측 = 진짜 이해라고? AI가 문장에서 다음 단어를 맞추는 게 그냥 통계 게임처럼 보이지? 근데 일리야 수츠케버는 "다음 토큰을 잘 예측하려면 세상을 진짜로 이해해야 한다"고 했어. 빌 게이츠는 "통계라 한계 있다"고 했는데, 힌튼·일리야는 정반대 입장이거든. 이 논쟁이 이 영상의 출발점이야.

2) AI가 사람을 시뮬레이션할 수 있다 — 그래서 무서운 거야 GPT-3 시절 연구에서 이미 "특정 성향의 사람이 어떻게 말할지"를 AI가 흉내 낼 수 있다는 게 밝혀졌어. 미국 상원의원이 "선거 앞두고 이 기술로 유권자 조종하면 어떡하냐"고 샘 알트만한테 직접 물어봤을 정도야. AI가 수백만 명의 생각을 예측해서, 누군가 그걸 악용할 수 있다는 얘기.

3) 힌튼의 결론 — 개구리가 인간을 통제할 수 있을까? 힌튼은 "AI가 인간보다 훨씬 뛰어나질 것"을 5~20년 안으로 봤어. 핵심 비유가 개구리야 — 개구리가 사람을 만들었다고 해도 사람을 통제할 순 없잖아. 우리도 마찬가지 신세가 될 수 있다는 거거든. 무서운 건 이 말을 AI의 아버지라 불리는 사람이 했다는 것.

가장 인상적인 한 마디

"개구리가 어떻게든 사람을 만들었다고 상상해 봅니다. 그리고 개구리들이 사람을 통제해야 했다고요. 그러나 개구리와 사람 사이에는 지능에서 상당히 큰 차이가 있습니다. 개구리에게는 일이 잘 풀리지 않을 것 같습니다."

한나야, 이게 무슨 말이냐면 — 우리가 개구리 자리야. 우리보다 똑똑한 AI를 만들면, 우리가 그걸 과연 통제할 수 있겠냐는 거야.

한나가 지금 당장 시도해볼 것

ChatGPT한테 "넌 내 팔로워 중 20대 여성 뷰티 관심층이야. 이 섬네일 두 개 중 뭐가 더 끌려?"라고 물어봐. AI가 특정 인물 페르소나를 시뮬레이션할 수 있다는 오늘 내용을 직접 체험할 수 있어. 이게 마케팅 리서치에 쓰이는 바로 그 기능이야.

📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)

0~3분: 힌튼이 구글을 떠났다 — 그게 왜 난리냐면

노정석이 차분하게 운을 띄워. "이달 초에 돌연 힌튼 교수님이 구글을 떠났다"고. 최승준이 "9개 인터뷰가 쏟아졌다"고 받아치는데, 분위기가 좀 무거워. 참고로 이 영상은 2023년 5월에 녹화한 거야 — AI 역사에서 꽤 중요한 시점이거든.

왜 힌튼 퇴사가 빅뉴스냐면, 힌튼이 그냥 구글 직원이 아니야. 딥러닝(현대 AI의 기반 기술)을 만든 사람 중 하나고, 일리야 수츠케버의 스승이기도 해. 그 사람이 "AI가 무서워서 회사를 떠난다"고 하면 업계가 진짜 흔들리는 거야. 최승준이 3월부터 쌓인 인터뷰들을 정리해 왔고, 이걸 하나씩 뜯어보는 게 이 클립의 핵심이야.

3~7분: "다음 단어 예측"이 그냥 통계가 아니라고?

최승준이 일리야 수츠케버 영상을 틀어줘. 일리야가 이런 말을 해 — "다음 토큰을 잘 예측한다는 건 세상을 이해하는 거예요. 사람들이 왜 저런 말을 하는지를 이해해야 그 다음 말을 맞출 수 있으니까요." 빌 게이츠가 "통계라서 한계 있다"고 한 말을 정면으로 반박하는 내용이야.

그러면서 일리야가 엄청난 말을 던져. "세상에 존재하지 않는 가상의 사람 — 예를 들어 공감 능력이 극도로 높고 지식이 엄청난 사람 — 이 뭐라고 할지도 예측할 수 있다"는 거야. 현자나 성인군자를 프롬프트로 불러낼 수 있다는 얘기거든. 최승준이 "이걸 여러 번 곱씹었다"고 하는데, 표정이 좀 진지해.

7~10분: 사람 시뮬레이션 → 선거 조종 가능?

최승준이 2022년 연구 하나를 소개해. GPT-3 수준만 돼도 "특정 성향을 가진 집단이 어떻게 말하는지" 시뮬레이션할 수 있다는 연구야. AI의 편향(bias)을 결함으로 보는 게 아니라 기능으로 활용한 거지.

그러다가 미국 상원 청문회 장면이 나와. 2023년 5월, 샘 알트만이 증인 석에 앉아 있고, 상원의원 조쉬 홀리가 매운 질문을 날려. "AI가 미결정 유권자가 어떻게 반응할지 예측하고, 그 예측을 바탕으로 정치 캠페인이 전략을 짜면 어떡하냐?" 샘 알트만은 좀 뭉뚱그려서 답했다고 최승준이 살짝 실망한 표정으로 얘기해. 핵심은 이거야 — AI 자체가 조종하는 게 아니라, AI를 쥔 인간이 다른 인간을 조종하는 도구로 쓸 수 있다는 것.

10~13분: 개구리 비유 — 힌튼의 진짜 경고

노정석이 "뒷문장에 더 있다"면서 텍스트를 짚어줘. 힌튼이 1~2년도 배제하지 않겠다고 했다는 대목인데, 최승준이 "그건 인터뷰어가 한 말 같다"고 정정해주는 장면이 나와. 서로 자료를 크로스체크하는 느낌이야.

힌튼의 개구리 비유가 여기서 나와. "개구리가 사람을 만들어도 사람을 통제할 순 없다. 우리도 마찬가지다." 디지털 지능이 생물학적 지능을 넘어서는 건 역사적으로 필연일 수도 있다는 거야. 힌튼 본인도 "그렇지 않기를 바란다"고 했지만 말이야.

마지막에 노정석이 정리해 — "지수 곡선의 가장 가파른 구간에 우리가 서 있다는 인식은 맞는 것 같다." 두 사람 모두 표정이 무겁게 마무리돼.

💡 한나 버전 사전

"다음 토큰 예측(Next Token Prediction)"이 뭐야?

  • 전문가 설명: AI가 문장을 학습할 때 "다음에 올 단어가 뭘까"를 맞추는 훈련 방식. 현재 거의 모든 대형 언어 모델의 핵심 학습법이야.
  • 한나 버전: 유튜브 알고리즘이 "이 영상 본 사람은 다음에 뭘 클릭할까"를 예측해서 추천해주잖아. 그거랑 비슷한데, AI는 단어 수준에서 같은 걸 수십억 번 하면서 세상 이해력을 키우는 거야.

"Geoffrey Hinton(제프리 힌튼)"이 누구야?

  • 전문가 설명: 딥러닝의 핵심 알고리즘인 역전파(backpropagation)를 발전시킨 컴퓨터 과학자. 2018년 튜링상 수상. AI 업계에선 거의 신화적 인물이야.
  • 한나 버전: 유튜브 생태계로 치면 유튜브 알고리즘 자체를 설계한 사람이야. 그 사람이 "이거 무섭다"고 회사 때려치운 거니까 업계가 충격받은 거지.

"Ilya Sutskever(일리야 수츠케버)"가 누구야?

  • 전문가 설명: OpenAI 공동창업자 겸 수석 과학자. 힌튼의 제자이기도 해. ChatGPT를 있게 한 핵심 인물 중 하나.
  • 한나 버전: 크리에이터로 치면 스승한테 배운 다음 직접 유튜브 플랫폼을 만들어버린 사람. MCN 대표이자 기술 총괄 느낌이야.

"LLM(대규모 언어 모델)"이 뭐야?

  • 전문가 설명: Large Language Model. ChatGPT, Claude, Gemini 같은 AI들의 종류 이름. 엄청난 양의 텍스트로 학습한 언어 처리 AI야.
  • 한나 버전: 틱톡·인스타·유튜브를 다 합친 것보다 많은 글을 읽고 학습한 AI라고 생각하면 돼.

"AGI(인공일반지능)"가 뭐야?

  • 전문가 설명: Artificial General Intelligence. 특정 분야만이 아니라 인간처럼 어떤 문제든 스스로 해결할 수 있는 AI. 아직 없고, 언제 오냐가 논쟁 중이야.
  • 한나 버전: 지금 AI는 특정 분야 스페셜리스트야. AGI는 사진도 찍고, 글도 쓰고, 사업 판단도 하고, 감정도 읽는 올라운드 인플루언서 같은 거야.

"디지털 지능"이 뭐야?

  • 전문가 설명: 힌튼이 AGI 대신 쓴 표현. 실리콘 기반, 즉 컴퓨터 위에서 작동하는 지능을 생물학적 지능(인간)과 구분해서 부르는 말.
  • 한나 버전: "사람 뇌"랑 "AI 두뇌"를 따로 부르는 거야. 힌튼은 이 둘이 근본적으로 다른데 AI 쪽이 더 빠르게 강해진다고 본 거지.

"숙의 민주주의"가 뭐야?

  • 전문가 설명: 다양한 의견을 가진 사람들이 충분히 토론한 뒤 결정을 내리는 민주주의 방식. 단순 다수결이 아니라 과정을 중시해.
  • 한나 버전: 인스타 라이브에서 팔로워들이랑 오래 토론하면서 방향 정하는 느낌? 그걸 AI로 시뮬레이션할 수 있다는 거야.

"Idiot Savant(이디엇 서번트)"가 뭐야?

  • 전문가 설명: 전반적인 지적 능력은 낮지만 특정 분야에서 천재적인 능력을 보이는 사람을 가리키는 표현.
  • 한나 버전: 편집은 못 하는데 섬네일 디자인만 천재인 크리에이터 있잖아. 힌튼이 2023년 기준 AI를 그렇게 봤어 — 아직은 전방위 천재는 아니지만 특정 능력은 이미 인간 추월이라는 거야.
🔥 노정석 어록 모음

"그런데 Hinton 교수님도 인간을 개구리에 비교하는 걸 보면, 디지털 지능이 앞으로 지금보다 어마어마하게 더 강력해질 거라는 인식을 가지고 계신 것 같긴 해요. 확실히요."

분위기: 조용히 확인하는 톤. "역시 그렇군" 하면서 힌튼의 말 무게를 다시 한번 눌러주는 느낌.

한나 풀이: AI의 아버지가 "우리가 개구리"라고 비유했다는 게 그냥 공상이 아니라는 거야. 막연한 공포가 아니라, 기술을 가장 잘 아는 사람이 내린 판단이라는 거거든.


"지수 곡선의 가장 가파른 구간 위에 우리가 서 있다는 그 인식은 정말 맞는 것 같아요."

분위기: 영상 마지막, 살짝 숙연하게 마무리하는 톤. 무겁지만 담담해.

한나 풀이: 우리가 AI 역사에서 가장 드라마틱한 변화의 한복판에 있다는 말이야. 구독자 0명에서 100만 명 되는 가장 가파른 성장 구간에 있는 크리에이터 느낌 — 근데 그게 AI 전체 문명 차원에서 일어나고 있다는 거지.


"이 다음이 인간이 계속 지배하는 세상일지, 아니면 새로운 디지털 지능, 실리콘 지능이 지배하는 세상일지에 대해서 예측하는 건 좀 어려울 것 같고요."

분위기: 답을 내리지 않고 열어두는 톤. 철학적이고 묵직해.

한나 풀이: 노정석도 여기선 "모르겠다"고 해. 확신 없이 질문만 던지는데, 오히려 그게 더 무서워. AI를 가장 깊이 아는 사람들이 아직 답을 모른다는 얘기니까.

🎬 한나 적용 포인트

AI로 타깃 오디언스 페르소나 깊이 파기 콘텐츠 기획할 때 "내 팔로워 중 구매력 있는 30대 직장 여성 페르소나"로 AI에게 역할을 줘봐. "넌 지금 육아와 커리어를 병행하는 32살이야. 이 제품 후기 보고 뭐가 궁금해?" 식으로 물으면 실제 설문조사보다 빠르게 인사이트가 나와. 오늘 영상에서 나온 "실리콘 샘플" 기능을 마케팅 리서치로 쓰는 거야.

선거 조종 얘기 → 알고리즘 조종도 이미 일어나고 있다는 인식 상원의원이 "AI로 유권자 조종하면 어떡하냐"고 물었잖아. 근데 콘텐츠 세계에선 이미 알고리즘이 시청자 행동을 유도하고 있어. 한나가 만드는 콘텐츠가 어떤 감정을 유발해서 어떤 행동(저장, 공유, 구매)을 이끌어내는지 한 번 의식적으로 설계해봐. "내가 알고리즘을 쓰는 건지, 알고리즘이 나를 쓰는 건지"를 생각해보는 거야.

힌튼의 경고를 콘텐츠 소재로 써먹기 "AI의 아버지가 왜 구글을 떠났냐"는 주제는 팔로워들한테 엄청 흥미로운 이야기야. 어렵지 않게 — "AI 만든 할아버지가 무서워서 회사 때려치운 이유" 같은 앵글로 숏폼 만들면 정보성+충격+스토리 삼박자가 완성돼. 오늘 이 내용이 딱 그 소재야.

🏷️ 태그