← 메인으로
EP. 1·23.05.20·⭐⭐⭐·1시간 5분 50초

제프리 힌튼의 우울

AI의 대부 힌튼이 "이거 우리가 통제 못 할 수도 있다"고 구글 때려치우고 경고 날린 사건, 그 의미를 노정석·최승준이 처음으로 함께 풀어낸 화.

▶ 유튜브에서 원본 보기→ 다음: EP.2 래블업 신정규 대표의 "Scale Entanglement"

EP.1 제프리 힌튼의 우울

🗺️ 이 영상의 위치

⚡ 5분 요약

한 줄

AI의 대부 힌튼이 "이거 우리가 통제 못 할 수도 있다"고 구글 때려치우고 경고 날린 사건, 그 의미를 노정석·최승준이 처음으로 함께 풀어낸 화.

핵심 3개

1) 힌튼이 왜 구글을 나갔냐 AI를 평생 만들어온 사람이 "생각보다 너무 빨리, 너무 뛰어나게 됐다"며 스스로 경고하러 나선 거야. 3050년 걸릴 줄 알았던 게 520년 안에 온다고 인터뷰마다 반복해서 말하고 있어. "이거 내가 만들었는데 무서워" 레벨.

2) AI가 사람을 조종할 수 있다는 게 왜 무서운가 AI는 이미 특정 성향의 사람들이 어떻게 반응할지 시뮬레이션할 수 있어. 유튜브 알고리즘이 네 취향을 예측하는 게 아니라, 선거 전에 "이 유권자들한테 어떤 메시지를 어떻게 쏴야 마음이 바뀌나"를 AI가 미리 계산해준다는 뜻이야. 도구가 무기가 되는 순간.

3) "자율주행 브랜드"라는 노정석의 비전 노정석은 자기 뷰티 브랜드 회사를 AI로 돌리는 실험을 지금 당장 하고 있어. 고객 반응 살피고, 콘텐츠 만들고, 응대하는 전 과정을 AI가 반자동으로 굴리는 구조. 한나한테 그대로 적용되는 얘기야.

가장 인상적인 한 마디

"이 industry에 있는 사람들이 거의 대부분 약간 경증의 우울증 환자가 다 되어 있거든요."

한나야, 이게 무슨 말이냐면 — AI 판에서 가장 앞서 달리는 사람들도 "이게 어디로 가는 건지 모르겠어서" 매일 불안한 거야. 앞서 간다고 여유 있는 게 아니라, 오히려 더 무서운 걸 먼저 본다는 뜻.

한나가 지금 당장 시도해볼 것

노정석이 말한 "자율주행 브랜드" 개념을 한나 계정에 딱 하나만 적용해봐. 팔로워 DM 답변을 ChatGPT한테 페르소나 설명하고 초안 맡겨봐. 완벽하지 않아도 돼 — 지금 방향성 잡는 게 핵심이거든.

📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)

0~15분: 힌튼이 구글을 떠난 날, 세상이 멈칫했다

노정석이 약간 흥분한 어조로 운을 떼. "저희 녹화하는 오늘이 5월 21일인데, 이달 초에 힌튼 교수님이 구글을 돌연 떠나면서 엄청난 기사들이 났어요." 최승준은 그 전부터 힌튼 인터뷰를 싹 다 모아봤다고. 3월부터 5월까지 아홉 개. 준비성이 장난 아닌 사람이야.

최승준이 화면 공유를 열면서 3월 1일 인터뷰 내용부터 짚기 시작해. 여기서 핵심 질문이 나와. "다음 단어를 정확하게 예측하려면 그 문장을 얼마나 이해해야 할까?" — 이게 사실 AI가 '진짜로 이해하는가, 아니면 그냥 패턴 맞추기인가' 논쟁의 출발점이야. 샘 올트먼은 "추론 가능하다", 빌 게이츠는 "통계적이라 추론 못 한다", 일리야 수츠케버는 "다음 토큰 잘 예측한다는 건 이해한다는 것"이라고 각자 다른 말을 해. 최승준은 이 일리야의 말을 "여러 번 곱씹었다"고 해 — 이 사람 진짜 깊이 파고드는 타입이야.

그러면서 재밌는 여담도 나와. 논문을 구글로 30분 찾아도 못 찾던 걸 ChatGPT 플러그인으로 한 번에 찾았다고. 노정석이 "Auto-GPT가 그냥 다 들어가 있네요"라고 맞장구쳐. 이미 2023년 5월에 이 두 사람은 AI를 실무에 적극적으로 쓰고 있었던 거야.


15~30분: AI가 선거를 바꿀 수 있다는 의원의 경고

최승준이 미국 상원 청문회 영상을 틀어. 2023년 5월 16일, 샘 올트먼이 증인으로 불려간 자리. 여기서 조시 호울리 의원이 날카로운 질문을 날려. "AI는 이미 여론을 예측할 수 있잖아요. 그럼 선거 전에 어떤 메시지를 어떤 유권자에게 쏘면 행동이 바뀌는지도 AI가 계산해줄 수 있지 않나요?"

이게 딱 인플루언서 세계로 치면 — 알고리즘이 어떤 콘텐츠가 어떤 사람에게 먹히는지 이미 알잖아. 그런데 이제 AI가 그걸 정치적으로 쓰면? 특정 성향의 유권자 수백만 명을 시뮬레이션해서, 그들이 어떤 메시지에 마음이 흔들리는지 미리 뽑아내는 거야.

동시에 OpenAI의 정렬 팀 리드인 얀 라이케는 반대 방향으로도 쓸 수 있다고 했어. 다양한 성향의 사람들이 토론하는 걸 AI로 시뮬레이션해서 민주주의 의사결정에 도움을 줄 수 있다고. 같은 칼인데 쓰는 방향이 다른 거지.


30~45분: 힌튼의 개구리 비유 — "우리가 개구리 꼴 난다"

최승준이 힌튼의 말을 직접 인용하는 구간. 여기서 좀 으스스해져. 힌튼이 말해. "개구리가 어떻게든 사람을 만들었다고 상상해봐요. 개구리가 사람을 통제해야 했다면 — 그게 될까요?" 결국 우리보다 더 똑똑한 걸 만들면, 우리가 그걸 통제할 수 없을 수 있다는 거야.

노정석이 여기서 "Hinton 교수님 이렇게 얘기하시니까 무서워요"라고 솔직하게 반응해. 그러면서 힌튼이 원래 backpropagation(딥러닝 핵심 알고리즘)을 만든 사람인데, 그걸 넘어서는 걸 연구하다가 결국 "아 backprop이 짱인 것 같아"로 생각을 바꿨다는 게 더 무섭다고. 기술을 가장 잘 아는 사람이 "이거 내가 예상한 것보다 훨씬 강하다"고 인정한 거니까.

Ted Chiang의 "AI가 새로운 McKinsey가 될까?" 글도 나와. AI를 쓰는 경영진이 나쁜 결정을 내릴 때 "AI가 그렇게 하라고 했어요"라고 뒤에 숨는 시대가 온다는 거야. 책임을 위임하는 도구로 AI가 쓰인다는 뜻.


45~55분: 자율주행 브랜드 — 노정석의 고백

여기서 노정석이 갑자기 개인 이야기를 꺼내. 뜬금없이 뷰티 브랜드 회사를 하고 있다고. 그리고 그 회사 비전을 "자율주행 브랜드"로 잡았다고 해.

설명을 들으면 딱 이해가 돼. 브랜드란 게 결국 고객이랑 텍스트, 이미지, 영상으로 계속 커뮤니케이션하면서 반응 살피는 과정이잖아. 이걸 AI가 반자동으로 돌리면? 사람이 바라보기만 해도 굴러가는 구조. 테슬라가 차들에서 데이터 받아서 자동으로 학습하고 자동으로 업데이트되는 것처럼. 노정석은 그걸 회사에 적용하고 있어.

LangChain도 쓰고 직접 코딩도 한다고 해. 그러면서 "LangChain이 너무 over-engineered 되어가고 있다"고 살짝 불만도 털어놔. 최승준이 웃으면서 "동시대 도구를 적극적으로 활용하시는군요"라고 받아쳐.


55~끝: 오펜하이머와 힌튼, 그리고 우울증

최승준이 마무리하면서 의미심장한 에피소드를 꺼내. 힌튼 청중 질문 시간에 누군가가 "트루먼 대통령이 오펜하이머한테 한 말 기억하세요?"라고 물었대. 힌튼은 모른다고 했고, 그 사람은 아무 설명 없이 "감사합니다"하고 끝냈어.

최승준이 나중에 찾아봤더니 — 트루먼은 핵폭탄 개발 후 죄책감에 괴로워하는 오펜하이머를 "울보 과학자, 징징거린다"고 무시하고 실각시켰대. 그 질문은 힌튼한테 "당신도 목소리 낮추라"는 경고였을 수도 있다는 거야. 근데 힌튼은 그 후에 오히려 일론 머스크, 버니 샌더스까지 만나러 다니면서 더 목소리를 높여.

두 사람이 마무리하면서 꺼내는 말이 인상적이야. 노정석이 "와인 마시고 픽 쓰러져 잔 날이 수두룩하다"고 솔직하게 털어놔. 최승준도 "정신 건강에 좋지 않다, AI는"이라고 웃으면서 인정해. 그러면서 팟캐스트 이름도 못 정한 채로 "일단 노정석 최승준의 AI 팟캐스트로 가자"고 해. 시리즈의 출발은 이렇게 투박하게 시작됐어.


💡 한나 버전 사전

"백프로파게이션(Backpropagation)"이 뭐야?

  • 전문가 설명: 딥러닝 모델이 틀렸을 때 어디서 얼마나 틀렸는지 역방향으로 추적해서 스스로 수정하는 알고리즘. 딥러닝의 핵심 엔진.
  • 한나 버전: 유튜브 영상 올렸는데 조회수가 낮아. 왜 낮은지 뒤로 쭉 따라가서 — 썸네일? 제목? 초반 2초? — 어디가 문제인지 찾아서 수정하는 거야. AI가 자기 자신한테 그걸 자동으로 하는 거.

"LLM (Large Language Model)"이 뭐야?

  • 전문가 설명: 방대한 텍스트 데이터로 학습한 대규모 언어 모델. ChatGPT, GPT-4가 여기 속해.
  • 한나 버전: 인터넷에 있는 글을 다 읽어서 말을 엄청 잘하게 된 AI. "언어의 신" 같은 존재. 코딩, 글쓰기, 분석 다 해.

"AGI (Artificial General Intelligence)"이 뭐야?

  • 전문가 설명: 특정 분야가 아니라 인간처럼 모든 영역에서 스스로 생각하고 행동할 수 있는 범용 인공지능.
  • 한나 버전: 지금 AI는 특기생이야 — 글은 잘 쓰는데 현실 세상은 몰라. AGI는 모든 과목 다 잘하는 인간급 AI. 힌튼은 이 단어 대신 "디지털 지능"이라고 불렀어.

"Context Window"이 뭐야?

  • 전문가 설명: AI가 한 번에 기억하고 처리할 수 있는 텍스트의 최대 분량. 토큰(단어 단위)으로 측정.
  • 한나 버전: 카카오톡 대화창이라고 생각해. 대화가 너무 길면 앞 내용을 까먹는 거야. 100k라는 건 대화창이 위대한 개츠비 한 권 분량만큼 크다는 뜻.

"Auto-GPT / BabyAGI"가 뭐야?

  • 전문가 설명: AI가 목표를 받으면 스스로 하위 작업을 나누고, 도구를 써가며, 루프를 돌면서 자율적으로 수행하는 에이전트 시스템.
  • 한나 버전: 스태프한테 "이번 달 인스타 콘텐츠 기획해"라고 던지면 알아서 리서치하고, 기획서 만들고, 수정하고, 완성본 가져오는 것처럼 AI가 혼자 그 루프를 도는 거야.

"Alignment (정렬 문제)"이 뭐야?

  • 전문가 설명: AI의 목표와 행동이 인간의 의도 및 가치와 일치하도록 만드는 문제. AI가 원하는 결과를 얻으려다 인간에게 해로운 방법을 쓸 수 있음.
  • 한나 버전: 유튜브 알고리즘한테 "조회수 올려줘"라고 하면 알고리즘은 자극적인 썸네일, 낚시성 제목을 권장하잖아. 조회수라는 목표는 달성하는데 내 브랜드 이미지가 망가지는 것처럼 — AI의 목표와 내가 진짜 원하는 것 사이의 간극이 alignment 문제야.

"RLHF"가 뭐야?

  • 전문가 설명: Reinforcement Learning from Human Feedback. 인간이 AI 답변을 평가해주면 그걸 바탕으로 AI가 더 좋은 답을 내도록 강화학습하는 방법.
  • 한나 버전: 콘텐츠 올릴 때마다 댓글·좋아요·공유 반응 보고 다음 콘텐츠 방향 잡는 거랑 같아. AI도 사람 반응 보면서 "이렇게 말하면 좋아하는구나" 학습하는 거야.

"Hallucination(환각)"이 뭐야?

  • 전문가 설명: AI가 사실이 아닌 내용을 자신 있게 말하는 현상.
  • 한나 버전: AI가 없는 브랜드 협업 이력이나 없는 수치를 진짜처럼 써주는 거. 당당하게 틀리는 게 더 무서운 포인트야.

"Distillation(증류)"이 뭐야?

  • 전문가 설명: 큰 AI 모델이 만들어낸 데이터를 활용해서 작은 모델의 성능을 높이는 기법.
  • 한나 버전: 대형 크리에이터가 만든 콘텐츠 공식을 작은 크리에이터가 배워서 성장하는 것처럼, 큰 AI한테서 "핵심만 배운" 작은 AI를 만드는 거.

"Vector Database(벡터 데이터베이스)"가 뭐야?

  • 전문가 설명: 텍스트나 이미지를 숫자 벡터로 변환해서 저장하고, 의미 기반으로 검색할 수 있게 해주는 데이터베이스.
  • 한나 버전: 내 3년치 콘텐츠를 AI가 다 읽어서 "이 분위기랑 비슷한 거 찾아줘"라고 하면 딱 찾아주는 기억 창고. AI한테 외부 장기기억을 달아주는 거야.
🔥 노정석 어록 모음

"그냥 배경의 속도로 같이 뛰어야 뭔가 되지 않을까라는 생각으로 하지, 그 방향성이 옳은 건지 그른 건지에 대해서 사실 가치 판단을 할 시간조차 없어요."

분위기: 약간 지쳐있지만 체념하지 않는 — "이래도 달려야지 어쩌겠어" 하는 현실주의자 톤

한나 풀이: '붉은 여왕의 나라' 비유야. 이상한 나라의 앨리스에서 제자리를 유지하려면 계속 뛰어야 하는 나라. AI 시대에 "지금 맞나요?" 고민할 시간에 일단 써봐야 뒤처지지 않는다는 뜻이야.


"와인 마시고 그냥 픽 쓰러져 잔 날이 수두룩한 것 같아요. 진짜로요."

분위기: 웃으면서 하는 말인데 진짜인 게 눈에 보이는 — 시리즈 1화에서 나온 날 것의 고백

한나 풀이: AI가 빠르게 바뀌는 걸 보면서 "나는 뭘 하고 있나" 무력감 오는 거 누구나 다 겪는다는 거야. 앞서 달리는 사람들도 똑같이 흔들린다는 거, 위로가 되지 않아?


"프롬프트를 내가 아무리 정교하게 짜도 프롬프트는 유출된다라는 걸 기본 전제로 삼아야 되기 때문에 또다시 좀 머리는 좀 복잡해져요."

분위기: 사업가로서 실용적인 걱정을 꺼내는 — 이론이 아니라 내일 당장 해결해야 하는 문제로 인식하는 톤

한나 풀이: AI 서비스 만들면 내 레시피(프롬프트)가 다 털린다고 봐야 해. 그러니까 프롬프트 자체를 비밀로 지키는 전략보다, 털려도 따라할 수 없는 실행력·데이터·관계가 진짜 해자야.

🎬 한나 적용 포인트

1) AI로 팔로워 시뮬레이션해보기 콘텐츠 올리기 전에 ChatGPT한테 "20대 중반 뷰티 관심 여성, 인스타 주로 보는 사람"이라고 페르소나 설명하고 이 콘텐츠 반응 어떨 것 같아?" 물어봐. 실제 올리기 전에 반응 시뮬레이션 — 힌튼이 경고한 그 기능을 역으로 내 편으로 써먹는 거야.

2) 협업 제안서·DM을 AI로 A/B 테스트하기 브랜드 협업 제안 메일을 두 버전으로 써달라고 해. 하나는 데이터 강조, 하나는 감성 스토리 강조. 어느 쪽이 내 타겟 브랜드 담당자한테 먹힐지 GPT한테 "이 브랜드 마케터 입장이 돼서 평가해줘"라고 물어봐. 보내기 전에 필터 하나 생긴 거야.

3) "유통기한 짧은 콘텐츠" 인식 갖기 노정석이 "오늘 녹화한 게 내일이면 철 지난 얘기가 될 수 있다"고 했어. AI 관련 트렌드를 다루는 콘텐츠라면 빠르게 올리는 게 우선이야. 완성도보다 속도. 알고리즘도 새 정보에 반응하는 타이밍이 있거든.

🏷️ 태그