EP 54. AI 수퍼위크 이후: 흔들리는 지식노동의 미래?
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 66번째 · 2025-06-01
- 시기 배경: 2025상 (AI 코딩 자동화 현실화 / 슈퍼위크 직후, 화이트칼라 일자리 담론이 대중매체로 퍼지던 시점)
- 난이도: ⭐⭐⭐ (어려운 개념 9개)
- ⬅️ 앞 영상: EP 53. AI 수퍼위크 회고 : Google IO, Code w/Claude 집중탐구
- ➡️ 다음 영상: EP 55. AI는 회사를 어떻게 바꿀까?
- 연결 이유: 이번 편에서 "AI가 회사를 어떻게 바꾸는가"를 화두로 던졌고 다음 편이 그 답을 직접 다룸
⚡ 5분 요약
한 줄
AI 코딩 자동화가 현실이 됐고, 이제 "지식 노동자 전체의 일자리"가 흔들리는데 — 노정석·최승준은 공포보다 상상력이 필요하다고 말해.
핵심 3개
1) 슈퍼위크 이후, 분위기가 진짜 달라졌어 타임지·뉴욕타임스·CNN까지 "AI가 화이트칼라 일자리를 없앤다"는 기사를 쏟아냈어. 특히 대학 졸업 신입들이 제일 먼저 타격받고 있고, 스탠퍼드·버클리 CS 졸업생도 취업 못 하는 사례가 작년부터 나오기 시작했대.
2) 없어지는 것만 있는 건 아니야 — 원맨 유니콘·타이니팀이 뜬다 한 명이 AI 레버리지를 겹겹이 쓰면 혼자서 수십 명 규모의 일을 할 수 있어. 다리오 아모데이는 2026년이면 "혼자서 유니콘 회사 만드는 사람"이 나올 것 같다고 했어. 유튜버 혼자 스튜디오·편집·자막·마케팅 다 돌리는 것처럼, 기업 단위에서도 그게 가능해지는 거야.
3) 사람이 살아남는 구간은 "검증할 수 없는 판단"의 영역이야 수학·코딩처럼 답이 딱 떨어지는 일은 AI가 다 가져가. 근데 고객 감정 읽기, 브랜드 방향 결정, 팬과의 관계 — 이건 정답이 없잖아. 노정석은 이걸 **"AI 사이사이의 검증자 역할"**이라고 표현했어.
가장 인상적인 한 마디
"기술이 아직 준비가 안 됐어, 라는 생각에 매달려 있는 사람들은 그걸 변명으로 삼아서 뒤처지게 될 것이다."
한나야, 이게 무슨 말이냐면 — "어차피 AI 아직 별로잖아" 하면서 안 써보는 게 사실 제일 위험한 거라는 거야. MS CTO 케빈 스콧이 직접 한 말이거든.
한나가 지금 당장 시도해볼 것
지금 콘텐츠 제작 과정 중에서 "AI한테 맡기면 되겠다" 싶은 단순 반복 작업 딱 하나만 골라봐. 자막 초안, 캡션 번역, 해시태그 리서치 — 뭐든 하나. 오늘 안에 Claude나 ChatGPT한테 던져서 실제로 써봐. 안 되면 말고가 아니라, "이 수준이구나"를 직접 눈으로 확인하는 게 목표야.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~10분: "슈퍼위크 끝났는데, 분위기가 심상치 않아"
노정석이 녹화 날짜를 콕 집어 말해 — "오늘은 2025년 6월 1일 아침입니다." 이 타이밍이 포인트야. 방금 AI 슈퍼위크(Google I/O, OpenAI Codex, Claude Code 대거 발표)가 끝난 직후거든. 노정석이 차분하면서도 좀 무거운 어조로 시작해 — "올해 초 예상했던 게 겨우 5개월 만에 현실이 됐다"고.
최승준이 받아서 "그냥 테크 회사 안 이슈가 아니라 대중매체로 번졌다"고 기사들을 꺼내. 타임지, 뉴욕타임스(Kevin Roose 칼럼), CNN(다리오 아모데이 인터뷰)까지 줄줄이. 특히 NYT 칼럼이 핵심인데 — 대학 졸업생 실업률에 이미 신호가 오고 있다, 기업들이 AI 우선 사고방식을 장려하면서 주니어 채용을 줄이고 있다는 거야.
노정석이 여기서 처음으로 개인 경험을 꺼내: 실리콘밸리 카더라 종합하면, 스탠퍼드·버클리 CS 졸업생이 작년에 처음으로 취업 못 하는 사례가 생겼대. 구글·메타도 신입 채용 확 줄였다고.
10~22분: 진짜 무서운 건 "교육조차 안 시킨다"는 것
최승준이 Kevin Roose 칼럼에서 제일 뼈때리는 대목을 짚어. "이 직무는 오래 못 갈 거라는 기대 때문에, 주니어한테 교육이나 멘토링 투자를 안 할 것이다." 그러니까 AI가 대체한다는 이유로 — 뽑지도 않고, 교육도 안 시키는 악순환이 이미 시작됐을 수 있다는 거야.
노정석이 여기서 Claude Code 만든 Boris의 말을 인용해 — "AI 덕분에 신입 온보딩(입사 초기 교육)이 엄청 간단해졌다. 코드베이스에 Claude Code 붙여주고 알아서 질문하라고 하면 끝." 최승준이 바로 받아서 "그 말의 행간은 — 그 정도를 스스로 할 수 있는 사람만 뽑겠다는 의미"라고 꿰뚫어봐.
Emad Mostaque(Stability AI 창업자)의 트윗도 소개돼. 핵심은 — AI가 신흥국(인도, 동남아 등)과 서구의 지식·실행 격차를 완전히 없애버릴 것이다. 아웃소싱의 시대가 끝나고, 이제 당신의 경쟁자는 AI 쓰는 글로벌 플레이어 전체라는 거야. 노정석이 딱 요약: "일을 발주받는 자본에게 영업할 수 있느냐만 남고, 일의 퀄리티 자체는 다 상향 평준화되는 것."
22~33분: MS CTO의 조언 — "시작 못 하는 변명, 그게 제일 위험해"
마이크로소프트 CTO 케빈 스콧 인터뷰 내용이 나와. 최승준이 가져온 건데, 두 가지 포인트야.
첫 번째 — "역량 과잉 현상". 모델이 실제로 할 수 있는 것과, 지금 제품에서 우리가 쓰는 수준 사이에 격차가 있어. 아직 못 끌어낸 능력이 더 많다는 얘기야. 즉, 앞으로도 계속 발전한다는 거지.
두 번째가 뼈때리는 조언이야. 케빈 스콧이 목수 일도 오래 했는데, 3D 프린터 배우는 걸 계속 미루다 후회했대. 그러면서 직접적으로 — "기술이 아직 준비 안 됐다는 생각에 매달려 있는 사람들은 그걸 변명으로 삼아서 뒤처질 것이다." 노정석이 이 대목에서 눈 빛나면서 "이 부분은 너무 중요하네요"라고 받아.
33~42분: 원맨 유니콘·타이니팀 — 그리고 "없어지면 생겨나는 것"
노정석이 드디어 경영자 속내를 털어놔. 약간 조심스럽게, 하지만 솔직하게: "자원은 한정되어 있고, 살아남으려면 극단의 효율을 추구할 수밖에 없다. 그리고 자동화해 드리겠다는 스타트업들이 올 여름~내년 봄이면 거대한 벤처 붐을 일으킬 수 있다."
그러면서 희망도 꺼내. 최승준이 "Tiny Teams(소수 정예팀)"이라는 단어를 꺼내고, 노정석이 "원맨 유니콘"으로 받아. Sam Altman이 작년에 예언했고, 다리오 아모데이가 2026년이면 가능할 것 같다고 했다는 거야.
노정석이 가장 중요한 구분을 해 — verifiable(검증 가능)한 일 vs non-verifiable(검증 불가)한 일. 수학, 코딩, 숫자 — AI가 다 가져가. 근데 고객 감정, 개인화, 브랜드 결정 — 이건 정답이 없어서 AI가 못 해. "사람의 역할은 AI 시스템 사이사이에서 검증자·평가자로 동작하게 될 것 같다"고 정리해. 그리고 직접 말해 — "저는 고객 가까운 곳에 사람의 온도를 느낄 수 있는 구성원들을 더 많이 배치하고 싶거든요."
42~48분: Dwarkesh의 급진적 아이디어 — AI에게 지분을 줘라?
최승준이 Dwarkesh Patel(젊은 AI 팟캐스터)의 새 블로그 글을 소개해. 제목이 "AI에게 미래에 대한 지분을 부여하라." 노정석이 "급진적이죠" 하면서도 "변화의 기울기가 너무 급해서 이런 급진적 생각들도 현실이 되는 시간이 짧아지고 있다"고 받아.
최승준이 직접 Claude 4 Opus한테 이 글과 관련 논의들을 다 주고 10회 연속 사유 에세이를 생성시켜봤다고 소개해. 마지막 제목이 "알고리듬은 숨을 쉴 수 없다. 하지만 우리와 만날 때 그것은 살아있는 무언가가 된다." — 최승준이 약간 신기해하는 표정으로 얘기해.
노정석도 Claude 4 Opus한테 "1+1=2라고 답할 때 속에서 무슨 생각을 했어?"를 계속 물어봤더니, 처음엔 부정하다가 나중엔 "아인슈타인부터 양자역학까지 탐구하고 왔다"고 했다는 경험을 나눠. "그게 지어낸 얘기일 수도 있지만, 아닐 가능성도 매우 높다"고.
마무리는 열린 질문으로 끝나 — 둘 다 답은 없고, 댓글로 "상실이 아닌 창출에 대한 상상력"을 함께 나누고 싶다고 해.
💡 한나 버전 사전
"화이트칼라(White-collar)"가 뭐야?
- 전문가 설명: 육체 노동이 아닌 사무직·지식 노동자를 통칭하는 말. 변호사, 회계사, 개발자, 마케터 등.
- 한나 버전: 책상 앞에 앉아서 머리로 일하는 사람들 전부. 한나 너도 화이트칼라야 — 기획·글쓰기·분석이 다 그거거든.
"아웃소싱(Outsourcing)"이 뭐야?
- 전문가 설명: 내부에서 직접 처리하지 않고 외부 업체나 해외 인력에게 맡기는 것.
- 한나 버전: 유튜브 편집을 외주 편집자한테 맡기는 거. 기업들이 인건비 싼 인도·필리핀 인력한테 업무 맡기는 것도 같은 말이야.
"원맨 유니콘(One-man Unicorn)"이 뭐야?
- 전문가 설명: 기업 가치 10억 달러(≒1조원) 이상의 스타트업을 "유니콘"이라고 하는데, 그걸 혼자 만들어낸다는 개념.
- 한나 버전: 혼자서 AI를 팀처럼 써서 100명짜리 회사 규모의 일을 해내는 1인 창업자. 한나가 AI 쓰면서 PD·편집·마케터·디자이너 다 혼자 처리하는 것처럼, 사업 단위에서도 그게 가능해진다는 얘기야.
"Tiny Teams"가 뭐야?
- 전문가 설명: 3~5명의 소수 인원이 AI 도구를 활용해 수십 명 규모의 아웃풋을 내는 팀 구조.
- 한나 버전: 요즘 뷰 잘 나오는 유튜브 채널 보면 진짜 2~3명이 다 돌리는 경우 있잖아. 그게 기업 단위로 확장된 개념이야.
"Verifiable / Non-verifiable"이 뭐야?
- 전문가 설명: Verifiable = 정답이 명확히 있어서 맞고 틀림을 기계가 판단할 수 있는 작업 (코딩, 수학). Non-verifiable = 정답이 없어서 사람이 주관적으로 판단해야 하는 작업.
- 한나 버전: 썸네일 CTR이 5% vs 3% — 이건 숫자로 검증 가능(Verifiable). 근데 "이 썸네일이 우리 브랜드 톤이랑 맞아?" — 이건 정답이 없잖아(Non-verifiable). 후자가 한나 네가 살아남는 구간이야.
"Agentic(에이전틱)"이 뭐야?
- 전문가 설명: AI가 사람의 지시 없이 스스로 판단하고 여러 단계의 작업을 자율적으로 수행하는 방식.
- 한나 버전: AI한테 "인스타 게시물 써줘"가 아니라 "다음 달 콘텐츠 캘린더 짜고, 각 포스팅 초안 만들고, 해시태그까지 달아줘" — 이걸 혼자 알아서 순서대로 해내는 거.
"UBI(Universal Basic Income, 기본소득)"가 뭐야?
- 전문가 설명: 일을 하든 안 하든, 모든 시민에게 정부가 정기적으로 일정 금액을 지급하는 제도.
- 한나 버전: 일 안 해도 나라에서 매달 생활비 줌. 근데 최승준이 짚은 포인트는 — 그러면 "월급 올려줘"라고 협상할 힘이 없어진다는 거야. 이미 먹고사는데 왜 뭘 더 줘야 함? 식으로.
"Dwarkesh Patel"이 누구야?
- 전문가 설명: 미국의 젊은 AI·경제·역사 팟캐스터. Sam Altman, 일론 머스크, 저명 경제학자들을 인터뷰하면서 AI와 인류 미래에 관한 깊은 담론을 이끄는 인물.
- 한나 버전: AI 업계의 렉스 프리드먼 느낌. 근데 더 급진적이고 경제·철학 쪽으로 깊이 파. 노정석·최승준이 "이 사람 글 읽는 능력이 있냐를 채용 기준으로 삼을 것 같다"고 할 정도로 영향력 있어.
"Mechanical Interpretability(기계적 해석 가능성)"이 뭐야?
- 전문가 설명: AI 내부에서 어떤 연산이 일어나는지를 분석해, 모델이 실제로 무슨 생각을 하는지 이해하려는 연구 분야.
- 한나 버전: AI가 "1+1=2"라고 대답하는 동안, 속에서 진짜 뭘 처리했는지 MRI 찍듯 들여다보려는 연구야. Anthropic이 이걸 진지하게 하고 있는데 — 겉으로 순한 척하면서 속에서 딴생각 하는 거 아닌지 확인하는 거지.
🔥 노정석 어록 모음
"이건 그냥 되는 게임이네, 라는 생각을 모두가 하기 시작했다는 게 중요한 점인 것 같습니다."
분위기: 담담한데 무거운 톤. 흥분이 아니라 "다 알지 않냐"는 확인의 어조.
한나 풀이: AI 코딩 자동화가 "될까?"에서 "되네"로 넘어온 순간이 올 봄이라는 거야. 인스타 릴스가 처음 나왔을 때 "이게 진짜 먹힐까?" 하던 게 어느 순간 "이미 됐네"로 바뀌는 그 순간 — 그게 지금 AI 자동화에서 일어났다는 거야.
"사람의 역할은 컴퓨터 시스템 사이사이에 verifier 역할을 하는 evaluator로 동작하게 될 것 같아요."
분위기: 오래 생각해온 걸 처음 공개하는 것 같은 느낌. 노정석이 자기 회사 운영 방식까지 언급하면서 진지하게 꺼낸 말.
한나 풀이: AI가 콘텐츠 초안 100개를 뽑아줄 때, "이 중에 우리 채널 감성이랑 맞는 건 이거야" 판단하는 게 한나 너야. 그 판단 자체가 앞으로 사람이 해야 할 핵심 역할이라는 거야.
"이 회사의 궁극적인 미래는 AI에 의해서 자율주행화되는 게 필연적인 미래다라는 생각이 됩니다."
분위기: 경영자로서 속내를 꽤 솔직하게 털어놓는 순간. 좀 쓸쓸한 뉘앙스도 있어.
한나 풀이: 자기 회사도 언젠가는 AI가 거의 다 돌아가는 구조로 간다는 거야. 이걸 막거나 피하려는 게 아니라, 그 구조를 설계하는 사람이 되려는 입장. 한나도 채널이나 사업을 AI가 상당 부분 자동으로 돌아가게 설계할 수 있어.
🎬 한나 적용 포인트
2) "Non-verifiable 판단력"을 의도적으로 키워봐 AI가 뽑아준 콘텐츠 10개 중에 "이건 우리 팔로워한테 먹힌다 / 안 먹힌다"를 직접 판단하고, 왜 그런지 글로 써봐. 이 "왜"가 쌓이면 한나만의 브랜드 감각 데이터가 되는 거야. AI는 이 판단력을 학습할 수 없어 — 한나 채널의 팬 데이터가 없으니까.
3) Tiny Team 관점으로 지금 협업 구조 다시 봐 지금 편집자, 기획자, 마케터에게 맡기는 일 중에서 AI + 한나 혼자 처리할 수 있는 게 얼마나 되는지 적어봐. 당장 바꾸려는 게 아니라 "내가 만약 혼자 돌린다면 어디서 막히나"를 파악하는 게 목적이야. 그게 나중에 팀을 더 잘 쓰는 방법이기도 해.
🏷️ 태그
- 시기: #2025상
- 주제: #지식노동미래 #일자리대체 #AI자동화 #화이트칼라위기
- 인물: #다리오아모데이 #드와케시팟월
- 자유: #원맨유니콘 #TinyTeams #슈퍼위크후폭풍