EP 68. 궁극의 인공지능 상상하기: 인간 격차를 얇게 만드는
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 87번째 · 2025-09-14
- 시기 배경: 2025하 (AGI 담론 폭발기 / GPT-5 출시 직후, AI가 노동·격차·인간성 문제와 충돌하는 시점)
- 난이도: ⭐⭐⭐⭐ (어려운 개념 10개)
- ⬅️ 앞 영상: EP 67.5 여러가지 실험들(나노 바나나, 이미지 생성 메타 프롬프트 등등)
- ➡️ 다음 영상: EP 69. 지금, AI 최전선의 방향—프런티어의 바깥에서 프런티어를 이야기하기
- 연결 이유: 이번 편이 "상상"으로 끝났다면, 다음 편은 그 상상을 현실 최전선과 대조하는 구조
⚡ 5분 요약
한 줄
AI가 진짜 궁극의 지렛대라면, 잘하는 사람과 못하는 사람의 차이가 거의 사라지는 세상이 가능할까 — 최승준의 급진적 사고 실험.
핵심 3개
1) 모두에게 "알파고 모먼트"가 필요하다 알파고가 이세돌을 이겼을 때 바둑계 전체의 인식이 바뀌었잖아. 최승준은 그 충격이 "내 분야에서도 AI가 나를 넘었다"는 순간으로 모든 사람에게 와야 한다고 봐. 그 경험 없이는 다음 풍경을 상상하지 못한다고.
2) AI가 진짜 레버리지라면 쓰는 사람 차이가 미미해야 한다 아르키메데스가 "충분히 긴 지렛대면 지구도 든다"고 했잖아. AI가 그 지렛대라면, 재능·태도·집안 배경의 차이가 위쪽에서 얇아져야 논리가 맞다는 거야. 지금은 AI를 잘 쓰는 사람이 더 앞서 나가는 구조라 마태 효과(이미 가진 자가 더 가져가는 것)가 오히려 심해지고 있는 게 문제.
3) 복리의 눈덩이를 교란해야 진짜 평등이 온다 선점한 사람이 계속 굴러가는 복리 구조, 이게 깨지려면 AI가 혁신의 재현 속도를 극단적으로 빠르게 만들어야 해. 누군가 먼저 만들었어도 AI가 금방 똑같이 만들어주면, 선점 이익이 줄어들고 격차가 줄어든다는 상상이야.
가장 인상적인 한 마디
"정말 두려워해야 할 것은 AI가 인간을 대체하는 것이 아니라, 인간이 스스로를 AI처럼 만들어 가서 효율성·최적화·예측 가능성을 추구하다가 인간 고유의 비효율성·모순·예측 불가능성을 잃어버리는 것, 그것이 진정한 디스토피아일 것이다"
한나야, 이게 무슨 말이냐면 — AI한테 일자리 뺏기는 게 무서운 게 아니라, 내가 AI처럼 계산적이고 효율적인 사람이 돼버리는 게 진짜 무섭다는 거야.
한나가 지금 당장 시도해볼 것
오늘 AI로 콘텐츠 하나 만들 때, "이게 내 창작이야?" 대신 "이 결과물이 경이롭지 않나?" 라고 한 번만 멈춰봐. 최승준이 말한 "천 번째 생성도 첫 번째처럼 감탄하기" — 무감각해지지 않는 연습이야. 딱 그 감각 하나만 챙겨봐.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~15분: 왜 이 상상을 시작했나 — AGI 역사 탐색
최승준이 조심스럽게 운을 떼. "다소 급진적이며 순진한 상상이라고 써놨어요, 방어를 위해서." 웃음기를 살짝 머금은 채로. 시작은 2년 전으로 거슬러 올라가. ChatGPT를 "웹의 흐릿한 JPEG 압축"이라고 표현한 테드 창의 글에서 Marcus Hutter라는 사람을 발견했고, 그 사람이 딥마인드 공동창립자 Shane Legg의 스승이라는 걸 알게 됐어. 이 사람들이 2010년대 초부터 "AI와 지능의 관계"를 수식으로 정리하려 했다는 거야.
핵심 포인트는 에피쿠로스의 다중 설명 원리. 쉽게 말하면, "쿠키가 없어졌을 때 딸이 먹었다는 가설이 가장 그럴듯하지만, 키 작은 도둑이 들어왔다는 가설도 완전히 무시하면 안 된다"는 거야. AGI가 어떻게 될지 우리는 선행 지식이 거의 없으니까, 가능성 넓게 열어두고 봐야 한다는 얘기지.
15~30분: 세상에 나온 AGI 전망들 — 그런데 왜 안 와닿나
최승준이 슬라이드를 쭉 넘기면서 유명한 전망들을 소개해. Sam Altman의 "AGI 시점 전 마지막 포스팅"이라 더 화제가 됐던 '부드러운 특이점', Dario Amodei의 '자애로운 기계들', 그리고 Leopold Aschenbrenner의 'Situational Awareness'. 노정석이 "굉장히 화제가 됐던 글이었죠" 하고 맞장구.
그리고 GPT-5 전후로 핫했던 "시간 지평선 그래프"가 나와. AI가 인간 전문가의 작업을 50% 확률로 해내는 시간이 얼마냐 — 처음엔 4초짜리였는데 지금은 2시간 40분짜리 일도 한다고. 노정석이 "이거 log scale이죠" 하고 짚자 최승준이 linear 그래프로 바꿔서 보여줘. 보면 진짜 무섭게 올라가고 있거든. "상전이 직전의 패턴과 비슷하다"는 말도 나오는데, 노정석이 "물이 갑자기 기체로 바뀌는 것처럼 완전히 다른 상태로 가는 냄새"라고 설명해줘.
30~45분: 급진적 상상 3개 — 격차를 얇게 만들 수 있을까
최승준이 본론으로 들어가. "AI가 궁극의 레버리지라면, 그걸 쓰는 인간의 차이는 미미해야 하는 거 아닌가?" 이 질문에서 세 가지 상상이 펼쳐져.
첫째, 모두에게 알파고 모먼트가 필요하다. "내 영역에서 AI가 나를 넘어서는 순간"을 직접 경험해야 다음 풍경이 보인다는 거야. 둘째, 문해력의 가치가 0에 수렴하는 세상 — 어그로 제목이지만, 핵심은 재능·유전·기회·우연이 만들어내는 격차를 AI가 위쪽에서 얇게 만들 수 있지 않냐는 거야. 셋째, 복리의 교란. 복리는 시간과 반복 횟수의 함수인데, AI가 혁신 재현 속도를 폭발적으로 높이면 선점 이익이 줄어들 수 있다는 상상.
노정석은 현실적으로 반응해. "어렵죠. 그게 작동하려면 어마어마한 레버리지여야 작동하는데." 그런데도 최승준은 포기 안 하고 계속 "만약 가능하다면?"을 던져.
45~55분: AI 3개와 토론 — Claude만 불편한 말을 했다
이 구간이 제일 재미있어. 최승준이 자기 생각을 Claude, Gemini, ChatGPT 세 모델에 동시에 던지고 반응을 비교해. Claude Opus 4.1만 유일하게 불편한 말을 했거든.
"원글쓴이의 꿈은 오지 않을 것이다. 인간은 차이를 통해 자신을 정의하는 존재라서, AI가 평준화하면 새로운 위계를 발명할 거야. 누가 AI를 더 잘 쓰는가, 누가 더 독창적인 프롬프트를 만드는가 같은." 최승준이 이걸 보고 "맞는 말이긴 한데, 이건 현재 패러다임에 갇힌 뻔한 생각 아닌가?"라고 반박해. 그러자 Claude가 "당신이 꿈꾸는 세상이 가능하다면 현재 체제 전부가 무너진다는 두려움을 숨기는 것일 수도"라고 또 받아쳐. 이 핑퐁이 꽤 날카로워.
Scott Alexander의 '그녀의 코트 색깔' 얘기도 나와. 성모 마리아 그림에 쓰던 울트라마린 파란색 염료가 옛날엔 엄청 귀했는데 기술이 발전해서 누구나 쓸 수 있게 됐을 때, 그 가치가 어떻게 변했나 — 경이로움이 무감각으로 바뀌는 위험을 얘기하는 거야. Claude가 여기서 한 말이 찐이야. "AI가 모든 기술적 장벽을 제거한다면 남는 것은 오직 주목하는 능력의 차이뿐이다."
55분~끝: 오늘로 돌아오기 — 프롬프팅 15가지 태도
뜬구름을 잡다가 결국 실천으로 착지해. 최승준이 2025년 버전 프롬프팅 태도를 공유하는데, 제일 눈에 띄는 건 0번. 나중에 추가한 거거든. "천 번째 생성도 첫 번째 생성을 본 것처럼 감탄하기." GPT-3 때는 진짜 깜짝 놀랐는데 GPT-5 때는 별로였다는 자기 반성에서 나온 거야.
Particle Life와 Particle Lenia, 서로 다른 두 알고리즘을 GPT-5에게 합쳐달라고 했더니 실제로 작동하는 걸 보여주기도 해. "두 권의 책에서 한 페이지씩 뽑아서 이으면 뭔가 나온다"는 그 생각 그대로 코딩에 적용한 거야. 마무리는 Alan Kay의 말. "지식은 습득하고 향기만 남기고 나머지는 잊어라." 지식이 너무 시끄러우면 내 안의 목소리를 잠재운다는 거야.
💡 한나 버전 사전
"AGI"가 뭐야?
- 전문가 설명: Artificial General Intelligence. 특정 분야만 잘하는 AI가 아니라, 인간처럼 어떤 분야든 스스로 배우고 해낼 수 있는 AI.
- 한나 버전: 지금 AI는 영상 편집은 잘하는데 세금 신고는 못하는 식이잖아. AGI는 뭐든 다 알아서 척척 해주는 만능 스태프가 생기는 것. 근데 그 스태프가 너보다 더 잘하는 수준.
"마태 효과"가 뭐야?
- 전문가 설명: 성경 마태복음에서 나온 말로, "있는 자는 더 받고 없는 자는 있는 것마저 빼앗긴다"는 현상. 사회과학에서 부익부 빈익빈을 설명할 때 씀.
- 한나 버전: 팔로워 10만인 사람이 브랜드 딜 먼저 받고 또 팔로워 늘고 또 딜 받는 구조 있잖아. 처음 선점한 사람이 계속 유리해지는 거. 그게 마태 효과야.
"상전이"가 뭐야?
- 전문가 설명: 물리학 용어. 물이 액체에서 기체로 바뀌듯, 시스템이 완전히 다른 상태로 넘어가는 것.
- 한나 버전: 릴스가 처음 나왔을 때 인스타가 완전히 달라진 느낌 있잖아. 그냥 조금 변한 게 아니라 룰 자체가 바뀐 거. 그게 상전이야.
"알파고 모먼트"가 뭐야?
- 전문가 설명: 2016년 구글 딥마인드의 AI 알파고가 세계 최강 바둑기사 이세돌을 이긴 사건. 이 순간 이후 AI에 대한 인식이 전 세계적으로 바뀌었음.
- 한나 버전: 네가 공들여 찍은 콘텐츠보다 AI가 5분 만에 만든 게 조회수가 10배 더 나오는 걸 직접 본 순간. 그게 너한테는 알파고 모먼트야.
"Situational Awareness"가 뭐야?
- 전문가 설명: OpenAI 출신 Leopold Aschenbrenner가 2024년 공개한 장문의 글. AGI, ASI로 가는 경로와 타임라인을 구체적으로 예측해서 화제가 됐음.
- 한나 버전: AI 업계 내부자가 "앞으로 이렇게 될 거야"를 아주 세세하게 적어서 유출한 로드맵 문서 느낌. 음모론이 아니라 꽤 맞아떨어지고 있어서 더 무서운 거야.
"UBI (기본소득)"가 뭐야?
- 전문가 설명: Universal Basic Income. 일을 하든 안 하든 모든 시민에게 정부가 기본적인 생활비를 지급하는 제도.
- 한나 버전: 유튜브 수익이 없어도 국가에서 매달 일정 금액을 주는 세상. Hinton은 이게 "굶는 건 막아주지만, 일이 없어서 생기는 정체성 상처는 못 고친다"고 봐.
"복리"가 뭐야? (이 맥락에서)
- 전문가 설명: 원금에 이자가 붙고, 그 이자에 또 이자가 붙는 식으로 시간이 지날수록 격차가 기하급수적으로 커지는 원리.
- 한나 버전: 팔로워가 1만일 때보다 10만일 때 딜이 더 많이 들어오고, 딜 받으면 또 팔로워 늘고, 이게 굴러가면 걷잡을 수 없어지는 것. 그 눈덩이가 굴러가는 시간을 AI가 줄여줄 수 있냐는 게 최승준의 질문이야.
"Moravec의 역설"이 뭐야?
- 전문가 설명: 로봇공학자 Hans Moravec이 말한 것. AI는 체스·수학처럼 어른도 어려운 건 쉽게 하는데, 오히려 어린아이도 하는 걸음걷기·감각 같은 건 어려워하는 역설.
- 한나 버전: AI가 논문 쓰는 건 잘하는데 카페에서 낯선 사람 눈치 보면서 분위기 파악하는 건 아직 못하잖아. 그 거꾸로 뒤집힌 상황이야.
"Transformer / Attention is all you need"가 뭐야?
- 전문가 설명: 2017년 구글이 발표한 AI 아키텍처 논문 제목. 지금의 GPT, Claude 등 거의 모든 대형 언어 모델의 근간이 됨.
- 한나 버전: 지금 우리가 쓰는 AI 챗봇의 엔진을 처음 만든 논문이야. 제목이 "주목(Attention)이 전부야" 인데, 최승준이 "인간의 경이로운 주목 능력"을 얘기하다가 이 제목이 아이러니하게 겹쳐 보인다고 했어.
"Particle Life / Particle Lenia"가 뭐야?
- 전문가 설명: 단순한 입자들이 인력·척력 규칙에 따라 움직이다가 복잡한 생명체 같은 패턴을 만들어내는 시뮬레이션 알고리즘들.
- 한나 버전: 점들한테 "빨간 점은 서로 끌어당겨, 파란 점은 밀어내" 규칙만 줬는데 자기들끼리 모이고 흩어지고 하다가 마치 세포처럼 움직이기 시작하는 거야. 최승준이 두 버전을 AI한테 합쳐달라고 해서 새로운 걸 만들어냈어.
🔥 노정석 어록 모음
"굳이 심하게 요약해보면 모두가 노예로 전락하는 게 아니라 모두가 귀족이 되는 세상이 되면 뭐 하는 거지?"
분위기: 최승준의 긴 철학 여정을 핵심 한 줄로 압축하면서, 약간 장난기 있게 직구를 던지는 톤.
한나 풀이: "모든 사람이 AI 덕분에 귀족처럼 잉여롭고 풍요로운 시간을 갖게 된다면, 그 시간에 뭘 할 건데?" 라는 질문이야. 사실 콘텐츠 크리에이터인 한나한텐 되게 중요한 질문이거든. 사람들이 먹고살 걱정이 없어지면, 그때 소비하는 콘텐츠는 지금이랑 완전히 달라질 수도 있어.
"사회라는 harness(마구)가 세팅한 목적 함수가 그게 아닌 거죠."
분위기: 11개월 아기가 자연스럽게 가설·실험을 하는 영상을 보면서, 왜 어른이 되면 그걸 못 하게 되냐는 질문에 노정석이 담담하게 끼어드는 톤.
한나 풀이: 사회가 "성공=돈=경쟁"이라고 프로그래밍해버려서, 애기 때 자연스럽게 하던 호기심·실험 본능이 거기에 맞게 덮여버린다는 거야. 알고리즘이 "이거 올려야 뜬다"고 프로그래밍하는 것처럼, 사회도 우리 행동 방식을 그렇게 세팅한다는 뜻이지.
"얘가 11개월 동안 학습한 게 겨우 11개월이 아니라, 뱃속에서부터 받은 데이터는 굉장히 어마어마하다."
분위기: 최승준이 아기 사진을 보여주며 "인간은 태어날 때부터 천재야"라고 할 때, 노정석이 "잠깐, 뒤집어서 생각하면 그 아기도 엄청난 데이터를 학습한 결과야"라며 균형을 잡는 톤.
한나 풀이: AI가 엄청난 데이터로 학습하듯, 아기도 뱃속부터 수개월간 어마어마한 감각 데이터를 학습한 결과로 저런 실험을 한다는 거야. "인간은 특별하고 AI는 그냥 데이터"가 아니라, 둘 다 결국 경험으로 만들어진다는 시각이지.
🎬 한나 적용 포인트
① 내 분야에서 "알파고 모먼트"를 의도적으로 만들어봐 AI한테 네 최고 퀄리티 콘텐츠 기획 5개를 줘. 그리고 "이것보다 더 나은 기획 5개 뽑아봐"라고 해. 결과물이 무서울 수 있어. 근데 그게 바로 너의 알파고 모먼트야. 이걸 의도적으로 경험하면, 그다음에 뭘 해야 하는지 방향이 보이기 시작해.
② "복리를 교란하는" 포지셔닝 전략 최승준의 말대로 AI가 혁신 재현을 쉽게 만든다면, 콘텐츠에서도 "아이디어 선점"보다 "관계·신뢰·IP"에 복리를 쌓는 게 유리해져. 기획은 AI가 카피할 수 있어도, 한나라는 사람 자체는 못 카피하거든. 복리가 굴러가게 할 곳을 콘텐츠 아이디어에서 퍼스널 브랜드로 옮기는 거야.
③ AI에게 "내 주장을 파괴하는 반박"을 요청하기 최승준의 프롬프팅 태도 중에 "역목표 설계 — 내 주장을 파괴하는 주장 듣기"가 있어. 콘텐츠 기획안을 AI한테 주고 "이게 왜 망할지 10가지 말해봐"라고 해봐. 아첨 안 하고 진짜 약점을 뽑아주거든. Claude 계열이 특히 이걸 잘 하더라고.
🏷️ 태그
- 시기: #2025하
- 주제: #AGI상상 #인간격차 #미래철학 #프롬프팅
- 인물: #힌튼 #서튼 #샘알트만
- 자유: #사고실험 #알파고모먼트 #레버리지