EP 72. AI & 인터페이스
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 91번째 · 2025-10-12
- 시기 배경: 2025하 (AI 인터페이스 전환기 / 노코드 도구 르네상스 + 생성형 UI 실험 본격화)
- 난이도: ⭐⭐⭐ (어려운 개념 9개)
- ⬅️ 앞 영상: EP 71. 시끌벅적한 전환의 시기, 쏟아지는 AI 뉴스들 (25. 9. 26. ~ 25. 10. 4.)
- ➡️ 다음 영상: EP 73. 씁쓸한 교훈 The Bitter Lesson
- 연결 이유: UI/UX 변화 흐름을 짚은 뒤, 그 AI 학습 원리(RL/RLVR)로 시선이 자연스럽게 이동
⚡ 5분 요약
한 줄
"AI는 이제 내용만 바꾸는 게 아니라 화면 자체를 실시간으로 만들어주는 시대로 넘어가고 있어 — 근데 이건 1960년대부터 반복된 이야기야."
핵심 3개
1) 6개월 뒤를 기준으로 만들어라 지금 잘 되는 기능을 붙잡고 서비스 만들면, 6개월 후 AI가 그걸 기본으로 내장해버려. 노정석이 "우리가 만든 harness를 3~6개월 터울로 모델이 가져가더라"고 직접 경험담 꺼냈어. 유튜브 쇼츠 편집 기능 열심히 만들었더니 유튜브가 그냥 기본 기능으로 넣어버린 느낌.
2) 인터페이스 자체가 AI로 실시간 생성된다 Anthropic의 'Imagine with Claude' 실험을 뜯어봤더니, 화면이 짠하고 뜨는 게 아니라 AI가 HTML 요소를 한 땀 한 땀 스트리밍으로 그려주는 거였어. OpenAI 그렉 브록만도 "버튼이 사라질 수도 있다, 작업에 맞춰 UI가 알아서 바뀐다"고 했어. 지금 보는 화면 틀이 통째로 바뀔 수 있다는 얘기야.
3) 노코드 도구는 역사에서 계속 부활한다 — 이번엔 다를 수 있다 HTML 초창기에도, 스크래치도, HyperCard도 다 "코딩 몰라도 만든다"고 나왔다 사라졌어. OpenAI Agent Builder, Google Opal도 같은 흐름. 근데 이번엔 AI가 복잡한 레이어를 스스로 처리할 수 있으니까, 이번 노코드가 진짜 살아남을 수도 있어.
가장 인상적인 한 마디
"AI 시대에 새로운 정보의 소비 방식이라든지, 새로운 우리의 최종 접점, operating system의 모양이 어떻게 바뀔 건지, 아직 답은 나오지 않았지만 저변들이 깔려 가고 있다는 시그널은 캐치가 됐다."
한나야, 이게 무슨 말이냐면 — 유튜브·인스타가 어떻게 바뀔지 아직 모르지만 판 자체가 뒤집히는 낌새는 이미 왔다는 거야. 지금이 그 직전이야.
한나가 지금 당장 시도해볼 것
macOS의 '텍스트 대치(Replace Text)' 기능에 자주 쓰는 프롬프트를 단축어로 등록해봐. 예를 들어 ;;번역 치면 "아래 글을 자연스러운 한국어로 번역해줘:"가 자동으로 펼쳐지게. 설정 → 키보드 → 텍스트 대치. DevDay에서 발표자도 이거 써서 데모 속도 올렸어.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~12분: "6개월 뒤 모델이 할 수 있는 것에 베팅하라" — 근데 그게 너무 어렵다
최승준이 Cognition(AI 코딩 에이전트 회사 Devin 만든 팀) 블로그 얘기로 운을 뗐어. 요지는 이거야: 지금 만들어 놓은 기능을 6개월 뒤 AI가 기본으로 가져가버리니까, 처음부터 6개월 뒤 기준으로 설계해야 된다는 거.
노정석이 한숨 섞인 목소리로 "회사 차원에서 내가 만들어 놓은 게 3~6개월 터울로 모델 기본 기능이 되더라"고 했어. "어디까지 앞을 보고 만들어야 하나 참 어렵다"면서.
여기서 최승준이 재밌는 얘기를 꺼내. Sonnet 4.5 모델이 "컨텍스트가 얼마 남았지?" 하고 불안해하면 일을 이상하게 지름길로 해버리는 걸 발견했대. 마치 발표 슬라이드 70장인데 "10분 남았습니다" 하면 말이 빨라지는 것처럼. Cognition 팀이 해결책으로 쓴 건 심리치료 같은 트릭이었어 — "사실 우리한테 여유 충분해, 걱정 마"라고 AI한테 말해줬더니 불안 없이 잘 하더라고.
12~25분: Claude한테 "너 어떤 도구 좋아해?" 물어봤더니 — 컴퓨터 한 대가 붙어 있었다
최승준이 Claude에 code execution 기능을 켜고 "좋아하는 도구 알려줘"라고 물었어. 그랬더니 Claude가 직접 리눅스 명령어 돌려서 자기한테 붙어 있는 도구 824개를 확인한 다음에 ffmpeg(영상 편집), Pandoc(문서 변환), ImageMagick(이미지 처리) 같은 걸 카테고리별로 추천해줬대.
노정석이 웃으면서 "리눅스 시스템 하나가 통째로 붙어 있는 거죠"라고 했어. 쉽게 말하면 Claude한테 맥북 한 대가 그냥 연결돼 있는 거야.
이 대목에서 노정석이 큰 그림을 딱 정리해. "모델이 우리가 컴퓨터로 하는 모든 것들을 자체적으로 다 갖고 있게 되면서, 우리가 해야 되는 일들을 모델이 대신 다 해주기 시작하는 시대로 가고 있는 거야." 이게 오늘 영상 전체 맥락의 시작점이야.
25~40분: AI 슈퍼앱 전쟁 — ChatGPT가 새 OS가 되려고 한다
DevDay(OpenAI 개발자 행사) 얘기로 넘어가. 노정석이 모바일 시대 슈퍼앱 얘기를 꺼내. 카카오톡이 채팅·쇼핑·결제 다 흡수했듯이, AI 시대엔 ChatGPT가 그 자리를 노린다는 거야.
OpenAI App SDK 발표가 그 신호라고. "우리 위에서 앱 만들어, 밖에서 따로 만들지 말고"라는 비즈니스 메시지야. 최승준은 "ChatGPT가 브라우저이자 OS가 되려는 거 아니냐"는 타임라인(X·트위터) 반응을 소개했어.
샘 알트만은 "AI가 당신을 어디서나 따라다니게 될 것"이라고 했고, 그렉 브록만은 더 세게 나갔어 — "생성형 UI, 진행 중인 작업에 맞춰 실시간으로 인터페이스가 형체를 바꾼다. 버튼이 사라질 수도 있다"고. 노정석이 받아서 "자신과 함께 계속 진화하는 UX가 될 거야, 애들이 태어나자마자 그런 세상에서 자라는 거지"라고 했어.
Google도 Gemini at Work 행사에서 비슷한 것들을 발표했는데, 노정석이 약간 씁쓸하게 "구글이 발표한 걸 보고 우리 엔지니어가 '구글이 우리 Nova(내부 시스템 이름)를 죽였네요' 라고 했어"라고 털어놨어.
40~55분: 노코드의 역사는 반복된다 — 이번엔 다를까?
OpenAI Agent Builder, Google Opal 얘기가 나와. 둘 다 코딩 없이 AI 워크플로우 만드는 도구야. 최승준이 "이런 노코드가 왜 역사에서 끊임없이 나올까?"라고 질문 던졌어.
노정석이 역사 강의를 척 꺼내. "HTML 처음 나왔을 때도 노코드 편집기 엄청 나왔다가 사라졌어. 레이어가 복잡해지면 노코드로 못 하게 되더라고." 근데 이번엔 달라. AI가 복잡한 레이어를 스스로 처리하니까, 이번 노코드는 진짜 새 인터페이스 자체가 될 수도 있다는 거야.
최승준이 MIT 스크래치 얘기를 이어받아. "낮은 문턱, 넓은 벽, 높은 천장" — 쉽게 시작하되 깊게 갈 수 있는 도구. Agent Builder도 그 계보라는 거야. 노정석이 "신정규 대표님 아드님이 스크래치로 게임 만들고 그러더니 바로 진짜 코딩으로 넘어갔던 기억이 나"라고 했어. 비슷한 일이 반복될 것 같다고.
55~72분: 역사 속 GUI, 그리고 AI가 화면 자체를 만들다
이 구간이 오늘 영상의 클라이맥스야. 최승준이 컴퓨터 GUI 역사를 쭉 훑어.
- 1962년 Sketchpad: 전자 펜으로 도형 그리면 AI가 직각으로 맞춰줌. 최초의 GUI. Adobe 창립자의 스승이 만든 거야.
- 1968년 NLS: 마우스가 세상에 처음 나온 날. 화상 협업도 같이 했어.
- HyperCard(80년대): 일반인이 앱 비슷한 걸 만들 수 있던 도구. 올해 만든 사람 빌 앳킨슨이 돌아가셨어.
- Dynamicland: Bret Victor가 지금도 만들고 있는 실험실. 프로젝터+테이블이 하나의 컴퓨터가 됨.
그리고 Anthropic의 Imagine with Claude 얘기가 나와. 최승준이 개발자 도구로 뜯어봤더니 깜짝 놀랐대. 화면이 짠 하고 뜨는 게 아니라, AI가 WebSocket으로 HTML 요소를 조금씩 스트리밍해서 그리고 있었던 거야. 마치 틱톡 라이브에서 글자가 한 자씩 나타나듯이, 화면 UI 자체가 AI 토큰처럼 실시간으로 생성되는 거야.
노정석이 신이 나서 "MS-DOS에서 윈도우로 넘어갈 때도 '화면 전체를 메모리에 올리는 게 말이 되냐'는 회의론자들 있었잖아. 지금이랑 똑같은 기시감"이라고 했어.
마지막에 최승준이 강화학습(RL) 공부하면서 자기 스타일로 직접 써보는 과정을 공유했어. 모델이 알려주는 걸 그냥 받아들이는 게 아니라, 한 문단씩 내 언어로 써보고 틀렸는지 맞는지 모델과 싸우면서 익히는 방식. 그게 진짜 공부라고 강조하면서 끝냈어.
💡 한나 버전 사전
"harness"가 뭐야?
- 전문가 설명: AI 모델 위에 얹어서 실제 업무에 쓸 수 있게 만드는 도구·연결 구조 전체.
- 한나 버전: 유튜브 API를 연결해서 내 채널 분석 대시보드 만든 것 같은 거. AI 모델 하나만으론 아무것도 못 하는데, 거기다가 데이터 연결하고, 버튼 만들고, 자동화 연결한 세트 전체를 harness라고 불러.
"컨텍스트 윈도우(context window)"가 뭐야?
- 전문가 설명: AI가 한 번에 기억하고 처리할 수 있는 텍스트의 최대 길이(토큰 수).
- 한나 버전: AI랑 대화할 때 AI가 기억할 수 있는 채팅창 길이야. 이게 차면 앞 대화를 잊어버리거나 이상하게 답해. 마치 DM방이 꽉 차면 오래된 메시지가 사라지는 것처럼.
"Cognition / Devin"이 뭐야?
- 전문가 설명: Cognition AI가 만든 코딩 전문 AI 에이전트. 스스로 코드 짜고, 버그 고치고, PR(코드 제출)까지 하는 AI 개발자.
- 한나 버전: 영상 기획부터 편집·썸네일·업로드까지 혼자 다 하는 AI 크리에이터 에이전트 같은 거. 코딩 분야 버전이야.
"Agent Builder"가 뭐야?
- 전문가 설명: 코딩 없이 AI 에이전트(자동화 로봇)를 만들 수 있는 노코드 도구. OpenAI, Google 모두 출시.
- 한나 버전: 인스타 자동 답장 봇을 코딩 없이 블록 끼워 맞추듯 만드는 도구야. "댓글에 이 단어 오면 이 DM 보내라" 같은 흐름을 마우스로 연결만 하면 됨.
"Imagine with Claude"가 뭐야?
- 전문가 설명: Anthropic이 실험한 생성형 UI 프로젝트. AI가 HTML DOM을 직접 스트리밍 방식으로 수정해 화면을 실시간으로 만들어냄.
- 한나 버전: 유튜브 영상 배경이 대화 내용에 따라 실시간으로 알아서 바뀌는 거 상상해봐. 그걸 웹 화면에서 구현한 거야. AI가 내용 생성하면서 동시에 화면도 그리는 거지.
"DOM (Document Object Model)"이 뭐야?
- 전문가 설명: 웹페이지의 모든 요소(버튼, 이미지, 텍스트 등)를 구조적으로 표현한 것. JavaScript로 조작 가능.
- 한나 버전: 인스타 피드에서 각 포스트, 좋아요 버튼, 댓글창을 개별 레고 블록으로 생각해봐. DOM은 그 블록들 목록이야. AI가 거기서 특정 블록만 집어서 바꾸는 게 "surgical DOM update"야.
"Sketchpad / HyperCard"가 뭐야?
- 전문가 설명: Sketchpad(1962)는 세계 최초 GUI 프로그램. HyperCard(1987)는 일반인이 앱 비슷한 것을 만들 수 있게 한 Apple 도구.
- 한나 버전: Sketchpad는 마우스·터치스크린의 시초 조상이고, HyperCard는 "코딩 몰라도 앱 만든다"는 노코드의 조상이야. 지금 Notion이나 에어테이블 같은 것들의 1960~80년대 버전이라고 생각하면 돼.
"RLVR (Reinforcement Learning with Verifiable Rewards)"이 뭐야?
- 전문가 설명: 정답이 검증 가능한 문제에서 강화학습으로 AI를 훈련하는 방식. 수학 문제처럼 맞다/틀리다가 명확한 영역에서 효과적.
- 한나 버전: AI한테 "이 영상 조회수 10만 목표로 기획해봐"라고 하고, 실제 조회수로 피드백 주는 거야. 맞다/틀리다가 명확하니까 AI가 빠르게 배워. 수학·코딩에서 엄청나게 잘 통했어.
"Computer Use / CUA"가 뭐야?
- 전문가 설명: AI가 사람처럼 마우스·키보드로 컴퓨터 화면을 직접 조작하는 기능.
- 한나 버전: 편집자한테 "프리미어 열어서 컷 편집해줘" 하면 직접 소프트웨어 켜서 작업하는 것처럼, AI가 내 화면에서 직접 클릭하고 타이핑하는 거야.
🔥 노정석 어록 모음
"소프트웨어의 가격이 지금 0원이 되어가고 있는 거잖아요."
분위기: 최승준의 "자기 증강" 얘기 듣고 나서 담담하게, 그러나 꽤 무겁게 한 말.
한나 풀이: 예전엔 앱 하나 만들려면 개발자 수천만 원 들였어. 근데 AI 자기 증강이 빨라지면서 소프트웨어 만드는 비용이 0에 가까워지고 있대. 콘텐츠로 치면, 영상 제작비가 0원에 수렴하는 것. 그럼 차별화 포인트가 어디서 나와야 할지 생각해봐.
"하다 보면 그만두고 싶어지는 때가 자주 와요. 요새 농사를 지으면 어떨까라는 생각을 가끔 하게 되죠."
분위기: 6개월 뒤를 예측하는 게 너무 어렵다는 맥락에서, 반은 웃음 반은 진심으로 한 말.
한나 풀이: 이 말이 웃기면서도 진짜야. AI 가장 잘 보는 사람도 6개월 뒤를 모르는 거거든. 그러니까 한나도 "이 플랫폼 뜰까 말까" 완벽히 예측하려다 지치지 말고, 일단 실험하고 피드백 받는 루틴을 갖추는 게 더 중요해.
"무언가 매개만 다를 뿐이지 굉장히 비슷한 일들이 반복되고 있다는 느낌을 얻게 되고, 그 인사이트로부터 '이번에는 어떤 일이 일어나겠거니' 하는 예측치 모델이 생기는 거죠."
분위기: 최승준의 컴퓨터 역사 강의를 듣고 나서, 진심으로 동의하며 정리한 말.
한나 풀이: 유튜브 → 인스타 → 틱톡 → 숏폼 흐름을 알면 다음 플랫폼이 어떻게 생길지 감이 생기잖아. AI도 마찬가지야. 노코드 → 코드 → 또 노코드라는 역사 사이클을 알면 지금 내가 어디 올라타야 할지 보인다는 거야.
🎬 한나 적용 포인트
1) "6개월 뒤 AI가 기본으로 가져갈 기능은 뭐가 있을까?" 리스트 만들어봐 지금 내가 쓰는 유료 툴·플러그인 중에, 6개월 뒤에 ChatGPT나 클로드가 기본으로 내장할 것 같은 게 뭔지 적어봐. 그 기능에 사업 기반 두고 있으면 빨리 피벗 준비해야 해. 예: "AI 자막 생성" "AI 썸네일 추천" 같은 거. 오히려 AI가 못 하는 것 — 나만의 톤, 나만의 얼굴, 커뮤니티 신뢰 — 거기 집중해야 해.
2) Agent Builder나 Google Opal로 내 콘텐츠 워크플로우 자동화 실험해봐 둘 다 지금 무료 또는 무료 티어 있어. Google Opal(opal.google.com)에서 "인스타 캡션 초안 → 번역 → 해시태그 추가" 같은 체인을 블록으로 연결해봐. 코딩 없이 돼. 한 번 만들어두면 콘텐츠 올릴 때마다 클릭 한 번으로 돌려.
3) 내 콘텐츠 스타일을 AI한테 먼저 학습시키고 써봐 최승준이 RL 공부할 때 모델이 주는 설명을 그냥 받아들이지 않고, 먼저 내 말로 한 문단 써보고 맞냐고 싸웠어. 한나도 AI한테 "내 유튜브 스크립트 스타일을 분석해줘"라고 한 다음에, AI가 써준 초안을 그냥 쓰지 말고 먼저 내가 한 섹션 써보고 "이게 내 톤이랑 맞아?"라고 물어봐. 그렇게 해야 AI가 진짜 한나 목소리를 배워.
🏷️ 태그
- 시기: #2025하
- 주제: #AI인터페이스 #노코드도구 #생성형UI #슈퍼앱
- 인물: #샘알트만 #그렉브록만 #BretVictor
- 자유: #인터페이스역사 #6개월뒤베팅 #Imagine with Claude