EP 67.5 여러가지 실험들(나노 바나나, 이미지 생성 메타 프롬프트 등등)
🗺️ 이 영상의 위치
- 시간순: 전체 115편 중 86번째 · 2025-09-13
- 시기 배경: 2025하 (AI 실험 전성기 / 멀티모달·컴퓨터 제어 가능성이 터지던 2025년 여름 끝)
- 난이도: ⭐⭐ (어려운 개념 8개)
- ⬅️ 앞 영상: EP 67. AI와 노동의 미래
- ➡️ 다음 영상: EP 68. 궁극의 인공지능 상상하기: 인간 격차를 얇게 만드는
- 연결 이유: 이 영상에서 "AI와 노동" 주제를 별도로 빼자고 예고했고, EP 68이 바로 그 연장선인 AI의 궁극적 가능성 상상으로 이어짐
⚡ 5분 요약
한 줄
"귀여워 보이는 AI 기능이 사실 무서운 거다" — 최승준이 실험들 풀어놓으며 툴 노하우 세 개 공개한 회차.
핵심 3개
1) 나노 바나나, 그냥 이미지 앱이 아니야 구글이 만든 이미지 생성 AI인데, 실제론 "3D 공간이랑 물리 법칙을 이해하는 모델"일 가능성이 높아. 노정석 회사 최고 엔지니어가 "이거 영상 모델에서 파생됐다"고 딱 잘라 말했거든. 앞으로 AI가 화면을 눈으로 읽고 직접 조작하는 '컴퓨터 제어' 시대의 포석일 수 있어.
2) 최승준의 썸네일 제작 비법 — 메타 프롬프트 글 하나 쓰면 AI한테 "이 글에 맞는 이미지 생성 프롬프트 5개 만들어줘"라고 시킨 다음, 그 프롬프트로 이미지를 뽑아. 프롬프트 자체를 AI가 짜주는 거야. 미술·사진·물리 용어까지 스스로 끌어다 써서 퀄리티가 훨씬 높게 나와.
3) GPT-5가 먼저 제안했다 — 선제성이 핵심 최승준이 몰랐던 '북마클릿' 기능을, GPT-5가 대화 중에 먼저 "이렇게도 할 수 있어요" 하고 제안해서 알게 됐어. 사용자가 물어봐서 얻은 게 아니라 AI가 먼저 꺼낸 거. 이 차이가 엄청 크다는 게 이 회차의 뼈대야.
가장 인상적인 한 마디
"귀엽다 하는 것은 위험함의 징후일 수 있다. 어느 순간에 금방 안 귀여워질 수 있다."
한나야, 이게 무슨 말이냐면 — 2021년에 DALL-E 처음 나왔을 때 다들 "귀여운 장난감이네" 했는데, 지금은 그게 진짜 디자인 시장을 흔들고 있잖아. 지금 별거 아닌 것처럼 보이는 AI 기능도 1~2년 후엔 업계 판도를 바꿀 수 있다는 경고야.
한나가 지금 당장 시도해볼 것
다음 번에 글이나 영상 기획안 쓰고 나서, ChatGPT한테 "이 내용으로 썸네일 이미지 프롬프트 5개 만들어줘. 사진·미술·디자인 전문 용어 최대한 써서"라고 한번 물어봐. 최승준이 쓰는 메타 프롬프트의 핵심은 바로 이거거든. 직접 프롬프트 짜려고 고민하는 시간 반 이상 줄어들 거야.
📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)
0~5분: 나노 바나나, 귀여운 척하는 무서운 녀석
최승준이 약간 흥분한 티를 내면서 구글 Creative Labs의 Alexander Chen이라는 사람 얘기를 꺼내. 이 사람이 나노 바나나(Google의 이미지 생성 AI)로 수학 문제 그림 그려놓고 "x 풀어줘, 답은 빨간색으로 써"라고 시켰더니 AI가 그림 위에 직접 풀이를 그려 넣은 거야. 피타고라스 정리도 풀고, 오일러 공식도 알고, 그래프 교점도 찾아내고.
최승준은 "이거 귀엽게 보이지만 위험함의 징후"라고 딱 짚어. 2021년에 DALL-E 처음 봤을 때도 사람들이 귀엽다 했는데, 지금은 그냥 현실이잖아, 노정석도 끄덕이면서 "지금은 그냥 현실이죠"라고 받아쳐. 둘 다 이게 단순한 이미지 편집 툴이 아니라는 데 완전히 동의하는 분위기야.
5~9분: 나노 바나나의 진짜 정체 — 컴퓨터 제어의 전초기지
노정석이 자기 회사 최고 엔지니어 얘기를 꺼내. "이거 100% 영상 모델에서 파생된 거야. 3D 공간이랑 물리 세계를 이해하는 게 들어있다고." 그러면서 나노 바나나가 앞으로 AI가 화면을 보고 직접 클릭하고 조작하는 '컴퓨터 제어' 방향의 포석일 수 있다는 이야기로 연결해.
최승준도 "그렇죠, 그럴 리가 없다는 거죠 — 그냥 이미지 앱일 리가 없다는"이라며 동조해. 그러면서 이 모든 게 구글의 Veo, Genie 같은 프로젝트랑 다 결이 같다고 짚어. 흩어진 점들이 하나의 선으로 이어지는 순간이야. 최승준이 채팅하듯 이미지를 여러 번 주고받으면서 맥락을 쌓아가는 방식 — 이게 단순히 "한 번에 이미지 생성"과 완전히 다른 차원이라고 강조해.
9~13분: 최승준의 썸네일 비법 공개 — 메타 프롬프트 v5.4
노정석이 "이거 자세히 소개해 주세요" 하면서 최승준이 쓰는 썸네일 제작 프로세스를 끌어내. 글이나 이미지를 입력하면 → AI가 이미지 생성용 프롬프트를 5개 만들어 줌 → 그 프롬프트로 이미지를 뽑는 2단계 구조야.
핵심은 최승준이 그 중간 단계의 프롬프트(=메타 프롬프트)를 직접 짠 게 아니라, AI랑 티키타카(주고받기)하면서 AI가 써줬다는 거야. 그리고 이 메타 프롬프트 안에 "내가 모르는 미술·사진·물리 전문 용어까지 최고 수준으로 써서 이미지 프롬프트를 만들어라"는 지시가 들어 있어. 그러니까 최승준 본인이 몰라도 AI가 알아서 전문가 수준의 표현을 끌어다 쓰는 거지. 노정석이 "저 다 마음에 들어요" 하면서 부러운 기색이 역력했어.
13~16분: 북마클릿의 재발견 — AI가 먼저 제안했다
마지막 토픽은 좀 기술적인 얘기야. 최승준이 AI 대화 내용을 다른 모델에 옮길 때 복붙이 귀찮아서 방법을 고민했는데, GPT-5가 대화 중에 먼저 "북마클릿으로 만들어 드릴까요?"라고 제안했대. 북마클릿이 뭔지도 까먹고 있었는데, 그 제안 덕분에 "아 그거 있었지!" 하고 써보게 된 거야.
최승준이 10분 생각하고 내린 결론이 인상적이야. "내가 예전에도 비슷한 걸 봤는데 못 알아차렸다. 이번에도 모델이 제안했기 때문에 비로소 알게 됐다." AI의 선제 제안이 사용자의 인지 한계를 뛰어넘게 해준다는 거야. 노정석이 "시키지도 않았는데"라고 짧게 받아쳤고, 둘 다 이게 앞으로 점점 더 중요해질 방향이라는 걸 실감하는 분위기로 마무리됐어.
💡 한나 버전 사전
"나노 바나나(Nano Banana)"가 뭐야?
- 전문가 설명: 구글이 2025년 공개한 이미지 생성·편집 AI. 그림을 그리거나 수정하면서 대화하듯 쓸 수 있는 게 특징.
- 한나 버전: 유튜브 썸네일 만들 때 "이 느낌으로 수정해줘, 이제 이걸 추가해줘" 하면서 채팅하듯 이미지를 다듬을 수 있는 AI야. 캔바에서 AI 기능이 훨씬 강력해진 버전이라 생각하면 돼.
"메타 프롬프트(meta-prompt)"가 뭐야?
- 전문가 설명: AI에게 지시하는 문장(프롬프트)을 만들어내는 또 다른 프롬프트. 즉 '프롬프트를 만드는 프롬프트'.
- 한나 버전: 콘텐츠 기획서를 쓰면 → AI가 그걸 보고 유튜브 제목 후보 10개를 뽑아주는 시스템 같은 거야. 네가 직접 제목을 고민하는 게 아니라, AI가 제목 후보를 쏟아내는 도구 자체를 AI가 만들어준 거지.
"컴퓨터 유즈(computer use)"가 뭐야?
- 전문가 설명: AI가 사람 대신 컴퓨터 화면을 보고 마우스·키보드를 직접 조작하는 기능.
- 한나 버전: 네가 "인스타에 오늘 사진 올려줘"라고 말하면, AI가 직접 앱 열고 사진 선택하고 업로드 버튼 눌러주는 수준. 아직 완벽하진 않지만 그 방향으로 가는 중이야.
"북마클릿(bookmarklet)"이 뭐야?
- 전문가 설명: 브라우저 북마크에 JavaScript 코드를 심어서, 클릭 한 번으로 원하는 기능을 실행하는 미니 프로그램.
- 한나 버전: 크롬 북마크바에 '마법 버튼' 하나 만들어두고, 누르면 지금 보고 있는 AI 대화 내용이 자동으로 복사되는 거야. 확장 프로그램 설치 없이, 구글 계정만 있으면 모든 기기에서 싱크돼.
"인터리브드(interleaved)"가 뭐야?
- 전문가 설명: 텍스트·이미지·명령 등을 한 번에 쏟아내는 게 아니라, 번갈아가며 주고받으면서 결과를 쌓아가는 방식.
- 한나 버전: 인스타 피드 기획할 때 "이 이미지 뽑아줘 → 마음에 들어, 근데 색감 바꿔줘 → 이제 거기다 텍스트 넣어줘" 식으로 대화하면서 결과물을 만들어가는 거야. 한 번에 완성본 요청하는 것과 완전히 달라.
"선제성(proactivity)"이 뭐야?
- 전문가 설명: AI가 사용자가 요청하기 전에 먼저 유용한 제안을 하는 능력.
- 한나 버전: 편집자가 "오늘 영상 어떻게 할까요?"라고 기다리는 게 아니라, "이 부분 B-roll 넣으면 조회수 더 나올 것 같아요, 해볼까요?" 먼저 제안하는 것과 같아. AI가 그 편집자처럼 움직이기 시작했다는 거야.
"캐퍼빌리티 오버행(capability overhang)"이 뭐야?
- 전문가 설명: AI의 실제 능력은 이미 있는데, 사람들이 아직 그 능력을 제대로 끌어쓰지 못하고 있는 상태.
- 한나 버전: 유튜브 알고리즘이 쇼츠를 밀어주기 시작했는데, 아직 쇼츠를 안 올리는 크리에이터들이 그 기회를 못 잡고 있는 상황이랑 비슷해. 도구는 있는데 쓰는 사람만 이득 보는 거지.
"도메인 스페시픽 랭귀지(domain-specific language)"가 뭐야?
- 전문가 설명: 특정 분야에서만 쓰이는 전문 용어와 표현들로 구성된 언어 체계.
- 한나 버전: 사진 작가한테 "빛 느낌 있게 찍어줘"가 아니라 "황금빛 아워, 역광, 조리개 f1.8로 보케 살려줘"라고 말하는 것처럼, 전문 분야 용어로 딱딱 박아서 요청하는 거야. 결과물 퀄리티가 확 달라지거든.
🔥 노정석 어록 모음
"귀엽다 하는 것은 위험함의 징후일 수 있다."
분위기: 최승준이 DALL-E 2021 사례를 꺼내면서 차분하지만 단호하게 한 말. 농담이 아니라 진짜 경고야.
한나 풀이: 지금 AI 툴이 "어, 신기하다, 귀엽네" 수준으로 보인다면 1~2년 후엔 그게 네 일을 대체하고 있을 수 있다는 얘기야. 틱톡이 처음 나왔을 때 "립싱크 앱이네" 했던 것처럼. 귀여워 보이는 순간이 가장 위험한 타이밍이야.
"시키지도 않았는데."
분위기: 최승준이 GPT-5의 선제 제안 얘기를 할 때 노정석이 짧게 끊어 치듯 한 마디. 되게 무게감 있는 리액션이야.
한나 풀이: AI가 "내가 이런 것도 할 수 있어요" 하고 먼저 손 드는 시대가 됐다는 거야. 이제 AI한테 뭘 물어야 하는지조차 AI가 알려주기 시작한 거거든. 가장 똑똑한 조수는 상사가 뭘 필요로 하는지 먼저 아는 사람이잖아. AI가 그 레벨로 올라왔어.
"이다음 token 양이 터지는 것은 multimodal이다."
분위기: 노정석이 이전 게스트 신정규 대표의 말을 인용하면서 고개를 끄덕이며 한 말. 확신 가득한 어조야.
한나 풀이: 지금까지 AI가 텍스트(글)를 주로 다뤘다면, 다음 폭발은 이미지·영상·화면을 동시에 읽고 처리하는 거야. 콘텐츠 크리에이터한테는 "AI가 내 유튜브 영상 보고, 인스타 피드 읽고, 직접 편집까지 해주는" 시대가 온다는 얘기야.
🎬 한나 적용 포인트
1) 썸네일·커버 이미지 제작 프로세스 2단계로 업그레이드해봐 지금 네가 직접 "이런 느낌으로 만들어줘"라고 이미지 생성 요청한다면, 단계를 하나 더 추가해봐. "이 글/기획안으로 썸네일 이미지 생성 프롬프트 5개 짜줘. 사진·회화·물리학 용어 전문가 수준으로 써서"라고 먼저 시키는 거야. 그 프롬프트로 이미지를 뽑으면 퀄리티 차이가 확 느껴질 거야.
2) AI가 먼저 제안하는 걸 놓치지 마 GPT 쓸 때 답변 마지막에 "이렇게도 할 수 있어요"라는 제안이 붙으면 그냥 넘기지 마. 최승준이 북마클릿을 발견한 것처럼, 그 한 줄이 네 워크플로우를 완전히 바꿀 수 있거든. 습관적으로 AI 답변 마지막 줄까지 읽는 것만으로도 숨겨진 기능을 계속 발견하게 돼.
3) 지금 "귀엽다"고 느끼는 AI 툴 목록 만들어봐 요즘 써보면서 "오 신기하다, 귀엽네" 했던 AI 기능이 뭐가 있어? 그게 뭐든 간에 1년 후엔 그게 콘텐츠 업계 표준이 될 수 있어. 귀여워 보이는 순간이 제일 빨리 배울 수 있는 타이밍이거든. 최승준 말처럼 "귀엽다 = 위험함의 징후"라면, 한나한테는 "귀엽다 = 지금 당장 써봐야 할 신호"야.
🏷️ 태그
- 시기: #2025하
- 주제: #AI툴실험 #이미지생성 #컴퓨터제어 #프롬프트엔지니어링
- 인물: #Alexander Chen
- 자유: #나노바나나 #메타프롬프트 #북마클릿재발견