← 메인으로
EP. 48·25.04.12·⭐⭐⭐·57분 59초

장안의 화제 MCP 바이브코딩으로 접근해보기

코딩 몰라도 AI한테 도구 쥐여주면 그림 그리고 3D 오브젝트 만드는 시대 — MCP가 그 "도구 연결 규약"이고, 최승준이 직접 삽질하면서 증명해줬어.

▶ 유튜브에서 원본 보기← 앞: EP 47. 바이브OO 테스트. (바이브코딩 인트로 세션)→ 다음: EP 49. openAI O3 출시 그리고 구글의 역습

EP 48. 장안의 화제 MCP 바이브코딩으로 접근해보기

🗺️ 이 영상의 위치

⚡ 5분 요약

한 줄

코딩 몰라도 AI한테 도구 쥐여주면 그림 그리고 3D 오브젝트 만드는 시대 — MCP가 그 "도구 연결 규약"이고, 최승준이 직접 삽질하면서 증명해줬어.

핵심 3개

1) MCP가 뭔데 이렇게 난리야? AI(Claude 같은 LLM)가 외부 앱이나 기능을 "도구"로 쓸 수 있게 연결해주는 공통 규약이야. 쉽게 말하면, 인스타 API·유튜브 API 연동할 때 각자 제각각 방식이면 개발자가 매번 새로 짜야 하잖아 — MCP는 그 연동 방식을 하나로 통일한 것. 덕분에 OpenAI, Google, Anthropic이 다 "우리도 쓸게"하고 들어온 거야.

2) 공부 안 하고 바이브코딩으로 MCP 써버림 최승준이 MCP 스펙 문서를 통째로 AI에 붙여넣고 "이거 읽어, 다 읽으면 OK라고 해"→ 그 다음 "SVG로 산타·루돌프·썰매 그려줘" 식으로 말로만 지시했어. 그 결과 실제로 Claude가 그림 요소를 하나씩 추가하는 앱이 완성됐어. 학습 없이도 결과물은 나온다는 걸 라이브로 보여준 거야.

3) "성공하고 나서 프롬프트 역추출" 꿀팁 삽질 끝에 작동하는 코드가 나오면, 그 대화 세션에서 "이거 처음부터 다시 만든다면 나한테 줘야 할 완벽한 프롬프트가 뭐야?"라고 물어봐. 그러면 AI가 최적 프롬프트를 역으로 뽑아줘. 다음엔 그걸로 바로 시작하면 삽질 없이 완성 가능.

가장 인상적인 한 마디

"코드는 안 읽지만 CoT는 읽는다. CoT를 읽으면 흐름이 보이거든요."

한나야, 이게 무슨 말이냐면 — AI가 코드 짜기 전에 "먼저 이렇게 설계하겠습니다" 하고 생각 과정을 글로 써주거든. 코드는 몰라도 그 계획서는 읽을 수 있잖아. 거기서 "어, 이상한 방향으로 가네?" 감지하는 게 진짜 바이브코딩 실력이래.

한나가 지금 당장 시도해볼 것

Claude나 ChatGPT 캔버스 열고 "벚꽃이 휘날리는 애니메이션 만들어줘"라고 딱 한 줄만 쳐봐. 결과물 보고 "나무 추가해줘", "꽃잎 더 많이" 식으로 말로만 수정해봐. 코딩 몰라도 돼 — 이게 바이브코딩의 입구야.

📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)

0~12분: MCP가 뭔지, 왜 갑자기 난리인지

최승준이 화면 공유하자마자 "결론부터 말씀드리면"하고 시작해. 자기가 만든 어설픈 3D 용(龍)을 보여주는데 — 눈이 작고 비율이 이상한, 딱 봐도 AI가 "용이라고 생각하며" 만든 뭔가. 본인도 "전혀 용 같지 않죠" 하고 웃음. 근데 그게 오늘의 핵심 예시야.

노정석이 "MCP가 뭔지 간단히 설명해줄 수 있어요?"라고 끊어. 그때부터 설명 시작. 기존엔 LangChain(AI에 도구 붙이는 오래된 방식)이나 function calling(OpenAI가 만든 AI-도구 연결 방식)이 있었는데, 각자 방식이 달라서 새 앱 연결할 때마다 처음부터 짜야 했대. MCP는 그 "연결 방식"을 하나로 표준화한 것. Anthropic이 만들었는데 OpenAI도, Google도 "우리도 이거 쓸게"하고 합류하고 있어. 노정석이 "function calling의 아주 구체적인 구현 형태"라고 정리해주자 최승준이 "맞습니다, 그렇죠"하고 고개를 끄덕이는 구간.

12~25분: 삽질 과정 — 준비 잘못해서 먼 길 돌아온 이야기

최승준이 "준비 사항에서 제가 좀 고생했습니다"라며 슬슬 본론으로. 핵심 실수는 uv라는 신식 도구를 모르고 예전 방식(Conda)으로 버텼다는 거야. Claude Desktop이 내부적으로 서버를 자동으로 띄우는 구조인데, 거기서 환경이 꼬이면 아무것도 인식을 못 해. "남들 다 하는 거 해야 한다"고 쓴웃음 짓는 최승준.

MCP 공식 문서 전체를 파일로 다운받아서 NotebookLM에 넣고 마인드맵 만든 얘기도 나와. 너무 긴 문서니까 "뭐가 들어 있는지 파악용"으로 쓴 거야. 그다음엔 Gemini Deep Research한테 "이 사이트 공부하고 코드 만들어줘"라고 시켰더니 50페이지짜리 튜토리얼 리포트가 뚝딱. 노정석이 "옛날 같았으면 3개월짜리 프로젝트 완료 보고서"라고 하자 최승준이 "농담 같지만 사실이에요"하고.

25~40분: 실제로 만든 것 — SVG 그림 그리기 앱 라이브 시연

삽질 끝에 완성된 게 뭔지 공개. 화면에 산타클로스 비슷한 뭔가가 떠 있어. 최승준이 "Claude한테 말로 지시하면 SVG 요소가 하나씩 추가됩니다"라고 설명하면서 라이브로 "루돌프 아래에 썰매 그려줘"라고 입력해. 그러자 Claude가 함수(tool)를 호출해서 썰매가 실시간으로 그려져 — 최승준이 만든 서버가 그 다리 역할을 하는 거야.

코드를 보여주는데 핵심 부분은 @tool 데코레이터 — 이걸 붙이면 Claude가 "아, 이 기능을 내가 쓸 수 있구나" 하고 인식해. add_element, modify_element, remove_element 딱 세 가지만 등록해뒀어. 노정석이 "그러면 모델은 이 시각적인 그림을 보는 게 아니라 코드를 보고 있는 거잖아요"라고 짚어주자 최승준이 "맞아요, 근데 멀티모달 버전은 진짜로 화면을 보게 될 거예요"라고 덧붙여.

40~50분: "성공 후 프롬프트 역추출" 그리고 vibe코더의 실력이란

이 구간에서 꿀팁이 나와. 최승준이 작동하는 코드를 완성하고 나서 AI한테 "좋아, 이거 처음부터 만든다면 나한테 줄 완벽한 프롬프트가 뭐야?"라고 물었어. 그랬더니 AI가 깔끔하게 정리된 프롬프트를 역으로 뽑아줘. 그걸 라이브로 새 세션에 붙여넣었더니 처음부터 착착 만들어내는 것도 보여줘.

노정석이 "vibe코딩에 필요한 최소 선행 요건이 뭐냐"고 물어봐. 최승준의 답: 비개발자도 Claude 아티팩트나 ChatGPT 캔버스로 바로 시작할 수 있어. 핵심은 "내가 뭘 만들고 싶다는 구체적인 상(像)". 단, 오늘처럼 서버 띄우고 MCP 연결하는 수준은 파이썬 기초나 터미널 경험 없으면 문턱이 높아. 최승준이 조심스럽게 고백하는 것도 "만들긴 했는데 완전히 내 거가 된 느낌은 아니야"라는 묘한 감정.

50~58분: Google의 AI 에이전트 시대, 그리고 CS 전공 필요한가?

최승준이 Google Cloud Next 2025 발표 영상을 소개해. 칸반 보드(Trello 같은 작업 관리 보드)에서 사람 없이 AI 에이전트들이 버그 수정, 코드 리뷰, 배포를 스스로 돌리고 있는 영상이야. 노정석이 "지금 사람이 안 하고 있는 거죠?"라고 묻자 최승준이 "하고 있는 거죠"라고 담담하게 답해. 구글 내부 코드의 30%가 이미 AI가 생성하고 있다는 얘기도 나와.

마지막은 "CS 전공 꼭 해야 하냐" 토크. 노정석이 요즘 친구들한테 질문 많이 받는다며. 최승준은 "취업 목적이라면 대답이 달라지는 구간이 생겼다"고 해. 학문으로서의 CS는 남아 있지만, '취업을 위한 CS'는 이제 다른 셈법이 필요하다는 뉘앙스. 노정석은 "그래도 데이터 구조·알고리즘 빡세게 하는 과목은 여전히 필요하다고 봐"라고 보충하고 마무리.

💡 한나 버전 사전

"MCP(Model Context Protocol)"이 뭐야?

  • 전문가 설명: Anthropic이 만든, AI가 외부 앱·도구와 소통하는 방식을 표준화한 규약. 서로 다른 AI·앱이 이 규약만 따르면 쉽게 연결됨.
  • 한나 버전: 인스타·유튜브·틱톡이 각자 다른 방식으로 협찬 계약 요청하면 크리에이터가 매번 새 서류 양식 써야 잖아. MCP는 "협찬 요청서 양식 통일본"이야. 한 번만 배우면 어디서든 써먹어.

"Function Calling"이 뭐야?

  • 전문가 설명: AI에게 "이런 기능들을 쓸 수 있어"라고 미리 알려주면, AI가 대화 중 필요할 때 그 기능을 직접 실행하는 방식.
  • 한나 버전: 편집자한테 "내 구글 드라이브 접근권, 캘린더 접근권 다 줄게"하고 주면, 편집자가 알아서 필요할 때 꺼내 쓰는 거야. AI한테 그 권한 목록을 주는 게 function calling.

"바이브코딩(Vibe Coding)"이 뭐야?

  • 전문가 설명: 코드를 직접 쓰지 않고 말(자연어)로만 AI에게 지시해서 소프트웨어를 만드는 방식.
  • 한나 버전: 영상 편집 몰라도 "2분에 자막 넣어줘, 배경음 깔아줘"라고 말로만 편집자한테 지시하는 것처럼, AI한테 "버튼 추가해줘, 색 바꿔줘"라고 말만 하면 코드가 나오는 거야.

"uv"가 뭐야?

  • 전문가 설명: Python 패키지(도구 모음)를 초고속으로 설치하고 관리하는 신식 툴. 기존 pip보다 훨씬 빠름.
  • 한나 버전: 예전엔 앱 하나 설치에 5분 걸렸는데, uv는 같은 걸 3초에 끝내. 요즘 개발자들 사이 필수템이 됐어.

"CoT(Chain of Thought)"가 뭐야?

  • 전문가 설명: AI가 답을 내기 전에 "먼저 이렇게 생각하겠습니다"라고 풀어쓰는 추론 과정.
  • 한나 버전: 편집자가 영상 시작 전에 "오프닝은 이렇게, 중간은 이렇게, 마무리는 이렇게 할게요"라고 기획안 먼저 보내주는 것. 코드는 몰라도 그 기획안은 읽을 수 있잖아 — 거기서 방향이 이상하면 잡아주는 게 바이브코딩 실력.

"SVG"가 뭐야?

  • 전문가 설명: 웹에서 벡터 그래픽(확대해도 안 깨지는 그림)을 코드로 표현하는 형식.
  • 한나 버전: 일러스트레이터로 만든 로고처럼 아무리 키워도 안 깨지는 이미지인데, 코드로 만들 수 있어. "SVG로 그려줘"라고 하면 AI가 그 코드를 써서 그림을 만들어줘.

"A2A(Agent-to-Agent)"가 뭐야?

  • 전문가 설명: Google이 만든 규약으로, AI 에이전트끼리 서로 소통하고 협력하도록 하는 프로토콜.
  • 한나 버전: 편집자 에이전트, 자막 에이전트, 섬네일 에이전트가 서로 메신저로 "나 편집 끝났어, 이제 자막 해줘"라고 연락하며 일을 넘기는 구조. MCP가 AI-앱 연결이라면, A2A는 AI-AI 연결이야.

"칸반(Kanban)"이 뭐야?

  • 전문가 설명: 할 일 / 진행 중 / 완료 세 칸으로 작업을 시각화해서 관리하는 방법론. Trello가 대표적.
  • 한나 버전: 콘텐츠 캘린더 보드에 "기획 → 촬영 → 편집 → 업로드" 칸 만들어두고 포스트잇 옮기는 거 있잖아. 그게 칸반이야. Google 발표에서 그 보드를 AI들이 알아서 움직이고 있었던 거야.

"Deep Research"가 뭐야?

  • 전문가 설명: Gemini(Google AI)나 ChatGPT에 있는 기능으로, 웹을 자동으로 검색·종합해서 긴 리포트를 만들어주는 모드.
  • 한나 버전: "이 키워드로 인터넷 싹 뒤져서 50페이지 보고서 만들어줘"가 가능한 기능. 최승준이 MCP 공부하러 이걸 써서 리포트를 뚝딱 만들었어.
🔥 노정석 어록 모음

"코드를 일단 읽지 않는다. vibe coding의 기본을 제가 잠시 잊고 있었네요."

분위기: 최승준이 코드 붙여넣고 바로 실행 확인 들어가자, 노정석이 "코드 한 번 보시죠"라고 했다가 스스로 정정하며 웃음기 섞인 자기반성 톤.

한나 풀이: 바이브코딩의 핵심 마인드셋이야. 코드 이해하려고 붙잡고 있으면 진도가 안 나가. 일단 돌려보고 결과물이 원하는 방향이면 OK, 아니면 말로 수정 요청. 이게 새로운 작업 방식이야.


"그거 프롬프트 하면 되는 거 아니야?라고 하지만 프롬프트 한 번에 일이 완성되는 경우를 제가 잘 본 적이 없거든요."

분위기: AI 리터러시 얘기 나오면서 진지하게 짚는 톤. 주변에서 AI 쉽게 보는 사람들한테 하고 싶은 말 같은 분위기.

한나 풀이: "프롬프트 잘 쓰면 되잖아"라고 하는 사람들한테 노정석이 직접 반박한 거야. AI랑 계속 티키타카하면서 방향 잡아가는 게 실력이고, 그건 연습으로 쌓이는 거야. 콘텐츠 방향성 잡는 거랑 똑같아 — 한 번에 완벽한 기획이 나오는 게 아니잖아.


"이미 사실 안에서 써지는 코드의 거의 몇십 퍼센트가 AI가 쓰고 있는 코드라고 하잖아요."

분위기: Google AI 에이전트 영상 보고 난 후, 살짝 무게감 있게 던지는 톤. 농담이 아니라는 걸 본인도 아는 표정.

한나 풀이: Google 내부에서 이미 30% 코드를 AI가 짜고 있어. 이게 크리에이터 세계로 치면 콘텐츠의 30%를 AI가 만들고 있는 수준이야. 이 흐름이 빠르게 100%를 향해 가고 있다는 게 무서운 포인트.

🎬 한나 적용 포인트

① 긴 문서는 통째로 AI에 박아버려 MCP 100페이지짜리 스펙 문서를 최승준이 그냥 AI한테 통째로 넣었잖아. 한나도 브랜드 제안서, 계약서, 협업 가이드라인 같은 거 받으면 다 읽으려고 하지 말고 Claude나 Gemini에 "이거 다 읽고, 내가 알아야 할 핵심 3가지랑 주의해야 할 조항 뽑아줘"라고 해봐. 시간 절약 엄청남.

② 협업 완료 후 "최적 프롬프트 역추출"하기 AI랑 콘텐츠 기획을 같이 했는데 좋은 결과가 나왔어? 그 대화 끝에 "이걸 다음에 바로 뽑으려면 처음부터 나한테 어떻게 물어봤어야 해?"라고 물어봐. 그게 너만의 기획 프롬프트 템플릿이 돼. 브랜드 협찬 제안, 콘텐츠 기획, 캡션 작성 — 다 써먹을 수 있어.

③ 대화 끝에 "부산물" 챙기기 최승준이 코딩 세션 끝에 프롬프트 역추출을 챙겼듯이, 한나도 AI랑 어떤 작업 끝내고 나서 "이 과정에서 내가 다음에 쓸 수 있는 템플릿이나 체크리스트 뽑아줘"라고 해봐. 메인 작업물 외에 부산물로 나오는 게 오히려 더 오래 써먹히는 자산이 돼.

🏷️ 태그