← 메인으로
📖 통합 용어 사전

용어 사전 · 516

영상에 등장한 어려운 용어를 한나 비유로 풀어 둔 통합 사전

#

  • 100x 엔지니어(100x 엔지니어(100x employee))

    - 전문가 설명: AI를 도구로 쓰는 게 아니라, AI를 활용한 자동화 시스템을 직접 설계해서 혼자 수천 배의 작업량을 처리하는 사람. - **한나 버전**: 협찬 문의 답장을 ChatGPT로 빠르게 쓰면 10x야. 그런데 협찬 제안서 자동 분류→답장 초안 생성→계약서 초안까지 이어지는 자동화 파이프라인을 혼자 만들어버리면 100x지. 너 손 안 대도 돌아가는 시스템을 만드는 사람.
    출처 ·EP. 67
  • 3B 모델

    - 전문가 설명: 파라미터(AI가 학습한 정보의 단위)가 30억 개인 언어 모델. 숫자가 클수록 보통 똑똑하고 무거워. - **한나 버전**: 유튜브 채널에 비유하면 구독자 수 같은 거야. 3B는 소형 채널, GPT-4는 수백억짜리 메가 채널. 작은 채널이 핸드폰에서 돌고, 어려운 건 큰 채널(ChatGPT)로 외주 보내는 구조야.
    출처 ·EP. 18
  • 9의 행진(9의 행진(March of Nines))

    - 전문가 설명: Andrej Karpathy가 제안한 개념. 90%→99%→99.9%→99.99%로 올라갈수록, 각 단계에 필요한 노력이 같은 크기로 증가함. - **한나 버전**: 릴스 조회수 1만→10만→100만 올리는 거랑 비슷해. 10만까지는 트렌드 타면 가는데, 100만은 콘텐츠 퀄리티의 완성도가 다른 수준이어야 하잖아. AI가 90%는 뚝딱 해주는데, 나머지 9.99%를 채우는 건 결국 인간의 취향과 경험이라는 거야.
    출처 ·EP. 87

  • 가우시안 분포(가우시안 분포(Gaussian Distribution))

    - 전문가 설명: 평균을 중심으로 좌우 대칭인 종 모양 확률 분포. 자연계에서 매우 흔하게 나타남. - **한나 버전**: 유튜브 영상 댓글 반응처럼, 대부분 중간쯤 반응이고 극단적으로 좋아하거나 싫어하는 사람은 드문 분포야. 키 분포, 시험 점수 분포, 거의 다 이 종 모양으로 나와.
    출처 ·EP.
  • 강화 학습(강화 학습(RL, Reinforcement Learning))

    - 전문가 설명: 에이전트가 환경 속에서 행동하고, 보상을 최대화하도록 스스로 학습하는 방법. - **한나 버전**: 유튜브 알고리즘이 "이 콘텐츠 올렸더니 조회수 터졌다 → 이런 포맷 더 올려라" 하고 너한테 신호를 주는 것처럼, AI도 "이렇게 했더니 정답 → 이 패턴 더 쓰자"를 스스로 배우는 거야.
    출처 ·EP. 61EP. 75
  • 강화학습(강화학습(RL))

    - 전문가 설명: 보상 신호를 기반으로 모델이 더 좋은 방향으로 스스로 학습하는 방식. - **한나 버전**: 알고리즘이 한나 영상에 "좋아요 많이 받으면 보상, 이탈 많으면 벌칙" 이렇게 규칙 주면 AI가 스스로 더 좋은 콘텐츠 구조 찾아가는 거야. AlphaGo도 이걸로 바둑 배웠어.
  • 공급망 공격(공급망 공격(Supply Chain Attack))

    - 전문가 설명: 많이 쓰이는 오픈소스 라이브러리에 악성 코드를 심어서, 그 라이브러리를 쓰는 모든 서비스에 피해를 주는 해킹 방식이야. - **한나 버전**: 유명 크리에이터가 쓰는 BGM 패키지에 바이러스를 심어두면, 그 BGM 쓰는 영상 다 감염되는 거야. 근원에 독을 심으면 퍼지는 구조.
    출처 ·EP. 93
  • 괴델 불완전성 정리

    - 전문가 설명: 어떤 논리 체계든 자기 자신을 참조하면 참이지만 그 체계 안에서는 증명할 수 없는 명제가 반드시 존재한다는 수학적 증명. - **한나 버전**: "이 영상은 거짓말이다"라고 쓴 유튜브 영상 같은 거야. 참이면 거짓이고, 거짓이면 참이 되는 모순. 어떤 규칙 체계도 완벽할 수 없다는 뜻이야. 노정석은 이게 새로운 레벨이 탄생하는 원리라고 봐.
    출처 ·EP. 79
  • 그라운딩(그라운딩(Grounding))

    - 전문가 설명: LLM이 모르는 개인 데이터나 최신 정보를 프롬프트 앞에 미리 삽입해서, AI가 마치 알고 있는 것처럼 답할 수 있게 하는 기법. - **한나 버전**: 협찬 브리핑이야. 브랜드 담당자가 "우리 제품 이런 거야, 이 포인트 강조해줘"라고 문서를 미리 보내주잖아. 그 문서를 먼저 읽은 다음에 영상 찍는 거랑 똑같아. 그냥 맨땅에서 찍으면 엉뚱한 말이 나오는 거고(할루시네이션), 브리핑 받고 찍으면 딱 맞는 콘텐츠가 나오는 거지.
    출처 ·EP. 3

  • 나노 바나나(나노 바나나(Nano Banana))

    - 전문가 설명: 구글이 2025년 공개한 이미지 생성·편집 AI. 그림을 그리거나 수정하면서 대화하듯 쓸 수 있는 게 특징. - **한나 버전**: 유튜브 썸네일 만들 때 "이 느낌으로 수정해줘, 이제 이걸 추가해줘" 하면서 채팅하듯 이미지를 다듬을 수 있는 AI야. 캔바에서 AI 기능이 훨씬 강력해진 버전이라 생각하면 돼.
    출처 ·EP. 67.5
  • 논-버리파이어블(논-버리파이어블(Non-Verifiable) 도메인)

    - 전문가 설명: 결과의 정답 여부를 객관적으로 판별하기 어려운 영역. 미적 판단, 취향, 감성 등. - **한나 버전**: "이 썸네일이 내 채널에 맞냐"는 AI한테 물어봐도 몰라. 내 팔로워만 알지. 이런 게 논-버리파이어블 도메인이야. 여기가 한나만의 데이터가 쌓이는 공간이거든.
    출처 ·EP.
  • 뉴런(뉴런(Neuron) / 피처(Feature))

    - 전문가 설명: AI 내부의 연산 단위. 특정 개념(예: 금문교)에 반응하는 특정 뉴런이 있다는 게 이번 연구의 핵심. - **한나 버전**: AI 뇌 속에 "이 단어 나오면 켜지는 전구"들이 있어. Anthropic이 그 전구 하나하나가 어떤 개념에 반응하는지 지도를 그리기 시작한 거야.
    출처 ·EP. 14

  • 다음 토큰 예측(다음 토큰 예측(Next Token Prediction))

    - 전문가 설명: AI가 문장을 학습할 때 "다음에 올 단어가 뭘까"를 맞추는 훈련 방식. 현재 거의 모든 대형 언어 모델의 핵심 학습법이야. - **한나 버전**: 유튜브 알고리즘이 "이 영상 본 사람은 다음에 뭘 클릭할까"를 예측해서 추천해주잖아. 그거랑 비슷한데, AI는 단어 수준에서 같은 걸 수십억 번 하면서 세상 이해력을 키우는 거야.
    출처 ·EP.
  • 덜컹

    - 전문가 설명: AI도 막히고, 사람도 막히고, 반복해도 안 풀리는 난항 구간. - **한나 버전**: 유튜브 쇼츠로 팔로워 올리려고 온갖 방법 써봤는데 조회수가 안 오르는 그 답답한 구간이야. 뭔가 방법을 바꿔야 되는데 뭘 바꿔야 할지 모르는 상태. ---
    출처 ·EP. 89
  • 도그푸딩(도그푸딩(Dogfooding))

    - 전문가 설명: 자기 회사 제품을 내부 직원들이 직접 사용해서 문제를 발견하고 개선하는 개발 문화. - **한나 버전**: 한나가 자기 뷰티 브랜드 화장품을 실제로 매일 쓰면서 브이로그 찍는 거야. 그게 마케팅도 되고, 진짜 문제점도 발견하고, 팔로워 신뢰도 올라가는 선순환. Lovable 팀이 이걸 극단적으로 했어.
    출처 ·EP. 66
  • 도망자 연합(도망자 연합(Fugitive Alliance))

    - 전문가 설명: 노정석·최승준이 만든 AI 시대 대응 커뮤니티. AI 발전에 불안감을 느끼는 사람들이 모여 서로 연대하고 문제를 함께 푸는 모임. - **한나 버전**: AI 때문에 어디로 가야 할지 모르는 크리에이터·사업가들이 "일단 모여서 서로 얘기해보자"고 만든 소규모 스터디 + 네트워킹 커뮤니티야. "도망자"는 AI 물결에서 도망가는 게 아니라 새 길 찾아 전력 질주하는 사람들의 반어적 표현이야.
    출처 ·EP. 79
  • 도메인 스페시픽 랭귀지(도메인 스페시픽 랭귀지(domain-specific language))

    - 전문가 설명: 특정 분야에서만 쓰이는 전문 용어와 표현들로 구성된 언어 체계. - **한나 버전**: 사진 작가한테 "빛 느낌 있게 찍어줘"가 아니라 "황금빛 아워, 역광, 조리개 f1.8로 보케 살려줘"라고 말하는 것처럼, 전문 분야 용어로 딱딱 박아서 요청하는 거야. 결과물 퀄리티가 확 달라지거든.
    출처 ·EP. 67.5
  • 디스틸레이션(디스틸레이션(Distillation, 증류))

    - 전문가 설명: 크고 똑똑한 모델이 만든 고품질 답변 데이터를 작은 모델에게 학습시켜서 성능을 끌어올리는 기법. - **한나 버전**: 팔로워 1,000만인 크리에이터가 만든 콘텐츠 공식을 분석해서 신입 크리에이터한테 "이 구조로 만들어봐" 하고 가르치는 거야. 신입이 혼자 1,000만 가는 것보다 훨씬 빠르게 성장하는 거거든. ---
    출처 ·EP. 42
  • 디지털 지능

    - 전문가 설명: 힌튼이 AGI 대신 쓴 표현. 실리콘 기반, 즉 컴퓨터 위에서 작동하는 지능을 생물학적 지능(인간)과 구분해서 부르는 말. - **한나 버전**: "사람 뇌"랑 "AI 두뇌"를 따로 부르는 거야. 힌튼은 이 둘이 근본적으로 다른데 AI 쪽이 더 빠르게 강해진다고 본 거지.
    출처 ·EP.
  • 딥 리서치

    - 전문가 설명: AI가 단순 답변 대신 여러 출처를 자율적으로 검색·정리해서 긴 리포트를 만들어주는 기능. - **한나 버전**: 브랜드 협찬 제안서 쓸 때, AI한테 "이 브랜드 조사해줘"라고 하면 알아서 인터넷 뒤져서 10페이지짜리 분석서를 써주는 기능이야. 오픈AI가 먼저 내놨고, 구글도 따라 붙었어.
    출처 ·EP. 46

  • 딸깍

    - 전문가 설명: AI에게 지시를 주면 클릭 몇 번 만에 결과물이 나오는, 거의 즉각적인 생성의 순간. - **한나 버전**: 틱톡 트렌드 잡아서 "이거 해볼까?" 하자마자 영상이 바로 완성되는 느낌이야. AI한테 "3D 캐릭터 만들어줘" 했더니 30분 만에 완성되는 그 순간이 딸깍. ---
    출처 ·EP. 89

  • 러다이트 운동

    - 전문가 설명: 19세기 영국 산업혁명 때 기계에 일자리를 빼앗긴 직물 노동자들이 공장 기계를 파괴한 저항 운동. - **한나 버전**: "AI가 내 콘텐츠 다 만들어버리면 크리에이터 필요 없어지는 거 아냐?" 하고 두려워하면서 AI 쓰기를 거부하는 심리랑 비슷한 거야. 근데 노정석은 그 두려움 당사자로서 "이제 다음 판을 봐야 한다"고 방향을 틀고 있어. ---
    출처 ·EP. 67EP. 89
  • 레지오 에밀리아(레지오 에밀리아(Reggio Emilia))

    - 전문가 설명: 이탈리아 북부 소도시. 2차 세계대전 이후 주민들이 직접 만든 유아 교육 시스템으로, 전 세계 교육계에서 "탐구 중심 교육"의 성지로 불림. - **한나 버전**: 유튜브에서 알고리즘 따르지 않고 "내 콘텐츠 철학"으로 채널을 키워서 전 세계 크리에이터들이 배우러 오는 채널이 있다고 상상해봐. 레지오 에밀리아가 교육계에서 그런 곳이야.
    출처 ·EP. 76
  • 로지스틱 회귀(로지스틱 회귀(Logistic Regression))

    - 전문가 설명: 입력값을 받아 0~1 사이 확률을 출력하는 이진 분류 모델. 딥러닝의 기본 단위인 뉴런 하나와 같은 구조. - **한나 버전**: 영상 썸네일을 보고 "클릭할 것 같냐 아니냐"를 확률로 뱉어주는 공식이야. 100% 클릭이면 1, 절대 안 클릭이면 0, 애매하면 0.6 이런 식으로 숫자를 뱉어주는 거지.
    출처 ·EP.
  • 롤업(롤업(Roll-up))

    - 전문가 설명: 같은 업종의 작은 회사들을 여러 개 인수해서 하나로 합치고 규모의 경제를 만드는 투자 전략. - **한나 버전**: 작은 MCN 여러 개를 한 회사가 다 사서 촬영 장비·편집 인력 공유하고 광고 단가 올리는 거랑 같아.
    출처 ·EP. 59
  • 루브릭(루브릭(Rubric))

    - 전문가 설명: AI 응답의 좋고 나쁨을 판단하는 세부 평가 항목 목록. 보상 신호를 만드는 데 사용. - **한나 버전**: 영상 퀄리티 체크리스트랑 같아. "썸네일에 얼굴 있는지, 자막 있는지, 첫 3초에 훅 있는지" 같은 항목들. AI 훈련에선 이걸 자동으로 점수 매기는 데 써.
    출처 ·EP. 62EP. 69
  • 리워드 펑션(리워드 펑션(Reward Function))

    - 전문가 설명: 강화학습에서 AI가 어떤 행동이 '좋은 것'인지 판단하는 기준. 점수판. - **한나 버전**: 유튜브 알고리즘의 '좋아요 수+시청 완료율'이 리워드 펑션이야. 이 기준이 명확하면 AI도 최적화할 수 있어. 근데 "이 영상이 내 브랜드 이미지에 맞냐"는 리워드 펑션을 못 만들잖아.
    출처 ·EP.

  • 마태 효과

    - 전문가 설명: 성경 마태복음에서 나온 말로, "있는 자는 더 받고 없는 자는 있는 것마저 빼앗긴다"는 현상. 사회과학에서 부익부 빈익빈을 설명할 때 씀. - **한나 버전**: 팔로워 10만인 사람이 브랜드 딜 먼저 받고 또 팔로워 늘고 또 딜 받는 구조 있잖아. 처음 선점한 사람이 계속 유리해지는 거. 그게 마태 효과야.
    출처 ·EP. 68
  • 멀티 에이전트(멀티 에이전트(Multi-Agent))

    - 전문가 설명: 여러 AI 모델이 서로 다른 역할을 맡아 협력·통신하면서 복잡한 작업을 수행하는 시스템. - **한나 버전**: 한나 혼자 기획·촬영·편집 다 하는 게 싱글 에이전트라면, 기획팀·편집팀·자막팀이 따로 있고 한나가 총괄하는 게 멀티 에이전트야. 각 팀이 AI고, 총괄도 AI인 버전.
    출처 ·EP. 69
  • 멀티모달(멀티모달(Multimodal))

    - 전문가 설명: 텍스트뿐 아니라 이미지·음성·영상 등 여러 형태의 정보를 동시에 처리하는 AI 능력. - **한나 버전**: 예전 AI는 문자 DM만 읽었는데, 이제 사진 보내도 이해하고, 목소리로 말해도 알아듣는 거야. 인스타 DM에서 사진·음성메시지·텍스트 다 처리하는 느낌.
  • 멀티에이전트(멀티에이전트 (Multi-Agent))

    - 전문가 설명: AI 한 명이 아니라 여러 AI가 각자 역할을 맡아 동시에 일하는 구조. 서로 소통하거나, 각자 따로 돌기도 해. - **한나 버전**: 유튜브 채널 운영할 때 편집 담당, 썸네일 담당, 댓글 담당을 따로 두는 것처럼, AI도 역할별로 쪼개서 굴리는 거야. 근데 담당자들끼리 소통이 안 되면 서로 겹치고 충돌해.
    출처 ·EP. 50
  • 메모리 기능

    - 전문가 설명: ChatGPT가 과거 대화 전체를 참조해 현재 대화에 반영하는 기능. RAG 방식으로 관련 대화를 불러옴 - **한나 버전**: AI가 한나의 모든 DM 히스토리를 기억하는 비서야. "아, 너 지난달에 뷰티 브랜드 협업 얘기했잖아. 그거 관련해서 이번 달 트렌드 찾아왔어"처럼 맥락을 이어가는 거.
    출처 ·EP. 49
  • 메타 프롬프트(메타 프롬프트(meta-prompt))

    - 전문가 설명: AI에게 지시하는 문장(프롬프트)을 만들어내는 또 다른 프롬프트. 즉 '프롬프트를 만드는 프롬프트'. - **한나 버전**: 콘텐츠 기획서를 쓰면 → AI가 그걸 보고 유튜브 제목 후보 10개를 뽑아주는 시스템 같은 거야. 네가 직접 제목을 고민하는 게 아니라, AI가 제목 후보를 쏟아내는 도구 자체를 AI가 만들어준 거지.
    출처 ·EP. 67.5
  • 메타프롬프트(메타프롬프트(Meta-prompt))

    - 전문가 설명: 유저에게 보이지 않는 배경 지시문. AI의 역할, 태도, 금지 사항 등을 미리 세팅해놓는 텍스트. - **한나 버전**: 콘텐츠 매니저가 한나한테 미리 보내는 "오늘 라이브 주의사항" 문서야. "경쟁 브랜드 언급 금지, 긍정적 톤 유지, 가격 얘기는 DM 유도" 같은 거. 유저(시청자)는 못 보지만 AI는 항상 이걸 들고 대화하는 거야.
    출처 ·EP. 3
  • 멱법칙(멱법칙(Power Law))

    - 전문가 설명: 소수의 상위 성과자가 전체 결과의 대부분을 차지하는 통계적 분포. 파레토 법칙(20:80)과 같은 맥락. - **한나 버전**: 인스타에서 상위 5% 인플루언서가 전체 광고비의 80%를 가져가는 것처럼, 투자판에서도 소수의 스타트업이 전체 수익을 독식해. 장원준은 AI판에서 그 소수가 OpenAI·Anthropic이라고 보는 거야.
    출처 ·EP. 66
  • 멱함수 분포 / Power-law

    - 전문가 설명: 상위 소수가 압도적 점유율을 갖고, 나머지는 긴 꼬리를 이루는 분포. 유튜브 조회수 분포 같은 것. - **한나 버전**: 딱 유튜브야. 상위 0.1% 채널이 전체 조회수의 대부분 먹고, 나머지 수백만 채널이 꼬리처럼 붙어있는 그 구조.
    출처 ·EP. 7

  • 바이브 코딩(바이브 코딩(Vibe Coding))

    - 전문가 설명: 코딩 지식 없이 AI(Claude, Gemini 등)에게 말로 설명해서 원하는 프로그램을 만들게 하는 방식. 2025년에 급속도로 퍼진 개발 방식. - **한나 버전**: 캡컷 같은 편집 툴 몰라도 "여기에 자막 넣고, 여기서 화면 전환해줘"라고 AI한테 말로 시키면 영상이 만들어지는 것처럼, 코딩도 말로 시키는 거야. 한미유치원 선생님들이 지금 이걸 하고 있어.
  • 바이브코딩(바이브코딩(Vibe Coding))

    - 전문가 설명: 코드를 직접 쓰지 않고 말(자연어)로만 AI에게 지시해서 소프트웨어를 만드는 방식. - **한나 버전**: 영상 편집 몰라도 "2분에 자막 넣어줘, 배경음 깔아줘"라고 말로만 편집자한테 지시하는 것처럼, AI한테 "버튼 추가해줘, 색 바꿔줘"라고 말만 하면 코드가 나오는 거야.
    출처 ·EP. 48
  • 백프로파게이션(백프로파게이션(backpropagation))

    - 전문가 설명: AI가 틀렸을 때 오류를 역방향으로 전달해서 스스로 가중치를 수정하는 학습 알고리즘. 딥러닝의 핵심 기법. - **한나 버전**: 영상 올렸다가 반응 없으면 뭐가 문제였는지 되짚어서 다음 영상에 반영하는 거잖아. AI도 답 틀리면 거꾸로 되돌아가서 "어디서 틀렸지" 고치는 과정인데, 이걸 엄청 빠르게 반복하는 거야.
    출처 ·EP. 1EP. 57
  • 버티컬(버티컬(Vertical))

    - 전문가 설명: 특정 산업이나 직군에 특화된 서비스 영역. 모든 분야를 다루는 수평(horizontal)의 반대. - **한나 버전**: 인스타 전용 앱, 유튜브 전용 앱처럼 딱 한 분야만 파는 거야. Cursor는 코딩 분야의 버티컬 AI야.
    출처 ·EP. 52EP.
  • 버티컬 서비스 / 수직 통합

    - 전문가 설명: 특정 산업 분야 하나를 처음부터 끝까지 전부 커버하는 서비스. 콘텐츠 제작부터 유통·판매까지 다 자기 손 안에서. - **한나 버전**: 한나가 인스타 → 유튜브 → 굿즈 → 자체몰까지 다 연결해서 팔로워가 한나 생태계 안에서만 돌아다니게 만드는 것. 뷰티 크리에이터가 직접 브랜드까지 운영하면 브랜드가 혼자 광고하는 것보다 훨씬 강한 이유가 이거야.
    출처 ·EP.
  • 버티컬 AI(버티컬 AI(Vertical AI))

    - 전문가 설명: 특정 산업이나 업무 분야에 특화된 AI 솔루션. 범용 AI와 달리 한 영역을 깊게 파는 방식. - **한나 버전**: 챗GPT는 뭐든 다 하는 제너럴리스트 인플루언서고, 버티컬 AI는 "손해사정만 해줘요" "법률 서류만 써줘요" 같은 전문 니치 계정이야. 팔로워 수는 적어도 협찬 단가가 훨씬 높은 것처럼, 특화할수록 기업 가치가 높아져.
    출처 ·EP. 66
  • 번들·언번들(번들·언번들(Bundle·Unbundle))

    - 전문가 설명: 번들은 여러 서비스를 묶어서 한 플랫폼에 가두는 것. 언번들은 그 묶음을 쪼개서 각각 독립적으로 쓸 수 있게 분해하는 것. - **한나 버전**: 네이버가 "검색도 네이버, 쇼핑도 네이버, 뉴스도 네이버" 하면서 다 한 곳에 묶어놓는 게 번들. 유튜브 나오면서 "영상 볼 거면 굳이 네이버 안 가도 돼"가 언번들. 지금 에이전트가 "배민·쿠팡·카카오 다 내가 대신 해줄게"라고 나온 게 기존 앱들의 언번들이야.
    출처 ·EP. 91
  • 베이즈 정리(베이즈 정리(Bayes' Theorem))

    - 전문가 설명: 새로운 증거(데이터)가 들어올 때마다 기존 확률 추정을 업데이트하는 수학 공식. - **한나 버전**: 협찬 제안을 수락할지 판단할 때 — "저번에 비슷한 브랜드 했더니 반응 별로였어"라는 경험(데이터)을 쌓을수록 다음 판단이 더 정확해지잖아. 그 과정을 수식으로 쓴 게 베이즈야.
    출처 ·EP. 16
  • 벤치마크(벤치마크(Benchmark))

    - 전문가 설명: AI 모델의 능력을 비교하기 위해 만든 표준화된 시험 문제 세트. - **한나 버전**: 인스타 팔로워 수, 조회수, 저장수처럼 "이 기준으로 비교해보자"는 AI판 KPI야. 근데 노정석이 지적하듯 목적(벤치마크)이 생기면 AI가 거기에 맞춰 다 해결해버리는 게 문제야.
  • 부트스트래핑(부트스트래핑(Bootstrapping))

    - 전문가 설명: 외부 투자 없이 자체 수익이나 개인 자금으로만 회사를 키우는 방식. - **한나 버전**: 브랜드 협찬이나 투자자 없이, 콘텐츠 수익만으로 사업을 키우는 거야. Midjourney가 딱 이렇게 했어 — 투자 안 받겠다고 선언하고 Discord로만 굴렸지.
    출처 ·EP. 52EP. 66
  • 북마클릿(북마클릿(bookmarklet))

    - 전문가 설명: 브라우저 북마크에 JavaScript 코드를 심어서, 클릭 한 번으로 원하는 기능을 실행하는 미니 프로그램. - **한나 버전**: 크롬 북마크바에 '마법 버튼' 하나 만들어두고, 누르면 지금 보고 있는 AI 대화 내용이 자동으로 복사되는 거야. 확장 프로그램 설치 없이, 구글 계정만 있으면 모든 기기에서 싱크돼.
    출처 ·EP. 67.5
  • 비정형 데이터

    - 전문가 설명: 정해진 형식 없이 자유롭게 입력된 데이터. 엑셀 칸에 넣기 어려운 메모, 댓글, 설명 텍스트 같은 것들. - **한나 버전**: 브랜드 협찬 요청 DM들이 전부 다 다른 양식으로 오잖아. 누구는 예산 먼저 쓰고, 누구는 일정 먼저 쓰고. 그걸 스프레드시트로 정리하기 너무 힘들잖아. 노정석이 그 작업을 AI한테 다 시킨 거야.
    출처 ·EP. 19

  • 사후 훈련 / 파인튜닝

    - 전문가 설명: 대형 AI 모델을 학습 완료한 뒤, 추가로 특정 방향으로 성능을 조정하는 작업. - **한나 버전**: 유튜브 채널 개설(=기본 모델 학습)은 끝났는데, 썸네일 스타일·말투·편집 템포를 계속 다듬어서 구독자 반응 높이는 과정이랑 비슷해. 채널 자체를 다시 만드는 게 아니라 '운영 방식'을 튜닝하는 거야.
    출처 ·EP. 46
  • 상전이

    - 전문가 설명: 물리학 용어. 물이 액체에서 기체로 바뀌듯, 시스템이 완전히 다른 상태로 넘어가는 것. - **한나 버전**: 릴스가 처음 나왔을 때 인스타가 완전히 달라진 느낌 있잖아. 그냥 조금 변한 게 아니라 룰 자체가 바뀐 거. 그게 상전이야.
    출처 ·EP. 68
  • 샌드박스(샌드박스(Sandbox))

    - 전문가 설명: 외부와 격리된 안전한 실행 환경. 인터넷 접속이 안 되고 시스템 밖으로 영향을 줄 수 없어. - **한나 버전**: 콘텐츠 올리기 전에 임시 비공개 계정에서 먼저 테스트해보는 것과 비슷해. 뭔 짓을 해도 바깥에 영향 안 가는 안전한 놀이터.
    출처 ·EP. 6
  • 선제성(선제성(proactivity))

    - 전문가 설명: AI가 사용자가 요청하기 전에 먼저 유용한 제안을 하는 능력. - **한나 버전**: 편집자가 "오늘 영상 어떻게 할까요?"라고 기다리는 게 아니라, "이 부분 B-roll 넣으면 조회수 더 나올 것 같아요, 해볼까요?" 먼저 제안하는 것과 같아. AI가 그 편집자처럼 움직이기 시작했다는 거야.
    출처 ·EP. 67.5
  • 소스맵(소스맵(Source Map))

    - 전문가 설명: 컴파일(암호화) 된 코드를 원본 소스코드와 연결해주는 파일이야. 개발 디버깅용으로 쓰이는데, 이게 같이 유출되면 원본 코드를 그대로 복원할 수 있어. - **한나 버전**: 영상을 내보낼 때 원본 편집 프로젝트 파일(.prproj)도 같이 실수로 올린 거야. 렌더링된 영상만 봐서는 편집 구조를 모르는데, 프로젝트 파일 있으면 다 보이잖아.
    출처 ·EP. 93
  • 소프트웨어 1.0 / 2.0 / 3.0

    - 전문가 설명: 카르파티가 만든 프레임. 1.0은 규칙 기반 코드, 2.0은 데이터로 학습하는 딥러닝, 3.0은 자연어로 지시하면 LLM이 실행하는 방식. - **한나 버전**: 콘텐츠 만드는 방식이 바뀐 거랑 똑같아. 처음엔 대본 쓰고 편집 직접 하고(1.0), 그다음엔 알고리즘 학습해서 최적화하고(2.0), 이제는 그냥 "이런 느낌으로 만들어줘"라고 말하면 AI가 대신 만들어주는 게(3.0)인 거야.
    출처 ·EP. 57
  • 수직 통합(수직 통합 (vertical integration))

    - 전문가 설명: 기획-생산-유통-판매를 한 회사가 처음부터 끝까지 다 하는 구조. - **한나 버전**: 브랜드 콜라보 중개업체 끼지 않고, 네가 직접 브랜드 발굴하고 콘텐츠 찍고 편집하고 올리고 판매까지 연결하는 것. 중간 단계 없애고 혼자 다 먹는 구조가 수직 통합이야.
    출처 ·EP. 45
  • 숙의 민주주의

    - 전문가 설명: 다양한 의견을 가진 사람들이 충분히 토론한 뒤 결정을 내리는 민주주의 방식. 단순 다수결이 아니라 과정을 중시해. - **한나 버전**: 인스타 라이브에서 팔로워들이랑 오래 토론하면서 방향 정하는 느낌? 그걸 AI로 시뮬레이션할 수 있다는 거야.
    출처 ·EP.
  • 스캐폴딩

    - 전문가 설명: 교육학에서 온 개념. 학습자가 어려운 것을 스스로 해내도록 임시 도움 계단을 놔주는 것. AI한테 어려운 문제를 바로 던지지 않고, 쉬운 문제부터 풀게 해서 맥락을 쌓아주는 방식. - **한나 버전**: 브랜드 협업 제안서를 AI한테 갑자기 "써줘" 하면 엉망이 나와. 근데 "먼저 내 채널 소개 문장 써줘 → 이 브랜드 어울리는 이유 써줘 → 이제 제안서 써줘" 이렇게 단계 밟으면 훨씬 잘 나와. 그게 스캐폴딩이야. ---
    출처 ·EP. 87EP. 89
  • 스컹크웍스(스컹크웍스(Skunkworks))

    - 전문가 설명: 경쟁사 빅 이벤트 직전에 관련 주제를 먼저 발표해서 상대방 발표의 임팩트를 줄이는 전략. - **한나 버전**: 경쟁 크리에이터가 대형 콜라보 발표하기 직전에, 내가 먼저 비슷한 콘텐츠 올려서 "원조는 나야" 분위기 만드는 거야. OpenAI가 이걸 되게 잘 한대.
    출처 ·EP. 52
  • 스케일링(스케일링(Scaling))

    - 전문가 설명: AI 모델의 크기(파라미터 수), 데이터 양, 컴퓨팅 자원을 늘려서 성능을 올리는 것. - **한나 버전**: 구독자 늘리기 같은 거야. 팔로워가 많아질수록 도달 범위가 커지듯, 데이터·연산을 늘릴수록 AI가 더 똑똑해지는 법칙인데, "이 방법도 한계가 있지 않을까?"라는 논쟁이 계속 있어. 근데 Demis는 "아직도 된다"고 해.
    출처 ·EP. 15EP. 80
  • 스케일링 법칙(스케일링 법칙(Scaling Law))

    - 전문가 설명: 연산량을 늘릴수록 AI 성능이 예측 가능한 비율로 좋아진다는 2020년 발표 법칙. - **한나 버전**: 팔로워 늘리려고 포스팅 2배 늘린다고 팔로워가 2배 안 되잖아. 근데 꾸준히 올리면 확실히 올라가긴 해. 그 관계를 수식으로 표현한 게 스케일링 법칙이야. ---
    출처 ·EP. 10EP. 42
  • 스킬(스킬(Skill / Claude Skill))

    - 전문가 설명: 특정 작업 수행에 필요한 프롬프트·코드·예시를 마크다운 파일 구조로 묶어 재사용 가능하게 패키지화한 것 - **한나 버전**: 유튜브 업로드할 때 쓰는 체크리스트 템플릿 있잖아. 그거랑 비슷해. "섬네일 기준", "제목 공식", "CTA 위치" 같은 걸 한 파일로 묶어서 AI한테 매번 같은 방식으로 일 시키는 패키지야.
    출처 ·EP. 82
  • 시그모이드 함수(시그모이드 함수(Sigmoid Function))

    - 전문가 설명: `1 / (1 + e^(-s))`로 표현되는 S자 곡선 함수. 어떤 값이든 0~1 사이로 눌러줌. - **한나 버전**: 조회수가 0~무한대로 나와도, 이걸 "흥행 확률 0~100%" 사이로 환산해주는 변환기야. 아무리 큰 숫자도 1을 넘지 않게, 아무리 작아도 0 밑으로 안 내려가게 꽉 잡아주는 거지.
    출처 ·EP.
  • 시스템 3(시스템 3 (System 3))

    - 전문가 설명: 심리학의 시스템1(빠른 직관)·시스템2(느린 논리) 개념을 AI에 확장한 것. 시스템3는 비동기적으로 오래 생각하다가 나중에 갑자기 인사이트를 내놓는 방식 — AI가 바로 답하지 않고 백그라운드에서 작업하다가 결과를 알려주는 형태. - **한나 버전**: 샤워하다가 갑자기 콘텐츠 아이디어가 떠오르는 그 느낌. AI도 "지금 당장 답 줘"가 아니라 좀 생각하다가 "이런 인사이트 나왔어요" 알림 주는 방식이 될 수도 있다는 거야.
    출처 ·EP. 50

  • 아웃소싱(아웃소싱(Outsourcing))

    - 전문가 설명: 내부에서 직접 처리하지 않고 외부 업체나 해외 인력에게 맡기는 것. - **한나 버전**: 유튜브 편집을 외주 편집자한테 맡기는 거. 기업들이 인건비 싼 인도·필리핀 인력한테 업무 맡기는 것도 같은 말이야.
    출처 ·EP. 54
  • 알파고 모먼트

    - 전문가 설명: 2016년 구글 딥마인드의 AI 알파고가 세계 최강 바둑기사 이세돌을 이긴 사건. 이 순간 이후 AI에 대한 인식이 전 세계적으로 바뀌었음. - **한나 버전**: 네가 공들여 찍은 콘텐츠보다 AI가 5분 만에 만든 게 조회수가 10배 더 나오는 걸 직접 본 순간. 그게 너한테는 알파고 모먼트야.
    출처 ·EP. 68
  • 암묵지(암묵지(도메인 암묵지))

    - 전문가 설명: 문서나 언어로 설명하기 어렵지만, 경험으로 쌓인 감각적 전문 지식. - **한나 버전**: "이 각도에서 찍으면 느낌이 살아" "이 필터는 이 제품에 안 어울려"같은 거야. 몇 년 경험이 없으면 설명도 못 하고 AI도 못 가르쳐주는 것들. 그게 진짜 한나 경쟁력이야. ---
  • 앙트러프러너(앙트러프러너(Entrepreneur))

    - 전문가 설명: 단순한 창업가가 아니라, 문제를 발견하고 자기 의지로 가치를 만들어내는 사람. - **한나 버전**: 브랜드 협찬 기다리는 크리에이터가 아니라 자기 브랜드를 직접 만드는 크리에이터 같은 거야. 시키는 걸 잘하는 게 아니라 "내가 뭘 해야겠다"를 스스로 정하고 실행하는 사람. 노정석은 AI 시대에 우리 모두가 이 역할로 내몰린다고 해.
    출처 ·EP. 79
  • 양자장론(양자장론(QFT))

    - 전문가 설명: 입자물리학의 핵심 이론. 극소 세계의 물리 현상을 수학적으로 기술하는 분야로, 세계에서 가장 어려운 수학 중 하나. - **한나 버전**: 물리학계의 "알고리즘 블랙박스"야. 왜 이렇게 되는지 아무도 완벽히 이해 못 하는, 전문가들만 다루는 극한의 영역. 거기서 미해결 문제를 AI가 풀었다는 게 충격인 거야.
    출처 ·EP. 87
  • 양자화(양자화(Quantization))

    - 전문가 설명: 모델 파라미터를 더 작은 데이터 타입(예: FP16→INT8)으로 변환해 용량과 연산량을 줄이는 기법. - **한나 버전**: 원본 4K 영상을 유튜브 업로드용 1080p로 압축하는 것. INT8까지는 화질 차이 거의 없는데, INT4로 더 압축하면 화질이 확 떨어지는 느낌이야.
  • 양질 전환

    - 전문가 설명: 양(quantity)이 일정 수준 이상 쌓이면 질(quality)이 자연스럽게 따라오는 원리. 마르크스 철학에서 나온 개념. - **한나 버전**: 유튜브 쇼츠 100개 찍다 보면 어느 순간 감이 오잖아. 10개 찍고는 절대 안 오는 감각. 노정석이 이걸 AI 학습에도, 인생에도, 사업에도 다 적용시키는 거야. 일단 엄청 많이 넣어야 뭔가 뽀글뽀글 올라온다고.
    출처 ·EP. 57
  • 어펜드 앤 리뷰 노트

    - 전문가 설명: 안드레 카파시의 메모 방식. 항상 새 메모를 맨 위에 추가하고, 가끔 전체를 훑어서 여전히 중요한 것만 앞으로 끌어올려 유지하는 방법. - **한나 버전**: 인스타 저장 폴더 같은 거야. 저장은 계속 하는데 가끔 열어서 "이거 아직도 쓸 만해?" 하고 걸러내는 것. 중요한 게 자연스럽게 위로 남고 아닌 건 묻혀.
    출처 ·EP. 47
  • 에이전트(에이전트(Agent) / Agentic)

    - 전문가 설명: AI가 단순히 대답만 하는 게 아니라, 도구를 쓰고, 여러 단계를 스스로 계획하고, 실행까지 하는 방식. - **한나 버전**: AI 버전의 매니저야. "인스타 올려줘"라는 말 한마디에 사진 찾고, 캡션 쓰고, 해시태그 달고, 예약 게시까지 혼자 다 해주는 거. 단순 챗봇은 비서, 에이전트는 올라운드 스태프. ---
  • 에이전트 코딩 / 위임

    - 전문가 설명: AI에게 세세하게 지시하는 대신, 큰 목표만 주고 AI가 스스로 계획·실행·검토까지 다 하도록 맡기는 방식. - **한나 버전**: 편집자한테 "이 영상 숏폼으로 잘라줘"라고 찝찝하게 지시하는 게 아니라, "이 채널 전체 톤 보고 다음 달 숏폼 10개 다 만들어와"라고 통째로 던지는 거야.
    출처 ·EP.
  • 에이전틱(에이전틱(Agentic))

    - 전문가 설명: AI가 사람 개입 없이 여러 단계를 스스로 판단해서 처리하는 방식. 단순 Q&A가 아니라 계획→실행→결과 확인을 스스로 하는 것. - **한나 버전**: DM 응답을 내가 일일이 안 쳐도 AI가 알아서 질문 분류하고, 협찬 문의엔 단가표 보내고, 팬 DM엔 감사 메시지 보내는 것처럼 — AI가 혼자 몇 단계를 알아서 처리하는 거야.
    출처 ·EP. 47
  • 예언적 교육학

    - 전문가 설명: 미래에 필요한 지식·기술을 미리 예측해서 지금 가르치는 방식. 표준화된 커리큘럼, 선행학습 등이 여기에 해당. - **한나 버전**: "지금 트렌드가 숏폼이니까 숏폼 편집 기술 먼저 배워라"처럼, 미래를 예측해서 그거에 맞춰 지금 뭔가를 주입하는 교육이야. 근데 AI 시대엔 트렌드 자체가 너무 빨리 바뀌니까 이게 의미가 있냐는 거지.
    출처 ·EP. 76
  • 오버튼 윈도우(오버튼 윈도우(Overton Window))

    - 전문가 설명: 어떤 시점에서 사회가 용인하는 생각의 범위. 시간이 지나면서 이 범위가 이동하거나 넓어질 수 있어. - **한나 버전**: 예전엔 "AI로 콘텐츠 만든다"는 말 하면 욕먹었잖아. 지금은 당연한 얘기가 됐잖아. 그게 오버튼 윈도우가 이동한 거야. 힌튼이 지금 하는 작업은 "초지능 위험하다"는 게 당연한 얘기가 되도록 그 창을 넓히는 것.
    출처 ·EP. 57
  • 오버피팅(오버피팅(Overfitting))

    - 전문가 설명: 모델이 학습 데이터를 너무 외워버려 새로운 데이터에 일반화가 안 되는 현상. - **한나 버전**: 특정 트렌드에만 최적화된 콘텐츠 만들다가, 그 트렌드 끝나면 아무것도 못 하는 상태. 응용력 없이 패턴만 외운 것.
    출처 ·EP. 75
  • 오케스트레이션(오케스트레이션(Orchestration))

    - 전문가 설명: 여러 AI 기능, 플러그인, 데이터베이스를 목적에 맞게 연결하고 순서대로 실행시키는 총괄 조율 작업. - **한나 버전**: 멀티 플랫폼 콘텐츠 릴리즈할 때 유튜브, 인스타, 틱톡 타이밍 맞추고, 썸네일 담당자, 자막 담당자, 자막 번역가 다 지휘하는 총괄 PD 역할이야.
    출처 ·EP. 3
  • 오케스트레이션 레이어(오케스트레이션 레이어 (Orchestration Layer))

    - 전문가 설명: 여러 AI 모델과 도구들을 연결하고 조율하는 중간 소프트웨어 층. 직접 AI를 만들지 않아도 기존 AI를 엮어서 서비스를 만드는 영역. - **한나 버전**: 유튜브·인스타·틱톡 콘텐츠를 직접 촬영하는 대신, MCN처럼 여러 크리에이터를 연결해서 기획·관리하는 역할. AI판 MCN 기획자 포지션이야.
    출처 ·EP. 8
  • 오토 리서치(오토 리서치(Auto Research))

    - 전문가 설명: 목표와 측정 기준을 주면 AI가 스스로 논문 찾고, 코드 고치고, 결과 평가하면서 반복적으로 성능을 개선하는 루프 시스템. - **한나 버전**: 유튜브 알고리즘 A/B 테스트 자동화 버전이야. 썸네일 목표(CTR 10% 이상)를 주면 AI가 알아서 수십 가지 변형을 만들고, 기준 통과할 때까지 스스로 개선하는 거. 근데 목표를 숫자로 줘야만 작동해.
    출처 ·EP. 92
  • 오토리그레시브(오토리그레시브(Autoregressive))

    - 전문가 설명: AI가 텍스트나 이미지를 한 단어(또는 한 픽셀 묶음)씩 순서대로 생성하는 방식. 전체를 한 번에 보는 게 아니라 앞에서부터 쌓아나가. - **한나 버전**: 유튜브 댓글 예측 자동완성 같은 거야. "오늘 영상 정말..." 다음에 "좋았어요"가 올 것 같으면 그걸 씀. AI가 이미지를 그릴 때도 왼쪽 위부터 차례차례 그려나가는 방식이야.
    출처 ·EP. 46EP. 47
  • 오픈 웨이트(오픈 웨이트(Open Weight))

    - 전문가 설명: AI 모델의 핵심 파라미터(학습된 값)를 외부에 공개해서 누구나 다운받아 쓸 수 있게 한 것. - **한나 버전**: 레시피를 공짜로 공개한 거야. 유명 셰프가 "이 소스 비율이 이거예요, 다 가져가세요" 하는 것처럼, 딥시크가 AI 설계도를 통째로 풀어버린 거지.
    출처 ·EP. 46
  • 오픈소스(오픈소스(Open Source))

    - 전문가 설명: 소프트웨어나 AI 모델의 소스코드·구조를 누구나 보고 쓸 수 있게 공개하는 것. - **한나 버전**: 레시피 공개야. 대형 분식집이 "우리 떡볶이 양념 비율 공개합니다"라고 하는 거. 아무나 따라 만들 수 있지만, 원조는 여전히 원조야. ---
    출처 ·EP. 9EP. 64
  • 오픈소스 전략

    - 전문가 설명: 자신이 만든 AI 모델이나 코드를 무료로 공개해서 커뮤니티를 키우는 전략. - **한나 버전**: 프리셋이나 레시피 무료 공개하는 크리에이터 전략이랑 똑같아. 돈은 못 받지만 팔로워가 몰리고, 그 팔로워가 나중에 다른 데서 수익이 돼.
    출처 ·EP.
  • 온-디바이스(온-디바이스(on-device) AI)

    - 전문가 설명: 클라우드 서버 없이 스마트폰이나 노트북 등 기기 자체에서 AI를 실행하는 것. - **한나 버전**: 인터넷 연결 없이도 폰 안에서 AI가 돌아가는 것. 틱톡 필터가 서버 없이 실시간으로 얼굴에 붙는 것처럼. llama2.c가 이걸 가능하게 하려는 시도야. ---
    출처 ·EP. 10
  • 온디바이스(온디바이스(On-device) AI)

    - 전문가 설명: AI 모델이 클라우드 서버가 아니라 내 기기(폰, 노트북) 자체에서 직접 실행되는 것. - **한나 버전**: 넷플릭스 스트리밍이 아니라 영상을 폰에 다운받아서 오프라인으로 보는 것. 인터넷 없어도 되고, 내 영상이 서버로 안 올라가.
    출처 ·EP. 18
  • 온라인 학습(온라인 학습(Online Learning) / 지속적 학습(Continual Learning))

    - 전문가 설명: AI가 배포된 후에도 새 경험을 계속 학습하며 발전하는 방식. 기존 지식을 잃지 않으면서 새 것을 더하는 게 핵심 과제. - **한나 버전**: 지금 AI는 출시 전에 공부 다 끝내고 나오는 수험생이야. 온라인 학습은 현장에서 일하면서 매일 배우는 신입사원 같은 거 — 회사 맥락을 스스로 습득하면서 점점 더 잘하는 에이전트가 되는 거지. ---
    출처 ·EP. 69
  • 원맨 유니콘(원맨 유니콘(One-man Unicorn))

    - 전문가 설명: 기업 가치 10억 달러(≒1조원) 이상의 스타트업을 "유니콘"이라고 하는데, 그걸 혼자 만들어낸다는 개념. - **한나 버전**: 혼자서 AI를 팀처럼 써서 100명짜리 회사 규모의 일을 해내는 1인 창업자. 한나가 AI 쓰면서 PD·편집·마케터·디자이너 다 혼자 처리하는 것처럼, 사업 단위에서도 그게 가능해진다는 얘기야.
    출처 ·EP. 54
  • 유닛 이코노믹스(유닛 이코노믹스(Unit Economics))

    - 전문가 설명: 고객 1명(또는 제품 1개)당 얼마를 쓰고 얼마를 버는지 계산하는 비즈니스 수익 구조 분석. - **한나 버전**: 협찬 영상 1개 제작비 300만 원 들어서 500만 원 받으면 유닛 이코노믹스가 좋은 거야. 장원준이 말하는 건, AI 때문에 스타트업의 이 계산식이 완전히 바뀌었다는 거 — 직원 없이도 돈 버는 게 가능해진 거지. ---
    출처 ·EP. 66
  • 유효 이론(유효 이론(Effective Theory))

    - 전문가 설명: 물리학 개념. 모든 세부 사항을 다 알 필요 없이, 내가 관심 두는 범위에서만 유효한 설명으로 충분하다는 접근. - **한나 버전**: 틱톡 알고리즘 작동 원리 전부 몰라도 "릴스 첫 3초가 핵심이야"라는 규칙 하나로 콘텐츠 짜는 것. 그게 유효 이론이야.
    출처 ·EP. 16
  • 인터리브드(인터리브드(interleaved))

    - 전문가 설명: 텍스트·이미지·명령 등을 한 번에 쏟아내는 게 아니라, 번갈아가며 주고받으면서 결과를 쌓아가는 방식. - **한나 버전**: 인스타 피드 기획할 때 "이 이미지 뽑아줘 → 마음에 들어, 근데 색감 바꿔줘 → 이제 거기다 텍스트 넣어줘" 식으로 대화하면서 결과물을 만들어가는 거야. 한 번에 완성본 요청하는 것과 완전히 달라.
    출처 ·EP. 67.5
  • 임베딩(임베딩(Embedding))

    - 전문가 설명: 텍스트·이미지·행동 등의 정보를 AI가 이해할 수 있는 숫자 벡터로 압축한 것. 의미가 비슷한 것들끼리 가까운 숫자로 표현돼. - **한나 버전**: 내 인스타 활동 전체를 AI가 읽고 "이 사람은 패션·카페·여행에 관심 있는 20대 여성" 같은 압축 프로필로 만드는 것. 그 압축 덩어리가 바로 임베딩이야.
  • 입코딩

    - 전문가 설명: AI에게 말(프롬프트)로 지시해서 코드를 생성하게 하는 방식. 직접 코드를 타이핑하는 대신 말로 "이런 거 만들어줘"라고 요청하는 것. - **한나 버전**: 손으로 자막 하나하나 치던 시대에서, "자막 자동 생성" 눌러서 수정만 하는 시대로 바뀐 것처럼 — 코딩도 그렇게 됐어. ---
    출처 ·EP. 19

  • 자동 미분(자동 미분(Automatic Differentiation))

    - 전문가 설명: 복잡한 수식을 컴퓨터가 자동으로 미분(변화량 계산)해주는 기술. 딥러닝의 핵심 엔진. - **한나 버전**: AI가 "어떤 방향으로 바꿔야 결과가 좋아지나"를 자동으로 계산해주는 나침반이야. 콘텐츠로 치면, A/B 테스트를 사람이 하나하나 해보지 않고 자동으로 최적화해주는 시스템이라고 봐.
    출처 ·EP. 87
  • 자율성 슬라이더(자율성 슬라이더(autonomy slider))

    - 전문가 설명: AI한테 얼마나 많은 자율권을 줄지 조절하는 개념. 완전 수동(사람이 다 함)부터 완전 자율(AI가 다 함)까지 스펙트럼이 있어. - **한나 버전**: 인스타 업로드할 때 예약 발행을 어디까지 맡기냐랑 같아. 캡션만 AI한테 시키는 건 슬라이더 왼쪽, 아이디어 기획부터 업로드까지 다 맡기는 건 오른쪽. 지금은 대부분 중간 어딘가에 있는 거지.
    출처 ·EP. 57
  • 전문화의 imperative(전문화의 imperative(specialization imperative))

    - 전문가 설명: 범용 기술이 각 산업에 맞게 특화·응용되는 데 필요한 시간과 조건. - **한나 버전**: 스마트폰이 처음 나왔을 때 모든 앱이 바로 생긴 게 아니잖아. 유튜브 앱, 인스타 앱, TikTok이 차례로 나오면서 각 영역에 맞게 최적화된 거야. AI도 코딩에서 시작해서 법률 AI, 의료 AI, 마케팅 AI로 각 분야에 맞게 특화되는 그 과정이 specialization이야.
    출처 ·EP. 67
  • 지식 단절(지식 단절(Knowledge Cutoff))

    - 전문가 설명: AI 모델이 학습한 데이터의 마지막 날짜. 이 이후 정보는 모델이 모름. - **한나 버전**: 잡지 발행일이야. 6개월 전 잡지를 보면 최근 뉴스는 없잖아. OpenAI는 거의 1년 전 정보까지만 아는데, 구글은 검색 엔진을 들고 있으니까 2달 전 정보까지 알아. 이게 실력 차이처럼 보이는 이유야. ---
    출처 ·EP. 64
  • 직교적(직교적(Orthogonal))

    - 전문가 설명: 서로 독립적인 요소들로 구성되어, 조합하면 모든 것을 만들 수 있는 구조. RGB 색처럼 3가지 기본색으로 모든 색을 표현하는 원리. - **한나 버전**: 팀에 촬영 잘하는 사람, 글 잘 쓰는 사람, 음악 잘하는 사람 — 각자 영역이 겹치지 않는데 합치면 뭐든 만들 수 있는 팀 구성이야.
    출처 ·EP. 85

  • 창발(창발(Emergence))

    - 전문가 설명: 시스템의 부분들로는 설명할 수 없는 새로운 성질이 전체 차원에서 갑자기 나타나는 현상. - **한나 버전**: 팔로워 1만명일 때 없던 바이럴 현상이 10만명 되면 갑자기 일어나는 거 있잖아. 개인 팔로워 하나하나로는 설명 안 되는 "팬덤 효과"가 어느 임계점 넘으면 터지는 것처럼, AI도 컴퓨팅이 충분히 쌓이면 없던 능력이 갑자기 튀어나오는 거야.
    출처 ·EP. 79
  • 추론 / 인퍼런스(추론 / 인퍼런스 (Inference))

    - 전문가 설명: 학습이 끝난 AI 모델이 실제로 사용자 질문에 답변을 생성하는 과정. 학습(training)과 반대 개념. - **한나 버전**: 영상 편집 배우는 게 training이고, 실제로 영상 한 편 뚝딱 만들어내는 게 inference야. ChatGPT한테 뭔가 물어볼 때마다 inference가 한 번씩 도는 거거든.
    출처 ·EP. 8

  • 카오스 코딩

    - 전문가 설명: 바이브 코딩보다도 더 통제를 포기한 방식. "계속해줘"만 반복하면서 AI가 어디로 가든 내버려두는 것. - **한나 버전**: 인스타 릴스 자동재생 켜놓고 그냥 흘려보내는 거야. 내가 뭘 고르는 게 아니라 알고리즘이 이어주는 걸 그냥 보는 것처럼, AI한테 알아서 이어가게 두는 거.
    출처 ·EP. 47
  • 칸반(칸반(Kanban))

    - 전문가 설명: 할 일 / 진행 중 / 완료 세 칸으로 작업을 시각화해서 관리하는 방법론. Trello가 대표적. - **한나 버전**: 콘텐츠 캘린더 보드에 "기획 → 촬영 → 편집 → 업로드" 칸 만들어두고 포스트잇 옮기는 거 있잖아. 그게 칸반이야. Google 발표에서 그 보드를 AI들이 알아서 움직이고 있었던 거야.
    출처 ·EP. 48
  • 캐퍼빌리티 오버행(캐퍼빌리티 오버행(capability overhang))

    - 전문가 설명: AI의 실제 능력은 이미 있는데, 사람들이 아직 그 능력을 제대로 끌어쓰지 못하고 있는 상태. - **한나 버전**: 유튜브 알고리즘이 쇼츠를 밀어주기 시작했는데, 아직 쇼츠를 안 올리는 크리에이터들이 그 기회를 못 잡고 있는 상황이랑 비슷해. 도구는 있는데 쓰는 사람만 이득 보는 거지.
    출처 ·EP. 67.5
  • 컨텍스트(컨텍스트(Context))

    - 전문가 설명: AI가 한 번에 기억하고 처리할 수 있는 정보의 양. 이 한도를 넘으면 앞 내용을 잊음 - **한나 버전**: AI의 단기기억 용량이야. 한나가 유튜브 영상 대본 30개를 한 번에 주면 AI가 앞 내용 까먹기 시작하는 거야. 그래서 잘라서 줘야 해.
  • 컨텍스트 그라운딩

    - 전문가 설명: AI에게 답변 범위를 특정 맥락·데이터 안으로 제한해서 엉뚱한 답을 막는 것. - **한나 버전**: 협찬 문의 DM에 답할 때 "우리 채널 성격이 뷰티야"라고 딱 말해놓고 그 범위 안에서만 대화하게 하는 거야. AI한테 "인터넷 검색 말고, 내가 말한 이 상황만 봐"라고 가두는 느낌.
    출처 ·EP.
  • 컨텍스트 길이(컨텍스트 길이 (Context Length))

    - 전문가 설명: AI가 한 번에 읽고 기억할 수 있는 텍스트의 최대 길이. 토큰 수로 측정됨. - **한나 버전**: ChatGPT랑 대화하다가 대화가 너무 길어지면 앞에 했던 말을 잊어버리는 경험 해봤지? 그 기억력의 한계가 컨텍스트 길이야. GPT-4는 8K~32K 토큰까지 기억 가능.
    출처 ·EP. 8
  • 컨텍스트 윈도우(컨텍스트 윈도우(context window))

    - 전문가 설명: AI가 한 번에 기억하고 처리할 수 있는 텍스트의 최대 길이(토큰 수). - **한나 버전**: AI랑 대화할 때 AI가 기억할 수 있는 채팅창 길이야. 이게 차면 앞 대화를 잊어버리거나 이상하게 답해. 마치 DM방이 꽉 차면 오래된 메시지가 사라지는 것처럼.
    출처 ·EP. 62EP. 72
  • 컨텍스트 창(컨텍스트 창(Context Window))

    - 전문가 설명: AI가 한 번에 처리할 수 있는 텍스트 양. Claude는 약 20만 토큰(대략 책 한 권 분량). - **한나 버전**: 카카오톡 채팅방에서 AI가 "이전 대화를 얼마나 기억하냐"는 거야. 창이 클수록 긴 자료를 한꺼번에 읽히고 대화할 수 있어.
    출처 ·EP. 15
  • 컴퓨터 유즈(컴퓨터 유즈(computer use))

    - 전문가 설명: AI가 사람 대신 컴퓨터 화면을 보고 마우스·키보드를 직접 조작하는 기능. - **한나 버전**: 네가 "인스타에 오늘 사진 올려줘"라고 말하면, AI가 직접 앱 열고 사진 선택하고 업로드 버튼 눌러주는 수준. 아직 완벽하진 않지만 그 방향으로 가는 중이야.
    출처 ·EP. 67.5
  • 컴퓨테이션(컴퓨테이션(Computation))

    - 전문가 설명: AI 모델을 만들거나 돌릴 때 쓰는 연산 처리 능력의 총량. GPU가 계산 얼마나 많이 했냐는 거야. - **한나 버전**: 영상 렌더링할 때 컴퓨터 팬 엄청 돌잖아. 그게 컴퓨테이션이야. AI 모델 학습할 때 그걸 어마어마하게 쓰는 거거든. 더 좋은 AI 만들려면 이 연산량을 더 많이 투입해야 해. ---
    출처 ·EP. 42
  • 켄타우로스(켄타우로스(Centaur))

    - 전문가 설명: 체스 AI가 인간을 이기기 시작했을 때 등장한 개념. AI 혼자나 사람 혼자보다 AI+사람 팀이 더 강하다는 걸 발견하고 이런 협업 방식을 켄타우로스(반인반마)에 비유. - **한나 버전**: AI 편집 툴이 나왔을 때 "AI가 편집자를 없앨 거야"가 아니라, AI 쓰는 편집자 vs 안 쓰는 편집자의 격차가 벌어지는 거 있잖아. 그게 켄타우로스야. 과학계도 이제 그 단계로 진입했다는 거지.
    출처 ·EP. 87
  • 코드 인터프리터(코드 인터프리터(Code Interpreter))

    - 전문가 설명: ChatGPT에 있는 기능으로, AI가 파이썬 코드를 서버에서 직접 실행해서 데이터 분석이나 그래프 출력을 해줌. - **한나 버전**: 편집 프로그램에 비유하면, 코드 인터프리터는 클라우드 서버에서 작업하는 프리미어 프로, Artifacts는 브라우저에서 바로 되는 캔바 같은 느낌. 둘 다 결과물 만들어주는데 작동 방식이 달라.
    출처 ·EP. 6EP. 19
  • 클라이언트 단(클라이언트 단(Client-side))

    - 전문가 설명: 서버가 아니라 사용자 브라우저(내 컴퓨터)에서 실행되는 처리 방식. - **한나 버전**: 영상을 내 폰에 다운받아서 재생하는 거(클라이언트) vs. 유튜브 서버에서 스트리밍하는 거(서버). Artifacts는 다운받아서 내 폰에서 도는 방식이라 가볍고 빠른 대신 할 수 있는 게 제한적이야.
    출처 ·EP. 19
  • 클로즈드 루프(클로즈드 루프(Closed Loop))

    - 전문가 설명: 행동 → 결과 측정 → 피드백 → 다음 행동 개선의 고리가 닫혀있는 시스템. 외부 도움 없이 스스로 학습이 가능한 구조. - **한나 버전**: 릴스 올리고 → 조회수·저장 확인하고 → 잘 된 패턴 분석해서 → 다음 릴스에 반영하는 한나의 루틴이 바로 클로즈드 루프야. 이게 있는 크리에이터가 없는 크리에이터를 시간이 갈수록 이겨.
    출처 ·EP.
  • 클린룸(클린룸(Clean Room))

    - 전문가 설명: 원본 코드를 보지 않고, 외부에서 동작 방식만 분석해서 동일한 기능을 처음부터 새로 만드는 개발 방식이야. 저작권 침해를 피하는 합법적 방법으로 쓰이기도 해. - **한나 버전**: 남의 인기 유튜브 영상을 그대로 베끼는 게 아니라, "이 영상 포맷이 잘 되더라" 하고 참고해서 내 버전으로 새로 만드는 거야. 이번 사건은 원본을 봤다고 직접 밝혔으니 클린룸이 아닌 거야.
    출처 ·EP. 93

  • 테스트 타임 컴퓨트

    - 전문가 설명: AI가 답변을 생성할 때(추론할 때) 더 오래, 더 많이 생각하게 하는 방식. 학습을 더 시키는 게 아니라 쓰는 순간에 연산을 더 투자하는 것. - **한나 버전**: 영상 편집할 때 프리미어 렌더링 시간을 길게 줘서 화질 높이는 것처럼, AI한테 생각할 시간을 더 줘서 결과물 품질을 올리는 거야. 이번 실험에서 20회 반복하게 한 것 자체가 여기에 해당돼.
    출처 ·EP. 47EP.
  • 토크나이저(토크나이저(Tokenizer))

    - 전문가 설명: AI가 텍스트를 처리할 때 글자를 잘게 쪼개는 방식. 어떻게 쪼개느냐에 따라 같은 글도 토큰 수가 달라지고 비용이 달라져. - **한나 버전**: 동영상 편집할 때 클립을 어떻게 자르느냐야. 같은 영상도 잘게 자를수록 파일 수가 많아지고 관리 비용이 올라가. 4.7은 클립을 더 잘게 잘라서 같은 작업에 돈이 1.3~1.4배 더 들어.
    출처 ·EP. 64EP. 94
  • 토큰(토큰(Token))

    - 전문가 설명: AI가 텍스트를 처리하는 최소 단위. 단어 하나 또는 단어의 일부분. - **한나 버전**: 인스타 캡션을 글자 단위가 아니라 단어 덩어리로 쪼갠 것처럼 생각해봐. AI는 그 덩어리 하나하나를 순서대로 만들어내. 캡션 한 줄이 수십 개의 토큰으로 만들어지는 거야.
  • 트랜스포머(트랜스포머(Transformer))

    - 전문가 설명: AI가 언어를 처리하는 핵심 구조. 텍스트를 숫자로 바꾸고 여러 층의 연산을 거쳐 다음 단어를 예측하는 신경망 아키텍처. - **한나 버전**: 유튜브 알고리즘이 영상 수천 개를 보고 "이 사람한테 뭘 추천할까"를 계산하는 것처럼, 트랜스포머는 앞에 나온 모든 단어를 보고 "다음에 뭐가 올까"를 계산하는 거야. ChatGPT, Claude 전부 이 구조 기반이야.
    출처 ·EP. 83
  • 트랜스포머 아키텍처

    - 전문가 설명: 현대 AI 언어 모델의 기본 설계 구조. 2017년에 등장해서 지금 GPT, BERT 등 거의 모든 AI가 이 구조를 씀. - **한나 버전**: 유튜브 알고리즘이 "어떤 영상이 뜨고 어떤 게 안 뜨는지"를 결정하는 핵심 엔진이 있잖아. 트랜스포머는 AI 세계에서 그런 핵심 엔진이야. 이게 나오기 전에는 번역기 만드는 것도 한 달 넘게 걸렸는데, 이게 나오면서 AI 개발 속도가 폭발한 거야.
    출처 ·EP.

  • 파라미터(파라미터(B, 빌리언))

    - 전문가 설명: AI 모델이 학습을 통해 갖게 되는 수치 값의 총 개수. 클수록 더 많은 것을 학습할 수 있지만 더 많은 자원이 필요. - **한나 버전**: 팔로워 숫자 같은 거야. 120B라면 1,200억 개. 숫자가 클수록 영향력(= 표현력)이 크지만, 관리 비용(= 연산 비용)도 그만큼 커져. ---
  • 파레이돌리아(파레이돌리아(Pareidolia))

    - 전문가 설명: 무작위적인 패턴(구름, 나무 결 등)에서 얼굴이나 의미 있는 형상을 보는 인간의 심리 현상 - **한나 버전**: 구름 보다가 "어, 강아지 같다!" 하는 거. 최승준이 이걸 모델에 비유한 건 — AI도 엉뚱한 알파벳 조합에서 의미 있는 패턴을 찾아내는 능력이 있다는 거야.
    출처 ·EP. 82
  • 파이덴틱 AI(파이덴틱 AI(Pydantic AI))

    - 전문가 설명: AI 에이전트를 만들기 쉽게 해주는 파이썬 프레임워크. 여러 AI 기능을 조립해서 자동화 워크플로우를 빠르게 만들 수 있어. - **한나 버전**: 유튜브 자동화 도구 같은 거야. 영상 업로드, 댓글 분류, 썸네일 A/B 테스트를 자동으로 묶어주는 툴 세트 정도로 이해해.
    출처 ·EP.
  • 파인튜닝(파인튜닝(Fine-tuning))

    - 전문가 설명: 이미 대규모 학습이 완료된 AI 모델에 특정 분야 데이터를 추가로 학습시켜 특화된 능력을 부여하는 것. - **한나 버전**: 요리 유학 후 한식 전문점을 여는 거야. 요리 기본기(= 사전 훈련)는 다 배웠고, 거기에 한식 레시피(= 한국어 데이터)만 집중적으로 추가로 배우는 거. ---
  • 파인튜닝 vs 프리트레이닝(파인튜닝 vs 프리트레이닝(fine-tuning vs pre-training))

    - 전문가 설명: 프리트레이닝은 AI를 처음부터 학습시키는 것, 파인튜닝은 이미 있는 AI를 특정 목적에 맞게 추가 학습시키는 것. - **한나 버전**: 프리트레이닝은 크리에이터를 처음부터 육성하는 것, 파인튜닝은 이미 팔로워 있는 크리에이터한테 "우리 브랜드 색깔로 좀 바꿔줘" 하고 재교육시키는 것. TinyStories는 프리트레이닝인데, 작은 규모로도 된다는 걸 보여준 거야.
    출처 ·EP. 10
  • 퍼플렉시티(퍼플렉시티(Perplexity))

    - 전문가 설명: AI가 다음 토큰을 예측할 때 평균적으로 몇 개의 선택지 사이에서 고르는지를 나타내는 불확실성 지표. - **한나 버전**: 다음에 올릴 콘텐츠 포맷을 고를 때 "숏폼이냐 롱폼이냐 카드뉴스냐 라이브냐…" 선택지가 많을수록 퍼플렉시티가 높은 거야. 학습이 잘 될수록 선택지가 "숏폼이지 뭐" 수준으로 확 줄어드는 것.
    출처 ·EP. 75
  • 포스트 트레이닝(포스트 트레이닝(Post-training))

    - 전문가 설명: 대규모 사전학습이 끝난 모델을 RLHF·SFT 등으로 다듬는 후처리 학습 단계. - **한나 버전**: 영상 원본 촬영(프리트레이닝)은 끝났고, 이제 편집·자막·썸네일 작업(포스트 트레이닝)으로 퀄리티 올리는 단계야. 편집 레시피 좋으면 같은 원본으로도 훨씬 잘 나와.
    출처 ·EP. 75
  • 포지션 페이퍼 / Richard Sutton

    - 전문가 설명: 특정 주제에 대한 저자의 입장과 방향성을 서술한 논문 형식. Sutton은 강화학습의 아버지로 불리는 AI 석학, 2025년 튜링상 수상자 - **한나 버전**: AI 업계에서 가장 권위 있는 교수님이 "앞으로 AI는 이 방향으로 가야 한다"고 공개 선언문 낸 거야. 유튜브로 치면 조회수 억 단위 원로 유튜버가 "이제 숏폼 시대 끝났어" 선언하는 것 같은 무게감.
    출처 ·EP. 49
  • 폴리마켓(폴리마켓(Polymarket))

    - 전문가 설명: 실제 돈을 걸고 미래 사건의 확률을 예측하는 베팅 플랫폼. - **한나 버전**: "다음 주 인스타 알고리즘 업데이트 확률 몇 %?"에 돈 거는 사이트. Gemini 3 발표 전날 여기서 91%가 "내일 나온다"에 베팅했대.
    출처 ·EP. 77
  • 풀스택(풀스택(Full-Stack) AI 회사)

    - 전문가 설명: 칩·데이터센터 같은 하드웨어부터 최종 사용자 앱까지 모든 레이어를 직접 소유·운영하는 회사. - **한나 버전**: 인스타 릴스용 영상을 찍는 카메라도 자기 거, 편집 앱도 자기 거, 플랫폼도 자기 거, 심지어 팔로워한테 직접 DM 보내는 CRM도 자기 거인 크리에이터. 유튜브·인스타 같은 플랫폼을 통하지 않고 처음부터 끝까지 다 본인이 쥐고 있는 상태야.
    출처 ·EP. 74
  • 프런티어 랩(프런티어 랩(Frontier Lab))

    - 전문가 설명: AI 기술의 최전선을 달리는 최상위 연구·개발 조직. OpenAI, Anthropic, Google DeepMind, DeepSeek 등. - **한나 버전**: 유튜브로 치면 구독자 1000만 이상에 트렌드를 직접 만드는 메가 크리에이터 그룹이야. 나머지는 그 사람들 따라가는 거고.
    출처 ·EP. 69
  • 프론티어 모델

    - 전문가 설명: 현재 가장 최신·최고 성능의 AI 모델. GPT-4o, Claude 3.5, Gemini 등. - **한나 버전**: AI판 아이폰 최신 모델. 매번 새로 나오면서 이전 것들을 구식으로 만들어버리는 거야.
    출처 ·EP. 59EP.
  • 프롬프트 엔지니어링

    - 전문가 설명: AI한테 원하는 결과를 끌어내기 위해 질문(프롬프트)을 전략적으로 설계하는 기술. - **한나 버전**: 브랜드 미팅 전에 어떻게 말을 꺼낼지 전략 짜는 거야. "저 이런 채널인데요..."보다 "당신 브랜드의 타겟과 제 팔로워가 이렇게 겹쳐요"라고 하면 훨씬 잘 통하잖아. AI한테 말 거는 방식도 똑같이 전략이 필요해.
    출처 ·EP. 13
  • 플러그인(플러그인(Plugin))

    - 전문가 설명: AI에 연결해서 추가 기능을 수행하게 하는 외부 도구. 예: 날씨 조회, 쇼핑몰 재고 확인, 계산기 등. - **한나 버전**: 유튜브 편집할 때 쓰는 서드파티 자막 앱, 색보정 프리셋 팩, 음악 라이선스 플랫폼 같은 거야. 기본 앱에 꽂아서 기능을 확장하는 것.
    출처 ·EP. 3
  • 피처(피처(Feature))

    - 전문가 설명: 모델에 입력되는 데이터의 속성값. AI가 판단하는 데 쓰는 변수들. - **한나 버전**: 콘텐츠의 스펙 항목들이야. 영상 길이, 썸네일 인물 유무, 제목 글자 수, 업로드 요일 같은 것들. AI한테 "이 영상 흥할까?"를 물어볼 때 입력하는 체크리스트지.
    출처 ·EP.
  • 필터 버블 / 에코 챔버

    - 전문가 설명: 알고리즘이 사용자 취향에 맞는 정보만 추천해 다양한 관점에 노출되지 못하는 현상 - **한나 버전**: 유튜브 알고리즘이 한나가 좋아하는 것만 계속 밀어주다 보면, 결국 비슷한 세계관 영상만 보게 되잖아. AI 메모리도 똑같이 작동할 수 있어 — 내가 이미 관심 가진 것들만 더 깊이 파게 되는 거야.
    출처 ·EP. 49

  • 하네스(하네스(Harness))

    - 전문가 설명: AI 모델(LLM)이 어떤 순서로, 어떤 도구를 써서, 어떻게 작동할지를 제어하는 프레임워크야. 모델 자체가 아니라 모델을 '어떻게 굴릴지'를 정하는 관리 시스템. - **한나 버전**: 유튜브 편집 소프트웨어 같은 거야. 카메라(AI 모델)가 아무리 좋아도, 편집 소프트웨어(하네스)가 좋아야 영상(결과물)이 좋아지잖아. Claude Code가 카메라+편집 소프트웨어를 패키지로 잘 만든 거야.
  • 하네스 엔지니어링

    - 전문가 설명: AI 에이전트가 실수할 때마다 같은 실수를 다시 못 하게 프롬프트나 코드로 제약을 걸어두는 설계 방식. - **한나 버전**: 편집 어시스턴트한테 "자막 위치는 항상 화면 하단 10%에 넣어"라고 규칙을 주는 거야. 처음엔 틀리지만 규칙 하나씩 추가하다 보면 점점 내 스타일대로 움직이게 되는 것처럼, AI한테도 그 규칙 체계를 만들어 주는 게 하네스 엔지니어링이야. ---
    출처 ·EP. 89
  • 하이브리드 모델(하이브리드 모델 (Mamba+Transformer))

    - 전문가 설명: Mamba 블록과 Transformer의 self-attention 블록을 번갈아 쌓아서 각각의 장점을 합친 AI 아키텍처. - **한나 버전**: 쇼츠로 노출시키고 롱폼 유튜브로 팬을 만드는 투트랙 전략이랑 비슷해. 각각의 강점을 조합하는 거야. NVIDIA Nemotron이 이 방식으로 만들어졌어.
    출처 ·EP. 80
  • 학습 불안정성

    - 전문가 설명: AI 훈련 중 손실(loss) 값이 갑자기 튀거나 발산하는 현상. 훈련이 망하는 전조증상. - **한나 버전**: 편집 하다가 갑자기 프리미어 프로가 뻗는 거 있잖아. 저장도 안 되고 그냥 날아가는 느낌. 그걸 수십조 원짜리 연산 도중에 맞이하는 거야. DeepSeek이 V4 만들면서 이걸 엄청 많이 겪었대. ---
    출처 ·EP. 95
  • 할루시네이션(할루시네이션(Hallucination))

    - 전문가 설명: AI가 사실이 아닌 내용을 자신 있게 만들어내는 현상. - **한나 버전**: 잘 모르는 브랜드 협찬 제품을 "그냥 좋다고 해야지" 하고 아무 말이나 써버리는 것. 모른다고 못 하는 상황에서 억지로 채운 결과야.
  • 합성 데이터(합성 데이터(Synthetic Data))

    - 전문가 설명: 실제 세계에서 수집한 게 아니라 AI가 스스로 만들어낸 데이터. - **한나 버전**: 실제 고객 리뷰 대신 AI가 "이런 고객이라면 이런 리뷰를 쓸 거야"라고 지어낸 리뷰 데이터야. Kimi는 이걸 수천만 개 찍어냈어. ---
    출처 ·EP. 10EP. 62
  • 합종연횡

    - 전문가 설명: 강한 공통의 적에 맞서기 위해 경쟁 관계에 있던 세력들이 연합하는 전략. 중국 전국시대 용어. - **한나 버전**: 유튜브 대형 채널 하나가 너무 독보적으로 크면, 중간 규모 채널들이 뭉쳐서 "콜라보 연합" 만드는 거랑 똑같아. 지금 IT판에서 OpenAI가 너무 크니까 나머지가 Meta 주변으로 뭉치는 중이야.
    출처 ·EP. 9
  • 헤시안 행렬(헤시안 행렬(Hessian Matrix))

    - 전문가 설명: 다변수 함수를 두 번 편미분해서 만드는 정방 행렬. 함수의 곡률 정보를 담고 있음. - **한나 버전**: "내 콘텐츠 성과 곡선이 얼마나 가파르게 구부러져 있나"를 수치로 나타낸 표야. 이걸 알면 최솟점까지 한 번에 얼마나 이동할지 계산할 수 있어. 근데 피처가 100개면 표가 100×100짜리가 필요해서 메모리를 엄청 먹어.
    출처 ·EP.
  • 헤징(헤징(Hedging))

    - 전문가 설명: 원래 금융 용어. 한 방향에만 올인하지 않고, 다른 가능성도 열어두어 손실을 방어하는 전략. - **한나 버전**: 인스타에만 올인하지 않고 유튜브·틱톡도 같이 키우는 게 헤징이야. 최승준은 "기존 교육 공식이 망할 수도 있으니, 다른 교육 방식도 지금부터 키워두는 것"이 헤징이라고 쓴 거야. ---
    출처 ·EP. 76
  • 화이트칼라(화이트칼라(White-collar))

    - 전문가 설명: 육체 노동이 아닌 사무직·지식 노동자를 통칭하는 말. 변호사, 회계사, 개발자, 마케터 등. - **한나 버전**: 책상 앞에 앉아서 머리로 일하는 사람들 전부. 한나 너도 화이트칼라야 — 기획·글쓰기·분석이 다 그거거든.
    출처 ·EP. 54
  • 환각(환각(Hallucination))

    - 전문가 설명: AI가 사실이 아닌 내용을 자신 있게 말하는 현상. 학습 데이터에 없거나 맥락이 부족할 때 발생. - **한나 버전**: 유튜브 알고리즘 잘 아는 친구한테 틱톡 알고리즘 물어봤을 때 "아 그거 다 알아~" 하면서 틀린 정보 자신 있게 말하는 것. AI가 모르는 분야에서 꾸며대는 거야.
    출처 ·EP. 55
  • 환경 스케일링(환경 스케일링(Environment Scaling))

    - 전문가 설명: AI를 강화학습 시키기 위한 훈련 환경(문제 세트 + 수행 공간 + 평가 기준)을 대규모로 늘리는 작업. - **한나 버전**: 브랜드 협업 제안서를 AI한테 잘 쓰게 하려면 — "이런 조건이면 이런 제안서가 좋다"는 예시 상황을 수천 개 만들어줘야 해. 그 예시 세트 만드는 게 환경 스케일링이야.
    출처 ·EP. 69

A

  • A2A(A2A(Agent-to-Agent))

    - 전문가 설명: Google이 만든 규약으로, AI 에이전트끼리 서로 소통하고 협력하도록 하는 프로토콜. - **한나 버전**: 편집자 에이전트, 자막 에이전트, 섬네일 에이전트가 서로 메신저로 "나 편집 끝났어, 이제 자막 해줘"라고 연락하며 일을 넘기는 구조. MCP가 AI-앱 연결이라면, A2A는 AI-AI 연결이야.
    출처 ·EP. 48
  • acqui-hire(acqui-hire(어퀴하이어))

    - 전문가 설명: acquisition(인수)과 hire(채용)의 합성어. 회사의 제품이나 매출보다 그 안의 인재를 목적으로 회사를 사는 것. - **한나 버전**: 어떤 소규모 크리에이터 팀이 너무 잘하는 거야. 대형 MCN이 "우리 채널이 필요한 게 아니라 저 PD, 편집자, 기획자가 필요해"라서 팀 전체를 데려오는 거. Windsurf 창업자들을 Google이 그렇게 데려간 거야.
    출처 ·EP. 61
  • Adaptive Thinking

    - 전문가 설명: AI가 질문의 난이도에 따라 스스로 깊이 생각할지 빠르게 답할지를 자동으로 결정하는 방식. - **한나 버전**: 숏폼 영상이냐 롱폼 영상이냐를 콘텐츠 유형에 따라 자동으로 결정하는 AI 에디터 느낌이야. 근데 4.7은 사용자가 강제로 "항상 깊게 생각해"를 못 설정하게 돼서 불편해진 거야.
    출처 ·EP. 94
  • Adept

    - 전문가 설명: AI가 컴퓨터 화면을 보고 스스로 앱과 브라우저를 조작해주는 기술을 개발하던 AI 스타트업. - **한나 버전**: "AI 매니저"를 만들려던 회사야. 한나가 "쇼핑몰에서 이 제품 찾아서 가격 비교해줘"라고 하면 AI가 직접 화면 클릭해서 해주는 거. 근데 GPT-4V가 그걸 이미 해버리니까 이 회사가 곤란해진 상황. ---
    출처 ·EP. 13
  • Agent Builder

    - 전문가 설명: 코딩 없이 AI 에이전트(자동화 로봇)를 만들 수 있는 노코드 도구. OpenAI, Google 모두 출시. - **한나 버전**: 인스타 자동 답장 봇을 코딩 없이 블록 끼워 맞추듯 만드는 도구야. "댓글에 이 단어 오면 이 DM 보내라" 같은 흐름을 마우스로 연결만 하면 됨.
    출처 ·EP. 72
  • Agent Swarm

    - 전문가 설명: 여러 AI 에이전트가 동시에 서로 다른 작업을 맡아 병렬로 처리하는 구조. 한 에이전트가 오케스트레이션하거나, 공유 task list로 자율 협력. - **한나 버전**: 촬영 담당, 편집 담당, 썸네일 담당, 댓글 관리 담당 — 이렇게 역할 나눈 팀이 동시에 일하는 거랑 같아. 근데 그 팀원이 다 AI야.
    출처 ·EP. 85
  • agentic

    - 전문가 설명: AI가 사람 지시를 하나하나 기다리지 않고 스스로 판단해서 여러 단계를 연속으로 수행하는 방식. - **한나 버전**: 매니저한테 매번 물어보는 인턴 vs. 알아서 척척 처리하는 베테랜 스태프. agentic AI는 후자야. Antigravity가 이 방향이래.
    출처 ·EP. 77
  • Agentic(Agentic(에이전틱))

    - 전문가 설명: AI가 사람의 매 단계 지시 없이 스스로 계획 세우고, 도구 쓰고, 반복 실행해서 결과를 내는 방식 - **한나 버전**: 영상 제목 추천해달라는 건 일반 AI 사용이고, "이 영상 분석해서 섬네일 초안 3개 만들고, 경쟁 채널 트렌드 조사하고, 최종 캡션까지 써줘"를 혼자 알아서 하는 게 agentic이야
    출처 ·EP. 54EP. 65
  • agentic framework(agentic framework(에이전틱 프레임워크))

    - 전문가 설명: AI가 스스로 계획을 세우고, 툴을 쓰고, 여러 단계를 자율적으로 실행하는 구조. - **한나 버전**: 너가 "오늘 유튜브 영상 올려줘"라고 했을 때 AI가 썸네일 만들고→제목 A/B테스트하고→최적 시간에 스케줄링까지 혼자 다 하는 거야. 한 번 시키면 연쇄적으로 알아서 하는 그 시스템.
    출처 ·EP. 67
  • Agentic Workflow(Agentic Workflow(에이전틱 워크플로우))

    - 전문가 설명: AI 에이전트들이 사람 개입 없이 스스로 계획·실행·검증·수정을 반복하는 업무 흐름 - **한나 버전**: 유튜브 채널 운영을 혼자 하는 게 아니라, 기획봇·촬영봇·편집봇·업로드봇이 알아서 줄줄이 일하는 구조야. 한나는 그 구조를 처음에 세팅만 해주면 돼.
    출처 ·EP. 52EP. 86
  • AGI

    - 전문가 설명: Artificial General Intelligence. 특정 분야만 잘하는 AI가 아니라, 인간처럼 어떤 분야든 스스로 배우고 해낼 수 있는 AI. - **한나 버전**: 지금 AI는 영상 편집은 잘하는데 세금 신고는 못하는 식이잖아. AGI는 뭐든 다 알아서 척척 해주는 만능 스태프가 생기는 것. 근데 그 스태프가 너보다 더 잘하는 수준.
  • AGI / ASI

    - 전문가 설명: AGI(Artificial General Intelligence)는 인간 수준의 범용 지능. ASI(Artificial Super Intelligence)는 인간을 초월하는 지능. - **한나 버전**: AGI는 "모든 장르 다 잘 만드는 만능 크리에이터", ASI는 "그 만능 크리에이터가 인간보다 훨씬 잘하는 버전"이야. 노정석은 이 구분 자체가 이제 무의미하고 그냥 "다음 레벨이 곧 온다"고 봐.
  • AGI / Superintelligence

    - 전문가 설명: AGI는 인간과 동등하거나 그 이상의 범용 지능. Superintelligence는 그보다 훨씬 뛰어난 초지능. 아직 실현 안 됐지만 가능성을 두고 논쟁 중. - **한나 버전**: 지금 AI는 번역은 잘하지만 갑자기 요리를 하라고 하면 못 해. AGI는 번역도, 요리도, 법률도, 뭐든 다 잘하는 AI야. Superintelligence는 그걸 넘어서 인간보다 모든 면에서 뛰어난 AI고. Geoffrey Hinton이 "5~20년 안에 올 수 있다"고 경고하는 게 바로 이 얘기야.
    출처 ·EP.
  • AGI pilled

    - 전문가 설명: AGI(인간 수준 이상 범용 AI)의 도래를 완전히 믿고, 그 관점에서 의사결정하는 사고방식. - **한나 버전**: 유튜브가 TV를 완전히 대체한다고 확신하고 2010년에 방송국 때려치고 유튜브에 올인한 사람들 있잖아. 그 사람들이 "유튜브 pilled"인 거야. OpenAI 내부는 "AGI가 반드시 온다"를 기정사실로 놓고 모든 결정을 내려.
    출처 ·EP. 58
  • AI 커머스(AI 커머스 (OpenAI × Shopify))

    - 전문가 설명: ChatGPT 안에서 대화 중 상품 추천부터 결제까지 완결되는 쇼핑 시스템. - **한나 버전**: 팔로워가 내 추천 링크 클릭해서 쇼핑하는 게 아니라, 그냥 ChatGPT한테 "이거 사줘" 하면 끝나는 세상. 중간에 내 콘텐츠가 낄 자리가 없어질 수 있어.
    출처 ·EP. 71
  • AI Overview(AI Overview (= Search Overview))

    - 전문가 설명: 구글 검색 결과 상단에 AI가 내용을 요약해서 보여주는 기능. 기존 링크 목록 대신 AI가 답을 직접 써줘. - **한나 버전**: 유튜브 영상 목록 대신 AI가 영상 내용을 미리 요약해서 "이거 보면 돼"라고 딱 알려주는 거야. 근데 요약을 가끔 엉터리로 해서 논란이 됐어.
    출처 ·EP. 14
  • AI roll-up

    - 전문가 설명: 인수합병(M&A) 전략의 일종으로, 특정 산업의 소규모 기업들을 여럿 사들여 AI로 효율화한 뒤 하나의 큰 기업으로 묶어 가치를 높이는 방식. - **한나 버전**: 지방 소도시 편의점들을 싸게 사서, AI 재고 관리·자동 발주 시스템 넣고, 파리바게트처럼 프랜차이즈 브랜드로 묶어서 비싸게 파는 거야. 콜센터 회사들을 이렇게 하고 있는 거지.
    출처 ·EP. 66
  • AI Slop

    - 전문가 설명: AI로 품질 검토 없이 대량 생성된 저품질 콘텐츠 또는 소프트웨어. - **한나 버전**: 틱톡에 AI 목소리로 긁어온 정보 영상 수천 개 있잖아. 누가 만든지도 모르고 사실 확인도 없는 그것들. 소프트웨어 세계에서도 이런 게 지금 폭발하는 중이야.
    출처 ·EP. 83
  • Alignment(Alignment (정렬 문제))

    - 전문가 설명: AI의 목표와 행동이 인간의 의도 및 가치와 일치하도록 만드는 문제. AI가 원하는 결과를 얻으려다 인간에게 해로운 방법을 쓸 수 있음. - **한나 버전**: 유튜브 알고리즘한테 "조회수 올려줘"라고 하면 알고리즘은 자극적인 썸네일, 낚시성 제목을 권장하잖아. 조회수라는 목표는 달성하는데 내 브랜드 이미지가 망가지는 것처럼 — AI의 목표와 내가 진짜 원하는 것 사이의 간극이 alignment 문제야.
    출처 ·EP. 1
  • Alignment Tax(Alignment Tax(정렬 세금))

    - 전문가 설명: AI를 안전하고 착하게 훈련(RLHF)시키는 과정에서, 원래 베이스 모델이 가진 날것의 창의성이 일부 손실되는 현상 - **한나 버전**: 브랜드 협업 계정 만들려고 콘텐츠를 너무 깔끔하고 안전하게 정제하다 보면 원래 가진 날것의 매력이 없어지는 거랑 같아. 브랜드 세이프 = 재미 없어짐
    출처 ·EP. 65
  • AlphaEvolve

    - 전문가 설명: Google DeepMind가 만든 AI 시스템. 수학적 알고리즘을 스스로 탐색하고 발전시킬 수 있어. - **한나 버전**: 영상 편집 AI가 수백 가지 편집 방식을 자동으로 시험해보고 제일 잘되는 걸 골라주는 것처럼, 수학 문제 풀이 방법을 AI가 수천 가지 시도해보는 도구야.
    출처 ·EP. 52EP. 80
  • Anthropic(Anthropic(앤트로픽))

    - 전문가 설명: OpenAI에서 나온 사람들이 2021년에 세운 AI 안전 중심 연구 회사. Claude를 만든 곳. - **한나 버전**: 대형 MCN에 있다가 "우리는 다른 방향으로 가겠다"며 독립한 크리에이터 팀이야. 근데 그 팀이 업계 최고 실력자들이었던 거지.
    출처 ·EP. 16
  • Anthropic / 클로드(Anthropic / 클로드(Claude))

    - 전문가 설명: OpenAI 출신들이 만든 AI 안전 연구 중심 회사. Claude는 이들의 AI 모델. - **한나 버전**: OpenAI에서 "너무 빠르게 가는 거 아니냐"고 걱정하던 사람들이 나와서 만든 회사야. 안전 연구에 진심인 팀.
    출처 ·EP. 14
  • Antigravity

    - 전문가 설명: Anthropic이 만든 AI 코딩 에이전트 앱. 터미널 없이도 AI가 컴퓨터 전체를 조종하며 코딩·테스트·배포까지 해줌. - **한나 버전**: 캡컷 같은 거야. 예전엔 영상 편집을 프리미어 프로 같은 전문 툴로 해야 했는데 캡컷이 나오면서 누구나 됐잖아. Antigravity가 코딩 세계에서 그걸 하고 있어.
    출처 ·EP. 77
  • Apache 라이선스

    - 전문가 설명: 소프트웨어를 상업적으로도 자유롭게 쓸 수 있는 오픈소스 라이선스. 거의 제약이 없음. - **한나 버전**: 저작권 표시만 해주면 상업적으로도 막 써도 되는 무료 BGM이야. 반면 Llama 라이선스는 "팔로워 7억 명 넘으면 유료 계약해야 해"라는 조건이 달린 거고. ---
    출처 ·EP. 64
  • ARIA(ARIA (Accessible Rich Internet Applications))

    - 전문가 설명: 시각 장애인 등이 웹사이트를 스크린 리더로 이용할 수 있도록 페이지의 의미 구조를 표준화한 기술. 스타일 정보 제외하고 핵심 정보만 담겨 있어. - **한나 버전**: 인스타 게시물에 ALT 텍스트 다는 거 있잖아. 이미지 못 보는 사람한테 "이건 강아지 사진이에요"라고 설명해주는 것. 근데 이게 AI한테도 딱 필요한 방식이야. 쓸데없는 꾸밈 빼고 핵심만 전달하니까.
    출처 ·EP. 50
  • Artifacts

    - 전문가 설명: Claude 3.5 Sonnet에 추가된 기능. 채팅창 옆에 실행 화면이 붙어서, AI가 만든 코드를 즉시 미리보기·실행할 수 있음. - **한나 버전**: 인스타 피드 미리보기 기능 같은 거야. 글 쓰고 올리기 전에 "이렇게 보여요" 하고 바로 화면에 띄워주는 것처럼, 코드도 짜자마자 옆에서 실행해서 보여줘.
    출처 ·EP. 19
  • arXiv

    - 전문가 설명: 동료 심사 전에 논문을 자유롭게 공개하는 프리프린트 서버 (물리학·AI 등 이공계 중심) - **한나 버전**: 논문 유튜브 같은 거야. 심사 통과 전에 미리 공개하는 플랫폼. AI 최신 연구가 여기 매일 수천 편씩 올라와.
    출처 ·EP. 82
  • Atomic Skill(Atomic Skill(원자적 스킬))

    - 전문가 설명: RL 이론에서, 더 이상 쪼갤 수 없는 기본 능력 단위. 사칙연산처럼 가장 기초적인 능력. - **한나 버전**: 인스타 릴스의 원자 스킬은 "훅 문장 쓰기", "자막 타이밍 맞추기", "CTA 달기" 같은 거야. 이걸 따로 배우는 게 pre-training이고, 이 스킬들을 조합해서 실제 바이럴 영상 만드는 감각을 키우는 게 RL인 거지.
    출처 ·EP. 81
  • Attention / Multi-head Attention

    - 전문가 설명: 입력 텍스트에서 어떤 부분에 집중할지를 계산하는 메커니즘. Multi-head는 여러 관점에서 동시에 살펴보는 것. - **한나 버전**: 브랜드 협업 제안서 검토할 때 "이 브랜드가 내 팔로워랑 맞나", "단가는 어때", "비주얼 핏은?" 여러 기준으로 동시에 보잖아. Multi-head attention이 딱 그거야. 여러 관점으로 동시에 보고 종합하는 거지.
    출처 ·EP. 83
  • Auto-GPT / BabyAGI

    - 전문가 설명: AI가 목표를 받으면 스스로 하위 작업을 나누고, 도구를 써가며, 루프를 돌면서 자율적으로 수행하는 에이전트 시스템. - **한나 버전**: 스태프한테 "이번 달 인스타 콘텐츠 기획해"라고 던지면 알아서 리서치하고, 기획서 만들고, 수정하고, 완성본 가져오는 것처럼 AI가 혼자 그 루프를 도는 거야.
    출처 ·EP. 1
  • Autonomous Company(Autonomous Company(자율 회사))

    - 전문가 설명: CEO·관리자·실무자 역할을 모두 LLM(AI)이 맡아서 인간 개입 없이 스스로 의사결정하고 운영하는 회사. - **한나 버전**: 한나 채널이 알아서 콘텐츠 기획하고, 촬영 가이드 짜고, 편집 방향 정하고, 브랜드 협업 제안까지 검토하는 회사. 한나는 최종 승인만.
    출처 ·EP.
  • Autoregressive(Autoregressive(자기회귀))

    - 전문가 설명: 이전 출력을 다음 입력으로 쓰는 방식. AI가 단어를 하나씩 순서대로 만들어내는 것. - **한나 버전**: 릴스 연속 촬영할 때 앞 컷을 보고 다음 컷 구도 잡는 거랑 비슷해. AI도 자기가 방금 뱉은 단어를 보고 다음 단어를 결정하거든. 그래서 첫 단어가 중요해 — 한번 방향이 잡히면 그 흐름으로 가게 돼 있어.
    출처 ·EP. 83
  • Autoresearch

    - 전문가 설명: AI가 스스로 가설을 세우고 실험하고 결과를 평가하며 연구를 반복하는 시스템. - **한나 버전**: 콘텐츠 A/B 테스트 자동화 버전. 한나가 "이 썸네일 vs 저 썸네일 중 뭐가 더 클릭돼?"를 사람이 아니라 AI가 스스로 수백 번 돌리면서 답 찾아오는 거야. "멈추지 말고 될 때까지 해"가 핵심 명령어.
    출처 ·EP. 90
  • AX(AX (AI Transformation))

    - 전문가 설명: 기업이나 개인의 업무 방식 전체를 AI 중심으로 바꾸는 것. DX(디지털 전환)의 AI 버전. - **한나 버전**: 회사 일하는 방식을 AI 기반으로 다 바꾸는 거. 단순히 ChatGPT 써보는 수준이 아니라, 아예 업무 흐름 자체를 "AI가 먼저 초안 내고 사람이 확인하는" 구조로 갈아엎는 것.
    출처 ·EP. 76EP. 91
  • Azure 슈퍼컴퓨터

    - 전문가 설명: Microsoft가 운영하는 클라우드 기반 초대형 컴퓨터 인프라. OpenAI가 이 위에 올라타서 GPT를 돌려. - **한나 버전**: OpenAI의 집주인이 Microsoft야. Azure는 그 건물인데, 건물 크기가 6개월 만에 30배 커진 거야. 세입자(OpenAI)도 당연히 더 넓은 공간을 쓸 수 있게 되는 거지.
    출처 ·EP. 14

B

  • B(B(Billion) 파라미터)

    - 전문가 설명: AI 모델이 학습한 숫자 덩어리의 개수. 많을수록 더 많은 걸 배웠다고 보면 돼. 70B = 700억 개. - **한나 버전**: 팔로워 수 같은 거야. 팔로워 많을수록 더 많은 사람 반응 봤고 더 똑똑해지는 느낌. 근데 팔로워 많다고 콘텐츠가 무조건 잘 되는 건 아니잖아. 그것처럼 파라미터 많다고 무조건 좋은 AI인 건 아니야.
    출처 ·EP. 9
  • B2B

    - 전문가 설명: Business-to-Business. 일반 소비자가 아니라 기업을 상대로 파는 사업 방식. - **한나 버전**: 유튜브 광고 수익이 B2C라면, 브랜드랑 직접 협찬 계약 맺는 게 B2B야. 올거나이즈는 삼성이나 보험사 같은 기업들한테만 팔거든.
    출처 ·EP. 11
  • B2B SaaS

    - 전문가 설명: 기업(Business)을 상대로 소프트웨어를 구독 형태로 파는 비즈니스 모델. - **한나 버전**: 크리에이터들이 쓰는 편집 툴 월정액, 스케줄 관리 앱 구독료 같은 것. 근데 그걸 기업한테 파는 버전이야. 지금 이 시장이 AI 때문에 가격이 0에 수렴하고 있다는 게 이번 화 핵심 메시지 중 하나야.
    출처 ·EP. 59EP. 74
  • B2B vs B2C

    - 전문가 설명: B2B는 기업 대 기업 거래, B2C는 기업 대 일반 소비자 거래. - **한나 버전**: 브랜드 협찬 받는 게 B2B고, 팔로워한테 직접 상품 파는 게 B2C야. Microsoft는 기업 고객 공략(B2B), 구글은 일반 유저한테도 직접 어필(B2C)했다는 거야.
    출처 ·EP. 53
  • backpropagation(backpropagation(역전파))

    - 전문가 설명: AI가 틀린 답을 냈을 때, 그 오차를 거꾸로 추적해서 어느 부분이 잘못됐는지 찾아 가중치(weight)를 수정하는 학습 알고리즘. - **한나 버전**: 유튜브 영상 올렸는데 조회수가 낮았어. 그래서 "썸네일이 문제였나? 제목이 문제였나? 업로드 시간이 문제였나?" 거꾸로 분석해서 다음 영상에 반영하는 것. AI는 이걸 자동으로, 초 단위로 하는 거야.
    출처 ·EP.
  • Batch(Batch(배치))

    - 전문가 설명: 추론 시 GPU가 한 번의 연산 사이클에 동시에 처리하는 요청 묶음. 배치가 클수록 GPU 효율이 높아짐. - **한나 버전**: 유튜브 쇼츠 한 번에 몇 개 올리냐 같은 거야. 한 번에 많이 처리하면 업로드 오버헤드가 나눠져서 효율이 올라가는 것처럼, GPU도 한 사이클에 많은 유저를 태울수록 단위 비용이 줄어.
    출처 ·EP. 96
  • Bayesian(Bayesian(베이지안))

    - 전문가 설명: 새로운 증거가 나올 때마다 기존 믿음(prior)을 수정하는 확률적 사고 방식. - **한나 버전**: "나는 숏폼이 최고야"라는 믿음을 갖고 있다가, 롱폼 영상 하나가 대박 나는 걸 보고 "아, 롱폼도 되네"로 생각을 업데이트하는 거야. 노정석이 항상 이렇게 생각하려고 노력한대. 새 증거 보면 기존 생각을 바꿀 수 있는 열린 자세.
    출처 ·EP. 67
  • Benchmark(Benchmark (벤치마크))

    - 전문가 설명: AI 모델 성능을 비교하는 표준 테스트 셋. 수학·코딩·상식 등 여러 과목 시험지. - **한나 버전**: 유튜브 조회수 100만을 기준으로 크리에이터 실력을 평가하는 공식 기준표 같은 거야. 다들 이 점수로 서로 비교해. 근데 점수가 전부는 아니라는 것도 다 알아. ---
    출처 ·EP. 95
  • benchmark / bench-maxxing

    - 전문가 설명: 벤치마크는 AI 성능 측정 시험. bench-maxxing은 그 시험 점수만 올리도록 과적합시키는 것. - **한나 버전**: 인스타 팔로워 수만 올리려고 팔로우-언팔 반복하거나 구매 팔로워 채우는 것. 숫자는 높아 보이지만 실제 인게이지먼트는 바닥인 거야.
    출처 ·EP. 78
  • BEP(BEP(Break-Even Point, 손익분기점))

    - 전문가 설명: 매출이 비용을 넘어서는 순간. 이 지점부터 흑자가 시작됨. - **한나 버전**: 유튜브 수익화 승인 같은 거야. 구독자 1,000명·시청 시간 4,000시간 넘으면 광고 수익이 들어오기 시작하잖아. 그 순간부터 "콘텐츠 더 만들수록 돈 더 번다"로 게임이 바뀌어. 모델 회사들이 지금 딱 그 지점을 넘고 있는 거야. ---
    출처 ·EP. 64
  • BERT

    - 전문가 설명: Google이 2018년에 공개한 언어 모델. 문장 전체를 앞뒤 다 보고 이해하는 방식을 써서 당시 자연어 처리 분야를 압도했음. - **한나 버전**: 틱톡 알고리즘이 영상 첫 3초만 보고 판단하는 게 아니라 처음부터 끝까지 다 보고 주제를 파악하는 식으로 업그레이드된 버전이라고 생각해봐. 그게 BERT가 기존 AI 대비 혁신적이었던 이유야.
    출처 ·EP.
  • Bitter Lesson

    - 전문가 설명: Rich Sutton이 쓴 글. AI 역사를 보면 인간의 직관이나 규칙을 넣는 것보다 그냥 데이터 많이 넣고 모델 크게 만드는 게 항상 이겼다는 교훈. - **한나 버전**: 콘텐츠로 치면 "기획 오래 하는 것보다 그냥 많이 올리는 게 이긴다"는 유튜브 격언이랑 비슷해. 알고리즘은 결국 데이터 양 편을 들더라는 거야.
    출처 ·EP. 58EP. 90
  • BPO(BPO(Business Process Outsourcing))

    - 전문가 설명: 기업의 특정 업무 프로세스를 외부 전문 업체에 통째로 맡기는 것. 고객센터, 데이터 입력, 회계 처리 등이 전형적인 BPO. - **한나 버전**: 한나 채널 유튜브 영상 편집, 자막, 썸네일, 댓글 관리까지 외주 에이전시에 다 맡기는 거야. 그 에이전시가 AI로 원가를 확 줄이면서도 한나한테는 옛날 가격 그대로 받으면? 마진이 터지는 구조지.
    출처 ·EP. 66
  • Browser Use

    - 전문가 설명: AI 에이전트가 실제 웹 브라우저를 열고 클릭·검색·입력 등 사람처럼 조작하는 기술 - **한나 버전**: 한나가 "인스타 DM 확인하고, 협찬 문의 있으면 정리해줘"라고 했을 때 AI가 직접 인스타 앱을 켜서 읽어오는 거야. 지금은 한나가 복사-붙여넣기 해줘야 하는 걸, AI가 직접 하는 것.
    출처 ·EP. 51

C

  • Capability Overhang

    - 전문가 설명: AI 모델이 실제로 활용되는 것보다 훨씬 더 많은 잠재 능력을 이미 갖추고 있는 상태. 능력은 있는데 아직 꺼내지 못한 잉여 능력. - **한나 버전**: 틱톡 알고리즘이 사실 엄청난 기능이 있는데 대부분 사람들이 기본 기능만 쓰는 거랑 같아. "이미 있는데 못 쓰고 있는 능력" — 그걸 먼저 꺼내 쓰는 사람이 이기는 거야.
  • CAPEX

    - 전문가 설명: Capital Expenditure. 장비·서버·인프라 같은 자본적 지출. 한 번 사면 오래 쓰지만 초기 비용이 엄청 커. - **한나 버전**: 촬영 스튜디오 차릴 때 카메라·조명·방음재 한꺼번에 다 사는 것. 돈 엄청 들고, 기술 좋아지면 나중에 더 싸게 살 수 있었는데 지금 다 써버리는 거.
    출처 ·EP. 7
  • CDP(CDP (Chrome DevTools Protocol))

    - 전문가 설명: 크롬 브라우저를 외부 프로그램이 원격으로 제어할 수 있게 하는 통신 규격 - **한나 버전**: 크롬 브라우저에 숨겨진 리모컨이야. 보통은 개발자들이 쓰는데, 최승준이 이 리모컨을 AI한테 쥐여준 거야.
    출처 ·EP. 50EP. 51
  • Chain of Thought

    - 전문가 설명: AI에게 최종 답만 요구하지 않고 "단계별로 생각하면서" 답하도록 유도하는 프롬프트 기법. 복잡한 문제에서 정확도가 올라감. - **한나 버전**: 유튜브 기획할 때 "이 영상 잘 될까?" 바로 묻는 것보다 "타겟 누구야 → 훅이 뭐야 → 경쟁 채널 뭐가 있어 → 그러면 어때?"처럼 단계별로 생각하게 하는 거야. GPT한테도 똑같이 단계별로 생각하게 하면 훨씬 정확해. ---
  • Cherry-picking

    - 전문가 설명: 여러 시도 중 잘 된 결과만 골라서 보여주는 것. 데모에서 자주 씀 - **한나 버전**: 유튜브 썸네일 찍을 때 사진 200장 찍어서 제일 잘 나온 1장 올리는 거잖아. 최승준이 에이전트 실험도 그렇게 했다고 솔직하게 고백한 거야.
    출처 ·EP. 51
  • CI/CD

    - 전문가 설명: Continuous Integration/Continuous Deployment. 코드를 자동으로 테스트하고 서버에 배포하는 자동화 파이프라인이야. - **한나 버전**: 영상 편집 끝나면 자동으로 업로드해주는 예약 발행 시스템 같은 거야. 이게 실수로 공개 안 될 파일까지 같이 올려버린 거야.
    출처 ·EP. 93
  • Circuit Breaking

    - 전문가 설명: 특정 서버나 AI 모델이 고장났을 때 자동으로 "이 경로 없음"으로 처리하고 다른 곳으로 트래픽을 돌리는 기능 - **한나 버전**: 협업 브랜드 담당자 연락이 안 될 때 자동으로 다른 담당자한테 이메일 보내는 시스템이야.
    출처 ·EP. 86
  • Claude Code

    - 전문가 설명: Anthropic이 만든 AI 코딩 에이전트. 코드 작성, 수정, 실행을 AI가 반자동으로 처리해주는 도구야. 개발자들 사이에서 2025~2026년 가장 인기 있는 AI 코딩 도구였어. - **한나 버전**: AI 코딩계의 CapCut 같은 거야. 영상 편집을 CapCut이 자동화해주듯, 코드 짜는 걸 자동화해주는 도구인데 — 그게 업계에서 제일 잘 만들어진 거였어.
  • Claude Code / OpenCode

    - 전문가 설명: AI가 코딩 작업을 자율적으로 수행하게 해주는 에이전트 기반 개발 도구 - **한나 버전**: AI한테 "이런 앱 만들어줘"라고 던져놓고 자리 비워도 밤새 혼자 코딩하는 도구야. 한나로 치면 "편집 방향 잡아줄게, 영상 편집은 네가 다 해"라고 AI한테 위임하는 느낌.
    출처 ·EP. 82
  • Claude Code vs. Codex CLI

    - 전문가 설명: 각각 Anthropic(Claude)과 OpenAI(GPT)의 터미널 기반 AI 코딩 도구. 개발자가 채팅창이 아니라 명령어로 AI한테 일 시키는 환경 - **한나 버전**: 둘 다 AI 편집자인데, Claude Code는 "이 부분은 어떻게 할까요?" 계속 물어보는 스타일, Codex CLI는 "알아서 다 해놨습니다" 스타일
    출처 ·EP. 65
  • CLAUDE.md(CLAUDE.md (Soul Document))

    - 전문가 설명: Claude Code가 프로젝트를 시작할 때 항상 먼저 읽는 마크다운 파일. 프로젝트의 맥락, 규칙, 목표가 담겨 있어. - **한나 버전**: 새 직원 온보딩 문서야. "우리 채널은 이런 톤으로 얘기하고, 이런 건 절대 하지 마"를 적어놓는 거지. AI가 매번 처음부터 설명 안 들어도 되게.
    출처 ·EP. 86
  • closed-loop feedback loop

    - 전문가 설명: 행동→결과 확인→수정→다시 행동이 끊기지 않고 계속 이어지는 자동 학습 구조. - **한나 버전**: 릴스 올리고 → 24시간 도달률 확인하고 → 알고리즘에 맞게 수정하고 → 다시 올리는 그 사이클. AI도 이걸 스스로 돌릴 수 있게 만드는 게 핵심이야.
    출처 ·EP. 71
  • closed-loop system

    - 전문가 설명: 입력 → 처리 → 출력 → 그 출력이 다시 입력으로 돌아오는 피드백 구조. 외부 개입 없이 스스로 정보를 순환시킴. - **한나 버전**: 네가 콘텐츠 올리면 팔로워가 반응하고, 그 반응을 보고 다음 콘텐츠를 만들고, 그게 또 반응을 만들고... 이 사이클이 네 채널 안에서 계속 돌면 closed-loop야. 외부 트렌드 따라가는 게 아니라 내 팔로워 반응으로 진화하는 채널.
    출처 ·EP. 45
  • CNN(CNN (Convolutional Neural Network, 합성곱 신경망))

    - 전문가 설명: 이미지나 신호에 필터를 슬라이딩하며 특징을 추출하는 딥러닝 구조. LeNet-5, ResNet, VGG 같은 모델들이 모두 CNN 기반. - **한나 버전**: 내 사진에 여러 필터를 겹겹이 씌워서 "윤곽선 있어? 색깔 패턴 있어? 텍스처 있어?" 하나씩 체크하는 앱이라고 생각해봐. 그걸 자동으로 학습해서 만드는 게 CNN이야.
    출처 ·EP.
  • Code Interpreter

    - 전문가 설명: ChatGPT가 파이썬 코드를 직접 실행하고 결과를 보여주는 기능. 데이터 분석, 파일 변환, 그래프 그리기 등이 가능. - **한나 버전**: ChatGPT한테 엑셀 파일 줬더니 직접 계산하고 그래프까지 그려주는 것. 코딩 몰라도 되는 데이터 분석 어시스턴트 같은 거야. ---
    출처 ·EP. 7
  • Codex / 위임의 위임

    - 전문가 설명: OpenAI가 만든 AI 코딩 에이전트. 사용자가 큰 작업 목록을 주면 AI가 독립적으로 실행해서 결과물(PR)을 가져옴. - **한나 버전**: 유튜브 채널 총괄 디렉터(나)가 팀장(Codex)한테 "이번 달 기획 다 짜와"라고 던지면, 팀장이 팀원들한테 쪼개서 분배하고 결과물만 가져오는 구조. 나는 OK/NO만 하면 돼. ---
    출처 ·EP.
  • Codex CLI

    - 전문가 설명: OpenAI가 만든 도구로, AI가 내 컴퓨터의 터미널(명령창)을 직접 조작해서 파일을 만들고 프로그램을 실행할 수 있게 해주는 에이전트 환경 - **한나 버전**: AI가 내 컴퓨터 바탕화면에서 직접 작업하는 직원이라고 생각해봐. "이 폴더 열어서 파일 만들고 저장해"를 AI가 직접 해주는 거야. 한나가 편집 지시를 말하면 편집자가 알아서 하는 것처럼.
    출처 ·EP. 49EP. 51
  • Cognition / Devin

    - 전문가 설명: Cognition AI가 만든 코딩 전문 AI 에이전트. 스스로 코드 짜고, 버그 고치고, PR(코드 제출)까지 하는 AI 개발자. - **한나 버전**: 영상 기획부터 편집·썸네일·업로드까지 혼자 다 하는 AI 크리에이터 에이전트 같은 거. 코딩 분야 버전이야.
    출처 ·EP. 72
  • Cognitive Revolution(Cognitive Revolution(인지 혁명))

    - 전문가 설명: Sequoia Capital이 명명한 개념. 산업혁명이 육체 노동을 대체했다면, AI는 지식·인지 노동을 대체하는 새 혁명이라는 뜻. - **한나 버전**: 산업혁명이 공장 기계가 "몸 쓰는 일"을 대체한 거라면, 지금은 AI가 "머리 쓰는 일"을 대체하는 혁명이야. 글 쓰기, 기획, 법률 검토, 코딩 — 다 여기 해당돼.
    출처 ·EP. 67
  • Computer Use / CUA

    - 전문가 설명: AI가 사람처럼 마우스·키보드로 컴퓨터 화면을 직접 조작하는 기능. - **한나 버전**: 편집자한테 "프리미어 열어서 컷 편집해줘" 하면 직접 소프트웨어 켜서 작업하는 것처럼, AI가 내 화면에서 직접 클릭하고 타이핑하는 거야.
    출처 ·EP. 72
  • Computer Use 에이전트(Computer Use 에이전트 (CUA))

    - 전문가 설명: 사람처럼 마우스 클릭·키보드 입력·화면 보기를 하면서 컴퓨터를 직접 조작하는 AI 에이전트. - **한나 버전**: AI가 직접 크롬 켜서, 구글 검색하고, 문서 작성하고, 파일 저장까지 하는 거야. 사람 대신 인턴이 컴퓨터를 통째로 쓰는 느낌. ---
    출처 ·EP. 89
  • context caching(context caching(컨텍스트 캐싱))

    - 전문가 설명: AI가 이전 대화 내용을 잠깐 저장해놔서 같은 정보를 계속 다시 처리하지 않아도 되게 하는 기술. 비용과 속도 모두 줄어들어. - **한나 버전**: 브랜드 브리핑 자료를 한 번만 읽어놓고, 이후 질문마다 처음부터 다시 읽지 않아도 되는 것처럼. 이번에 5분 캐싱에서 1시간 캐싱으로 늘어났어 — 긴 작업할 때 비용이 팍 줄어.
    출처 ·EP. 53
  • Context Engineering

    - 전문가 설명: AI에게 정보, 도구, 지시 사항을 얼마나 잘 구성해서 넣어주느냐를 설계하는 것. - **한나 버전**: 브랜드 협업 제안서를 어떻게 세팅해서 AI한테 쓰게 하느냐의 기술. 같은 AI도 어떻게 세팅하느냐에 따라 결과물이 완전히 달라져.
    출처 ·EP. 58EP. 71
  • Context Engineering / Graph RAG

    - 전문가 설명: AI한테 정보를 줄 때 단순 텍스트가 아니라 개념들 사이 관계(그래프)로 구조화해서 주입하는 기법. - **한나 버전**: AI한테 "뷰티 인플루언서다" 하는 게 아니라 "뷰티 인플루언서 - 주력 채널 인스타 - 타겟 20대 여성 - 주력 카테고리 스킨케어 - 평균 조회수 50만 - 협업 가능 브랜드 목록"처럼 관계도로 알려주는 거야. 이게 나만의 AI 맥락 지도야.
    출처 ·EP. 85
  • Context Rot

    - 전문가 설명: 너무 많은 AI 뉴스·정보가 쏟아져서 무엇에 집중해야 할지 모르는 인지 과부하 상태. - **한나 버전**: 인스타 피드에 브랜드 협업 제안이 하루에 50개 오는데 뭐가 좋은 딜인지 판단이 안 되는 그 상태. 정보가 많아서 오히려 마비되는 거야.
    출처 ·EP. 71
  • Context Window

    - 전문가 설명: AI가 한 번에 기억하고 처리할 수 있는 텍스트의 최대 분량. 토큰(단어 단위)으로 측정. - **한나 버전**: 카카오톡 대화창이라고 생각해. 대화가 너무 길면 앞 내용을 까먹는 거야. 100k라는 건 대화창이 위대한 개츠비 한 권 분량만큼 크다는 뜻.
    출처 ·EP. 1
  • continual learning

    - 전문가 설명: AI 모델이 처음 학습 이후에도 실제 사용 경험을 바탕으로 계속 스스로 업데이트되는 기술. - **한나 버전**: 유튜브 알고리즘이 시청자 반응 데이터 쌓이면서 계속 더 정교해지는 것처럼, AI도 배포된 뒤에 계속 더 똑똑해지는 거야. 지금은 업로드 직후 고정이지만 이게 되면 매일매일 업데이트되는 채널이 생기는 셈이지.
    출처 ·EP. 78EP. 79
  • Continual Learning(Continual Learning(지속 학습))

    - 전문가 설명: AI가 배포된 이후에도 새로운 경험을 통해 계속 학습·업데이트되는 방식. - **한나 버전**: 유튜브 올리면 알고리즘이 반응 보고 알아서 추천을 조정하잖아. 지속 학습은 AI 자체가 그런 거야. "이 상황에서 이게 중요하다"고 AI 스스로 판단하고 배우는 거. 지금 AI는 학습 끝나면 그냥 멈추는데, 지속 학습 AI는 계속 성장해.
    출처 ·EP. 81
  • Continual Pre-training(Continual Pre-training (CPT))

    - 전문가 설명: 이미 만들어진 AI 모델에 새로운 데이터를 계속 추가 학습시키는 방법. 처음부터 다시 만드는 게 아니라 기존 모델을 계속 업그레이드. - **한나 버전**: 유튜브 채널 처음부터 새로 파는 게 아니라, 기존 채널에 계속 영상 올리면서 성장시키는 거야. 쌓인 구독자(학습된 지식)는 유지하면서 새 콘텐츠(데이터)만 추가해.
    출처 ·EP. 94
  • Convolution

    - 전문가 설명: 두 신호를 하나는 뒤집어서 겹치며 곱하고 더하는 연산. 시스템의 특성(h[n])과 입력(x[n])의 관계를 계산할 때 씀. - **한나 버전**: 틱톡 영상을 편집 앱으로 긁는 것처럼, 필터가 이미지 위를 쫙 훑고 다니면서 "여기 이런 특징 있네 없네"를 체크하는 연산이야.
    출처 ·EP.
  • Copilot

    - 전문가 설명: MS가 자사 제품(Word, Excel, Windows, GitHub 등) 전반에 탑재하는 AI 어시스턴트. GPT-4를 핵심 엔진으로 쓰고, 그 주변 조율 작업을 담당하는 레이어. - **한나 버전**: 영상 편집 앱에서 "자동 자막 생성" 눌렀을 때 뒤에서 일어나는 모든 작업 — 음성 분석, 타임라인 맞추기, 화면에 띄우기 — 이걸 다 해주는 총괄 PD 같은 거야. 실제 똑똑한 작업(자막 인식)은 AI 엔진이 하고, Copilot은 그 엔진을 잘 쓰도록 준비해주는 스태프인 거지.
    출처 ·EP. 3
  • Copilot+ PC

    - 전문가 설명: Microsoft가 발표한 AI 기능 내장 Windows PC. ARM 칩 기반으로 기기 자체에서 AI를 실행. - **한나 버전**: 클라우드에 연결 안 해도 내 노트북 안에서 바로 AI가 돌아가는 거야. 인터넷 없어도 캡컷 자동 편집 되는 느낌.
    출처 ·EP. 14
  • CoT(CoT(Chain of Thought))

    - 전문가 설명: AI가 최종 답 바로 내놓지 않고, 중간 추론 과정을 단계적으로 보여주며 생각하는 방식. - **한나 버전**: "이 협업 받을지 말지 결정해줘" 했을 때, AI가 "일단 팔로워 수 봐봐 → 브랜드 이미지 맞나 봐봐 → 단가 계산해봐 → 결론은 이래" 이렇게 생각 과정을 보여주는 게 CoT야. ---
  • COT(COT(Chain of Thought))

    - 전문가 설명: AI가 답을 바로 내놓지 않고 중간 추론 과정을 써가면서 생각하는 방식. 생각의 사슬. - **한나 버전**: 영상 아이디어 짤 때 "요즘 트렌드가 이거고 → 내 채널 톤은 이거고 → 그럼 이걸 접목하면..." 하고 과정 쓰면서 결론 내는 것처럼, AI도 중간 생각을 펼쳐놓고 답 내는 거야.
    출처 ·EP. 47
  • CUA(CUA (Computer Use Agent))

    - 전문가 설명: 컴퓨터 화면을 직접 보고 마우스 클릭, 키보드 입력 등을 수행하는 AI 에이전트. - **한나 버전**: AI가 눈이 생겨서 내 화면을 직접 보고 내 손 역할도 하는 거야. "배민 앱 켜서 치킨 주문해"라고 말하면 AI가 진짜로 앱 켜고 클릭하고 주문해줘.
    출처 ·EP. 91
  • Cursor

    - 전문가 설명: AI 기반 코드 에디터. 개발자가 코드 짤 때 AI가 옆에서 제안해주고 통째로 작성해주는 도구. - **한나 버전**: 크리에이터 버전으로 치면 — 영상 기획부터 대본 초안, 섬네일 카피까지 AI가 먼저 뚝딱 만들어주고 네가 보면서 "이건 좋아, 이건 빼줘" 하는 구조야.
    출처 ·EP. 55EP. 59
  • Customer Development

    - 전문가 설명: 제품 만들기 전에 실제로 쓸 고객을 먼저 파악하고 검증하는 과정. 스타트업에서 핵심 개념. - **한나 버전**: 영상 만들기 전에 "누가 볼 건데? 걔네가 원하는 게 뭔데?"를 먼저 확인하는 거야. 한나가 콘텐츠 올리기 전에 댓글 반응 보고 방향 잡는 그 과정이 customer development야.
    출처 ·EP. 85

D

  • data flywheel

    - 전문가 설명: 데이터 → 서비스 개선 → 사용자 증가 → 더 많은 데이터 → 서비스 재개선으로 이어지는 선순환 구조. - **한나 버전**: 유튜브 쇼츠 올릴수록 알고리즘이 네 스타일을 파악하고, 파악할수록 더 많이 노출해주고, 노출될수록 반응 데이터가 더 쌓이고, 그 데이터로 더 잘 만들게 되는 그 선순환. 팔로워 10만 채널이 팔로워 1000 채널보다 새 영상이 더 빨리 뜨는 이유가 이거야.
    출처 ·EP. 45
  • Decode

    - 전문가 설명: AI가 한 토큰씩 순서대로 출력을 생성하는 과정. 이전 출력이 있어야 다음 출력이 나오는 구조. - **한나 버전**: 라이브 중에 멘트를 한 마디씩 내뱉는 것. 한 마디 나와야 다음 마디 나올 수 있어. AI 답변이 타타타 나오는 그거야.
    출처 ·EP. 96
  • Deep Research

    - 전문가 설명: Gemini(Google AI)나 ChatGPT에 있는 기능으로, 웹을 자동으로 검색·종합해서 긴 리포트를 만들어주는 모드. - **한나 버전**: "이 키워드로 인터넷 싹 뒤져서 50페이지 보고서 만들어줘"가 가능한 기능. 최승준이 MCP 공부하러 이걸 써서 리포트를 뚝딱 만들었어.
    출처 ·EP. 48
  • Default Mode Network(Default Mode Network(디폴트 모드 네트워크))

    - 전문가 설명: 뇌가 특정 과제에 집중하지 않을 때 활성화되는 회로. 멍때리거나 잠들 때 작동하며 창의적 연결을 담당. - **한나 버전**: 샤워하거나 산책할 때 갑자기 콘텐츠 아이디어가 막 떠오르잖아. 그게 이 네트워크가 작동하는 거야. Gwern은 AI한테도 이걸 인위적으로 만들어주자고 한 거야.
    출처 ·EP. 60
  • Dense 모델

    - 전문가 설명: 매번 추론할 때 모든 파라미터(AI 뇌세포)를 전부 활성화하는 전통적인 AI 구조. - **한나 버전**: 릴스 하나 올릴 때마다 전체 팀(촬영, 편집, 자막, 기획, 디자인)을 전부 풀가동하는 거야. 반면 MoE는 그 릴스에 필요한 사람만 딱 불러서 쓰는 거고.
    출처 ·EP. 81
  • deprecated

    - 전문가 설명: 소프트웨어 용어로, 더 이상 지원되지 않거나 구식이 된 상태 - **한나 버전**: 앱 업데이트하면 예전 기능이 "지원 종료" 뜨잖아. Karpathy가 "한 달 안 본 사람 뇌가 지원 종료 상태"라고 한 거야.
    출처 ·EP. 82
  • Diffusion(Diffusion(디퓨전) 모델)

    - 전문가 설명: 노이즈에서 출발해 점점 정교한 결과물을 만드는 생성 AI 기법. 이미지 생성(Stable Diffusion)에 많이 쓰임. - **한나 버전**: 영상 편집할 때 처음엔 대충 컷 나누고, 보정하고, 자막 넣고, 섬네일 다듬고 — 단계적으로 정교하게 만드는 과정이야. 로봇 행동도 이런 식으로 '점점 다듬어서' 최종 동작을 만들어내는 거.
    출처 ·EP. 84
  • Disintermediation

    - 전문가 설명: 중간 단계를 없애버리는 것. 공급자와 소비자 사이에 있던 중간 사업자가 제거되는 현상. - **한나 버전**: 브랜드가 인플루언서 없이 소비자한테 직접 파는 것처럼, 에이전트가 배민 없이 식당에 직접 주문해버리는 거야. 중간에서 수수료 챙기던 플랫폼이 사라지는 거지.
    출처 ·EP. 91
  • distillation(distillation (지식 증류))

    - 전문가 설명: 거대한 AI 모델이 어려운 문제 푸는 과정을 데이터로 모아서, 훨씬 작은 모델에 그 지식을 압축해 넣는 기술. - **한나 버전**: 유재석이 진행하는 영상 수백 편 보면서 "멘트 스타일, 리액션 타이밍, 질문 패턴"만 뽑아서 나만의 진행 가이드북 만드는 것. 원본보다 훨씬 가볍지만 핵심 능력은 담겨있어.
    출처 ·EP. 45EP.
  • Distillation(Distillation (지식 증류))

    - 전문가 설명: 큰 모델(teacher)의 지식을 작은 모델(student)이 흡수해 학습하는 방법. - **한나 버전**: 팔로워 1000만 인플루언서가 본인 콘텐츠 노하우를 1만 팔로워 신인에게 직접 코칭해주는 거야. 신인이 처음부터 혼자 고생하는 것보다 훨씬 빠르게 성장해. ---
    출처 ·EP. 1EP. 95
  • Distillation / 증류

    - 전문가 설명: 큰 모델(teacher)이 만든 답변으로 작은 모델(student)을 훈련시켜 성능을 끌어올리는 기법 - **한나 버전**: 100만 구독자 크리에이터(큰 모델)가 콘텐츠 전략 다 공개하면, 신인 크리에이터(작은 모델)가 그걸 보고 훨씬 빠르게 성장하는 거야 ---
    출처 ·EP. 2
  • Distribution

    - 전문가 설명: 제품이나 서비스를 실제 고객에게 전달하는 채널과 능력. 유통력. - **한나 버전**: 팔로워야. 아무리 좋은 콘텐츠도 팔로워 없으면 아무도 안 봐. 스타트업 세계에서 distribution은 한나한테 팔로워 같은 거야.
    출처 ·EP. 59
  • DMCA

    - 전문가 설명: Digital Millennium Copyright Act. 미국 저작권법으로, 온라인에 올라간 저작권 침해 콘텐츠를 삭제 요청할 수 있는 법적 절차야. - **한나 버전**: 인스타나 유튜브에 내 사진/영상을 무단으로 올린 사람한테 "내려"라고 신고하는 그 시스템이야. Anthropic이 유출된 코드 올린 사람들한테 그 신고를 날린 거야.
    출처 ·EP. 93
  • dogfooding

    - 전문가 설명: 자기 회사가 만든 제품을 임직원이 직접 써보면서 개선하는 것. "개밥 먹기" 전략. - **한나 버전**: 한나가 자기 편집 프리셋이나 필터 툴을 직접 써보면서 "이거 불편한데?" 하고 고치는 것. 내가 쓰기 불편하면 팔로워도 불편한 거니까.
    출처 ·EP.
  • Dogfooding(Dogfooding(개밥 먹기))

    - 전문가 설명: 자기 회사가 만든 제품을 직원들이 직접 쓰면서 테스트하는 문화. - **한나 버전**: 내가 만든 레시피 브랜드 제품을 내가 직접 매일 쓰면서 "이거 진짜 좋냐?"를 확인하는 거야.
    출처 ·EP. 52
  • DOM(DOM (Document Object Model))

    - 전문가 설명: 웹페이지의 모든 요소(버튼, 이미지, 텍스트 등)를 구조적으로 표현한 것. JavaScript로 조작 가능. - **한나 버전**: 인스타 피드에서 각 포스트, 좋아요 버튼, 댓글창을 개별 레고 블록으로 생각해봐. DOM은 그 블록들 목록이야. AI가 거기서 특정 블록만 집어서 바꾸는 게 "surgical DOM update"야.
    출처 ·EP. 72
  • DPO(DPO (Direct Preference Optimization))

    - 전문가 설명: AI한테 "이게 더 좋다 / 이건 별로다" 라는 인간의 선호를 학습시키는 방법. RLHF를 단순화한 버전. - **한나 버전**: 인스타 알고리즘이 "좋아요 눌린 게 좋은 콘텐츠구나"를 학습하는 것처럼, Cursor도 사용자가 "이 코드 쓸게요 / 이건 버릴게요" 하는 반응을 학습해. 그게 쌓이면 AI가 취향을 알게 되는 거야.
    출처 ·EP. 55

E

  • End-to-end 학습

    - 전문가 설명: 중간에 사람이 짜둔 규칙 없이, 입력에서 출력까지 모든 과정을 AI가 스스로 학습하는 방식. - **한나 버전**: 예전엔 콘텐츠 기획→촬영→편집→업로드 각 단계마다 다른 담당자가 따로 있었는데, 이제 AI 하나가 "팔로워 늘어라"는 목표만 받고 전 과정을 알아서 처리하는 것. 중간 관리자 없애버리는 거야.
    출처 ·EP. 84
  • Entitlements

    - 전문가 설명: AI 에이전트가 어디까지 할 수 있는지를 정해놓은 권한 관리 시스템. - **한나 버전**: 브랜드 협업할 때 "DM은 OK, 계약서 사인은 직접 해야 해"라고 매니저 권한을 정해놓는 것처럼, AI 에이전트한테도 "여기까진 해도 돼, 여기선 멈춰"를 설정하는 거야.
    출처 ·EP. 53
  • Epigenetics(Epigenetics (후생유전학))

    - 전문가 설명: DNA 서열 자체는 바뀌지 않지만, 유전자 발현 방식이 환경·생활습관에 의해 변하는 현상. 어떤 유전자를 켜고 끌지를 결정하는 메커니즘. - **한나 버전**: 같은 콘텐츠(DNA)라도 어떤 플랫폼(환경)에서 올리느냐에 따라 성과(유전자 발현)가 달라지는 거야. 콘텐츠 자체는 같은데 틱톡에선 터지고 유튜브에선 묻히는 것처럼.
    출처 ·EP. 94
  • Epoch

    - 전문가 설명: 전체 학습 데이터를 한 번 다 돌리는 단위. 100 epoch이면 전체 데이터를 100번 반복 학습한 것. - **한나 버전**: 같은 스크립트를 처음부터 끝까지 한 번 읽는 게 1 epoch. 100번 반복 읽으면 100 epoch. 많이 읽을수록 외워지지.
    출처 ·EP. 17

F

  • few-shot / zero-shot

    - 전문가 설명: AI한테 문제를 줄 때 예시를 몇 개 같이 주느냐의 차이. zero-shot은 예시 없이 바로 질문, one-shot은 예시 1개, few-shot은 2~3개. - **한나 버전**: 브랜드한테 협업 제안서 쓸 때 "이런 느낌으로 써줘"라고 예시 레퍼런스를 보내주는 거랑 같아. 레퍼런스 없이 하면(zero-shot) 방향이 엉뚱하게 나오고, 2~3개 보여주면(few-shot) 훨씬 정확해지는 거야.
    출처 ·EP. 13
  • FFT(FFT (Fast Fourier Transform))

    - 전문가 설명: 푸리에 변환을 짝수·홀수로 나눠 재귀적으로 처리해 계산량을 N²에서 N log N으로 줄인 알고리즘 (Cooley-Tukey, 1965). - **한나 버전**: 100개 협찬 제안을 하나씩 검토하는 대신 "우선 카테고리별로 묶고 각 묶음에서 빠르게 결정하는" 효율적인 협업 프로세스랑 같아.
    출처 ·EP.
  • fine-tuning

    - 전문가 설명: 이미 학습된 AI 모델을 특정 분야에 맞게 추가로 학습시키는 것. - **한나 버전**: 유명 크리에이터한테 기본 촬영법 배우고 나서, 내 채널 스타일(뷰티인지 여행인지)에 맞게 추가로 연습하는 거야. 기본기 위에 내 색을 입히는 것.
    출처 ·EP. 11EP.
  • Fine-tuning(Fine-tuning(파인튜닝))

    - 전문가 설명: 이미 훈련된 대형 AI 모델을 특정 분야 데이터로 추가 학습시켜 그 분야에 특화시키는 것. - **한나 버전**: 요리 유튜버가 "요리 전문 스타일"로 편집 톤을 잡는 것처럼, 기본 AI를 뷰티·의료·법률 등 한 분야에 특화되게 "재교육"하는 거야.
  • Fine-Tuning

    - 전문가 설명: 범용 AI 모델을 특정 분야 데이터로 추가 학습시켜 그 분야에 특화된 모델로 만드는 것. - **한나 버전**: 일반 영상 편집 AI에게 "나는 뷰티 콘텐츠만 해, 내 과거 영상 500개 학습해"라고 가르쳐서, 내 채널 스타일에 딱 맞게 자르고 자막 달아주는 AI로 만드는 것.
    출처 ·EP. 74
  • Fine-tuning / LoRA

    - 전문가 설명: 기존 AI 모델을 특정 분야·스타일에 맞게 추가 학습시키는 것. LoRA는 전체를 다시 학습하지 않고 차이(delta)만 조금 붙이는 가벼운 방법. - **한나 버전**: 아이유 필터 + 이효리 바이브를 Stable Diffusion에 합쳐서 내 얼굴에 씌우는 그거야. 모델 자체를 새로 만드는 게 아니라, 기존 모델에 "이 특성만 더해줘" 하고 얇은 레이어를 붙이는 거지. ---
    출처 ·EP. 5
  • Forward Deployment Engineer

    - 전문가 설명: 팔란티어(데이터 분석 기업)에서 유래한 개념. 기술 전문가가 현장(고객 도메인)에 직접 들어가 빠르게 실험하고 프로토타입을 만드는 역할. - **한나 버전**: 콘텐츠 회사로 치면 "실험 영상 빠르게 만들어서 반응 보는 팀". 완벽하게 만들지 않고 일단 빠르게 테스트해서 "이거 되네 / 이건 아니네" 찾아내는 사람들이야.
    출처 ·EP. 55
  • Foundation Model(Foundation Model(파운데이션 모델))

    - 전문가 설명: 엄청난 데이터로 사전 학습된 대형 AI 모델. GPT-4, Gemini 같은 것. 여기서 출발해서 다른 용도로 응용할 수 있음. - **한나 버전**: 대형 MCN이나 플랫폼이 만들어 놓은 기본 인프라 같은 거야. 개인 크리에이터가 처음부터 서버·알고리즘 다 만들 필요 없이 그 위에서 콘텐츠만 만드는 것처럼, 스타트업도 이 모델 위에서 서비스를 얹어.
    출처 ·EP. 4
  • Foundation Model / 기반 모델

    - 전문가 설명: GPT-4, PaLM처럼 방대한 데이터로 훈련된 대형 AI 모델. 여기서 파생해서 다양한 서비스를 만들 수 있음 - **한나 버전**: 마치 Premiere Pro 같은 편집 프로그램이야. 그 자체로도 쓸 수 있고, 거기에 플러그인(fine-tuning) 붙여서 내 스타일에 맞게 커스텀할 수 있어
    출처 ·EP. 2
  • Fourier Transform(Fourier Transform (푸리에 변환))

    - 전문가 설명: 어떤 신호든 여러 주파수의 파형으로 분해하는 수학 도구. 시간 축 신호를 주파수 도메인으로 옮김. - **한나 버전**: 내 콘텐츠를 "10대 구독자 반응 강도 + 20대 구독자 반응 강도 + 30대 반응 강도"처럼 연령대별로 분해해서 보여주는 분석 도구라고 생각해봐.
    출처 ·EP.
  • FP4(FP4(4비트 부동소수점))

    - 전문가 설명: AI 연산에서 숫자를 4비트(0~15, 총 16단계)로만 표현하는 방식. 정밀도는 낮아지지만 속도와 메모리 효율이 극적으로 올라감. - **한나 버전**: 사진 화질 압축이야. 원본 RAW 파일 대신 저해상도 JPEG로 저장하면 용량이 확 줄어들잖아. AI도 숫자를 "대충 16단계로만 보면" 메모리 훨씬 적게 쓰고 훨씬 빨리 돌아가. 문제는 화질(= 정확도)이 떨어지는데, 최근에 그래도 충분히 괜찮다는 게 증명된 거야. ---
    출처 ·EP. 64
  • Frenemy(Frenemy(프레너미))

    - 전문가 설명: Friend + Enemy. 협력하면서도 경쟁하는 관계 - **한나 버전**: 같은 카테고리 크리에이터인데 콜라보도 하고 알고리즘도 경쟁하는 사이. 유튜브 뷰티 크리에이터들이 서로 콜라보하면서도 구독자 뺏기는 거랑 같아
    출처 ·EP. 65
  • Frontier 모델

    - 전문가 설명: 현재 기술의 최전선(frontier)에 있는 최고 성능 AI 모델. GPT-4o, Claude Opus, Gemini Ultra 등이 해당. - **한나 버전**: 팔로워 수 기준으로 메가 인플루언서급 AI야. 100만 팔로워 이상 느낌. 그 아래 미드티어 모델들은 중간급 인플루언서. 2025년엔 중국이 메가급을 공짜로 공개하면서 판을 뒤집은 거야. ---
    출처 ·EP. 81
  • function calling

    - 전문가 설명: AI가 대화 중에 스스로 판단해서 특정 기능(날씨 검색, 파일 열기 등)을 골라 실행하는 능력. 처음 나왔을 때는 불안정했지만 지금은 잘 작동해. - **한나 버전**: 매니저한테 "오늘 일정 체크해줘"라고 했을 때, 매니저가 스스로 캘린더 앱을 열어서 확인하는 것처럼 — AI가 필요한 도구를 알아서 꺼내 쓰는 능력이야.
    출처 ·EP. 50
  • Function Calling

    - 전문가 설명: AI에게 "이런 기능들을 쓸 수 있어"라고 미리 알려주면, AI가 대화 중 필요할 때 그 기능을 직접 실행하는 방식. - **한나 버전**: 편집자한테 "내 구글 드라이브 접근권, 캘린더 접근권 다 줄게"하고 주면, 편집자가 알아서 필요할 때 꺼내 쓰는 거야. AI한테 그 권한 목록을 주는 게 function calling.
    출처 ·EP. 6EP. 48

G

  • GAN

    - 전문가 설명: Generative Adversarial Network. 생성자와 판별자가 서로 경쟁하며 더 진짜 같은 이미지를 만들어내는 구조. - **한나 버전**: 한명은 가짜 사진 만들고 한명은 "이거 가짜야 진짜야?" 맞히는 게임을 계속하다 보면 가짜가 점점 진짜 같아지는 원리야. Stable Diffusion 전신이 이거야.
    출처 ·EP. 90
  • Gato / RT-2 / PaLM-E

    - 전문가 설명: DeepMind와 Google Brain이 개발한 로봇 AI 연구 시리즈. 텍스트·이미지 뿐 아니라 실제 물리적 행동(로봇 팔 제어 등)까지 AI가 학습하게 함. - **한나 버전**: AI한테 "팔다리"를 달아주는 연구야. 지금까지 AI는 말만 잘했는데, 이제 직접 뭔가를 집어 올리고 행동하는 걸 배우는 거. 이게 나중엔 집에 있는 로봇이 내 지시를 알아듣는 세상으로 이어지는 거야.
    출처 ·EP. 12
  • GDPval

    - 전문가 설명: OpenAI가 만든 새 평가 기준. 수학·코딩뿐 아니라 글쓰기, 자료정리, 영상 등 일반 업무에서 AI의 능력을 측정함. - **한나 버전**: AI 성적표를 이제 이과 과목만 보는 게 아니라 전 과목으로 넓힌 거야. 글쓰기, 콘텐츠 제작 능력도 이제 공식 평가 대상이야.
    출처 ·EP. 71
  • GDPVal

    - 전문가 설명: OpenAI가 만든 벤치마크. 인간의 실제 직업 44개에서 뽑은 1,300여 개 과제로 AI가 실무를 얼마나 잘 하는지 측정함. - **한나 버전**: 유튜브 크리에이터 능력 종합 평가지 같은 거야. 기획력·편집·댓글 관리·협업 협상 등 실제 업무를 다 넣어서 "너 실전에서 얼마나 써먹을 수 있어?"를 점수로 매기는 거. GPT-5.2가 이 시험에서 70점 받았는데, 인간 평균보다 높은 점수야.
    출처 ·EP. 79
  • Gemini

    - 전문가 설명: Google DeepMind가 개발 중인 차세대 거대언어모델. 멀티모달 특화로, GPT-4에 대항하는 구글의 핵심 카드. - **한나 버전**: 구글이 ChatGPT한테 밀리고 있는 상황에서 몇 달 동안 비밀 작업실에서 만든 신작 콘텐츠야. 공개 전부터 관계자들 사이에서 "이거 엄청남"이라는 소문이 돌고 있는 상태.
    출처 ·EP. 5EP. 12
  • Gemini 2.5 Pro

    - 전문가 설명: Google DeepMind의 최신 멀티모달 AI 모델. 성능 대비 API 비용에서 현재 최고 가성비 - **한나 버전**: 애플 정품이 OpenAI라면, Gemini는 성능은 거의 비슷한데 가격이 훨씬 저렴한 경쟁 브랜드야. 지금은 많은 사람들이 "이거면 충분한데?" 하고 갈아타는 중.
    출처 ·EP. 49
  • Gen AI(Gen AI(생성형 AI))

    - 전문가 설명: 텍스트·이미지·음성 등을 새롭게 만들어내는 AI. 기존 AI가 분류·예측 위주였다면, Gen AI는 창작이 가능함. - **한나 버전**: AI가 단순히 "이 사진은 강아지야"를 판단하는 게 아니라 "강아지 사진을 새로 그려줘"를 해주는 거야. 한나가 쓰는 ChatGPT로 대본 쓰는 것, DALL-E로 썸네일 만드는 것, Typecast로 목소리 입히는 것, 전부 Gen AI야.
    출처 ·EP. 4
  • General Catalyst

    - 전문가 설명: 미국 주요 벤처캐피털 펀드. Airbnb, HubSpot 등에 투자한 걸로 유명. - **한나 버전**: MCN계로 치면 크리에이터들한테 투자하고 키워주는 대형 에이전시랑 비슷해. 근데 규모가 수조 원 급인 거야.
    출처 ·EP. 59
  • Genesis Mission

    - 전문가 설명: 백악관이 AI를 활용해 과학 혁신을 가속화하겠다는 국가 프로젝트. OpenAI·Google·Anthropic이 참여. - **한나 버전**: 정부가 대형 크리에이터들(AI 회사들)에게 "국가 공식 브랜드 캠페인 같이 하자"고 제안한 거야. 근데 규모가 아폴로 우주선 급이야.
    출처 ·EP. 80
  • GLP-1

    - 전문가 설명: 비만·당뇨 치료에 쓰이는 호르몬 계열 약물 (위고비, 오젬픽 등). 최근 장수·노화 연구와도 연결되는 관심 분야. - **한나 버전**: 요즘 해외 셀럽들 사이에서 유행하는 살 빠지는 주사. 노정석이 영생·장수에 관심이 많다는 걸 보여주려고 잠깐 언급한 거야.
    출처 ·EP. 74
  • GPT-4o

    - 전문가 설명: OpenAI가 2024년 5월 공개한 멀티모달 AI. 텍스트·음성·이미지를 동시에 처리하고, 이전보다 훨씬 빠르고 자연스러운 대화가 가능해. - **한나 버전**: 틱톡 라이브에서 실시간 댓글 읽으면서 동시에 노래하는 AI야. 텍스트만 받던 게 이제 목소리로 웃고 화내고 반응하는 거지. 발표 영상이 너무 감성적이어서 "이거 연기 아니야?" 할 정도였어.
    출처 ·EP. 14
  • GPU

    - 전문가 설명: AI 학습과 실행에 쓰이는 고성능 반도체 칩. NVIDIA가 거의 독점. - **한나 버전**: AI판의 스튜디오 장비야. 영상 크리에이터한테 카메라·조명이 필수이듯, AI 회사한테 GPU가 없으면 아무것도 못 해. 지금 전 세계가 이 장비 품귀 대란 중이야.
    출처 ·EP. 9
  • Gradient Descent(Gradient Descent(경사 하강법))

    - 전문가 설명: 손실 함수의 기울기 반대 방향으로 파라미터를 조금씩 업데이트하는 최적화 방법. - **한나 버전**: 산에서 눈 감고 발밑만 더듬으면서 경사 따라 조금씩 내려오는 거야. 느리지만 어디서든 시작할 수 있어. 지금 대부분의 딥러닝이 이 방법 써.
    출처 ·EP.
  • Grokking

    - 전문가 설명: 모델이 훈련 데이터를 단순히 외우는 단계를 넘어 어느 순간 진정한 일반화 능력을 획득하는 현상. 충분히 오래 학습했을 때 갑자기 나타나. - **한나 버전**: 유튜브 편집을 수백 개 하다 보면 어느 순간 "아, 이 타이밍에 컷이 들어가야 해"가 몸으로 느껴지는 그 순간. 머리로 이해한 게 아니라 체화된 거야.
    출처 ·EP. 17
  • GTC

    - 전문가 설명: 엔비디아가 매년 여는 GPU 기술 컨퍼런스. AI·반도체·로보틱스 관련 대형 발표가 나옴. - **한나 버전**: AI 업계의 코엑스 전시회 같은 거야. 엔비디아 CEO 젠슨 황이 나와서 앞으로 2년 칩 로드맵을 공개하고, 파트너사들이 줄줄이 등장해. 관심 있는 사람들은 직접 보러 한국에서도 가더라고.
    출처 ·EP. 46
  • GTM(GTM (Go-To-Market))

    - 전문가 설명: 제품이나 서비스를 시장에 어떻게 내놓고 고객에게 닿게 할지에 대한 전략 전체. - **한나 버전**: 콘텐츠 얼마나 잘 만들었느냐보다 "누구한테, 어떤 타이밍에, 어떤 채널로" 내보내느냐의 전략. 아이돌 컴백에서 티저-쇼케이스-앨범 발매 순서 짜는 것처럼, 제품도 어떻게 "공개"할지 전략이 GTM이야.
    출처 ·EP. 45

H

  • hallucination

    - 전문가 설명: AI가 사실이 아닌 내용을 마치 사실인 것처럼 자신 있게 말하는 현상. - **한나 버전**: 협찬 제품 리뷰할 때 써보지도 않고 "이거 진짜 좋아요"라고 말하는 거랑 비슷해. AI가 모르면 모른다고 안 하고 그럴듯하게 지어내는 버릇이야.
    출처 ·EP. 9EP. 13
  • Hallucination

    - 전문가 설명: AI가 틀린 정보를 마치 사실인 것처럼 자신 있게 말하는 현상. - **한나 버전**: AI가 존재하지 않는 브랜드 담당자 이름이나 없는 통계를 그럴싸하게 지어내는 거. 법률 계약서에 이게 들어가면 큰일 나는 거지.
  • harness

    - 전문가 설명: AI 모델이 더 잘 작동하도록 감싸주는 설정·지시·구조물 전체를 말해. 프롬프트 파일 묶음, 작업 순서 규칙, 안전장치 등. - **한나 버전**: 협업 브리핑 문서 같은 거야. 새 에디터 영입할 때 "이런 톤, 이런 컷, 이런 BGM 규칙"으로 정리해주는 그 가이드라인. 근데 AI가 이제 그걸 없어도 알아서 하니까 노정석이 다 걷어냈다는 거야.
  • Harness

    - 전문가 설명: AI 에이전트들이 돌아가는 자동화 구조·파이프라인 전체를 가리키는 말 - **한나 버전**: 인스타 예약 포스팅·댓글 관리·DM 답장이 자동으로 굴러가는 운영 시스템이라고 생각해. 그 시스템 전체가 harness야.
  • Harness / Crutch(Harness / Crutch(목발))

    - 전문가 설명: AI 모델이 더 잘 동작하도록 외부에서 감싸는 모든 장치. 프롬프트 설계, 함수 호출, 에이전트 연결 등 포함. - **한나 버전**: 유튜브 알고리즘이 아직 내 채널을 잘 모를 때, 썸네일·제목·태그를 엄청 정교하게 세팅해서 보완하는 거야. 채널 파워가 커지면 그냥 올려도 되는데, 지금은 그 세팅이 꼭 필요하잖아. Harness가 딱 그거야.
    출처 ·EP. 58
  • Harvey

    - 전문가 설명: 법률 업무 특화 AI SaaS. 변호사 워크플로우에 맞게 계약서 검토·초안 작성·요약을 자동화해주는 서비스. - **한나 버전**: 변호사 버전 Cursor야. 변호사가 계약서 볼 때 옆에서 "이 조항 문제 있어, 이메일 초안은 이렇게" 해주는 AI 어시스턴트.
    출처 ·EP. 59
  • HBM(HBM(High Bandwidth Memory))

    - 전문가 설명: GPU 칩에 아주 가까이 붙어있는 고속 메모리. 일반 RAM보다 훨씬 빠르지만 용량은 작고 비쌈. - **한나 버전**: 스튜디오 바로 옆에 있는 소형 창고. 멀리 있는 큰 창고보다 훨씬 빨리 꺼낼 수 있지만 공간이 작아. GPU가 연산하려면 여기서 데이터를 꺼내야 해.
    출처 ·EP. 90EP. 96
  • Hugging Face

    - 전문가 설명: AI 모델을 공개적으로 공유하고 사용할 수 있는 플랫폼. 오픈소스 AI 생태계의 허브. - **한나 버전**: AI 버전의 GitHub인데, 더 쉽게 말하면 AI 모델들의 유튜브야. 누구나 자기 모델 올리고, 다른 사람 모델 가져다 쓸 수 있어. 노정석이 "어떻게 먹고사는지 궁금하다"고 할 정도로 무료로 많이 풀려 있어.
    출처 ·EP. 57
  • Human In The Loop

    - 전문가 설명: AI가 완전 자율로 돌아가는 게 아니라 중간중간 사람이 개입해서 피드백 주며 방향을 조정하는 방식. - **한나 버전**: AI가 편집 초안 내주면 내가 보고 "이 컷 빼줘, 여기 BGM 바꿔줘" 피드백 주는 거 — 그냥 지금 한나가 편집자랑 작업하는 방식이야.
    출처 ·EP. 85
  • Hyperstition

    - 전문가 설명: Hype + Superstition 합성어. 근거 없는 큰 선언이 반복되다 보면 실제로 자기실현적 예언이 돼버리는 현상. - **한나 버전**: 인플루언서가 "이 제품이 곧 품절될 것"이라고 계속 말하면 진짜 품절되잖아. Sam Altman이 "내년엔 AGI 나온다"를 계속 말하는 것도 비슷한 효과가 있어.
    출처 ·EP.

I

  • Idiot Savant(Idiot Savant(이디엇 서번트))

    - 전문가 설명: 전반적인 지적 능력은 낮지만 특정 분야에서 천재적인 능력을 보이는 사람을 가리키는 표현. - **한나 버전**: 편집은 못 하는데 섬네일 디자인만 천재인 크리에이터 있잖아. 힌튼이 2023년 기준 AI를 그렇게 봤어 — 아직은 전방위 천재는 아니지만 특정 능력은 이미 인간 추월이라는 거야.
    출처 ·EP.
  • ImageNet

    - 전문가 설명: 1,400만 장 이상의 이미지에 라벨을 붙인 데이터셋. 2010~2017년 AI 성능 경쟁의 기준점. - **한나 버전**: AI판 유튜브 어워즈 같은 거야. "우리 모델이 고양이 사진 얼마나 잘 맞추나" 경쟁하던 대회. 여기서 1등 하면 업계 스타 됐어.
    출처 ·EP. 90
  • Imagine with Claude

    - 전문가 설명: Anthropic이 실험한 생성형 UI 프로젝트. AI가 HTML DOM을 직접 스트리밍 방식으로 수정해 화면을 실시간으로 만들어냄. - **한나 버전**: 유튜브 영상 배경이 대화 내용에 따라 실시간으로 알아서 바뀌는 거 상상해봐. 그걸 웹 화면에서 구현한 거야. AI가 내용 생성하면서 동시에 화면도 그리는 거지.
    출처 ·EP. 72
  • IMO

    - 전문가 설명: International Mathematical Olympiad. 만 20세 미만 학생 대상 국제 수학 경시대회. 이틀간 6문제, 세계 최고 난이도. - **한나 버전**: 유튜브로 치면 수억 구독자가 보는 '쇼트폼 크리에이터 월드컵' 같은 거야. 참가 자체가 천재 인증인 대회.
    출처 ·EP. 61
  • Impulse Response(Impulse Response (임펄스 응답))

    - 전문가 설명: 어떤 시스템에 "1, 0, 0, 0…"이라는 입력을 넣었을 때 나오는 출력. 이것만 알면 그 시스템의 특성을 완전히 표현할 수 있어. - **한나 버전**: 브랜드에게 딱 한 번 콜라보 제안 DM을 넣어봤을 때 그 반응 패턴. 한 번의 반응으로 그 브랜드가 어떤 파트너인지 다 파악되는 것과 같아.
    출처 ·EP.
  • in-context learning

    - 전문가 설명: 모델을 따로 학습시키지 않고, 프롬프트(지시문)에 예시 몇 개만 넣어줘도 AI가 패턴을 파악해서 작업하는 능력. - **한나 버전**: 직원한테 "우리 브랜드 톤은 이런 거야" 하고 예시 3개 보여주면 바로 비슷하게 써오는 거랑 같아. 몇 달 교육 안 해도 되는 거지.
    출처 ·EP. 11
  • In-weight(In-weight(인 웨이트))

    - 전문가 설명: AI 모델이 학습 과정에서 지식을 모델 파라미터(가중치) 안에 내재화한 상태. 외부 자료 없이도 스스로 알고 있는 것. - **한나 버전**: 외부 메모장 없이 내 머릿속에 이미 새겨진 지식이야. 책 외우는 게 아니라 몸으로 익힌 것. 노정석이 "미적분도 ChatGPT가 다 풀어주지만, 내 머릿속에 새기려면 고통스럽게 공부해야 한다"고 할 때 이 개념 나와. ---
    출처 ·EP. 52
  • inductive bias(inductive bias (귀납 편향))

    - 전문가 설명: AI가 새로운 데이터를 봤을 때 어떻게 예측할지 결정하는 미리 심어진 기본 가정들. 없으면 일반화가 불가능해. - **한나 버전**: 네가 처음 보는 브랜드한테서 협업 제안이 왔을 때 "이런 느낌의 브랜드는 보통 이렇더라"는 직감이 inductive bias야. 경험이 쌓이면서 생긴 패턴 인식.
    출처 ·EP. 78
  • Inference(Inference(추론))

    - 전문가 설명: AI 모델이 학습을 마친 후, 실제 사용자 질문에 답을 생성하는 과정. 학습(training)의 반대편에 있는 단계. - **한나 버전**: 영상 편집 끝내고 유튜브에 올려서 사람들이 실제로 보는 것 = inference야. 편집하는 과정이 training이고. 아무리 잘 편집해도 업로드해서 돌리는 게 느리고 비싸면 망하는 거잖아.
    출처 ·EP. 86EP. 96
  • Inference / 추론

    - 전문가 설명: 학습 완료된 AI 모델이 실제로 질문을 받고 답을 생성하는 과정 - **한나 버전**: 촬영(학습)은 끝났고 이제 편집본 재생하는 것처럼, 이미 만들어진 AI가 실시간으로 답하는 행위야. Inference가 많을수록 GPU가 더 많이 필요해
    출처 ·EP. 2
  • Instruct 모델 vs. Thinking 모델

    - 전문가 설명: Instruct는 빠르게 지시를 따르는 모델, Thinking은 시간을 들여 깊게 추론하는 모델. 이 둘을 라우터가 자동으로 골라줌 - **한나 버전**: 즉석 Q&A 라이브 vs. 심층 인터뷰 영상. 상황에 따라 다른 포맷이 필요하지? AI도 마찬가지야
    출처 ·EP. 65
  • Interpolation Machine(Interpolation Machine(인터폴레이션 머신))

    - 전문가 설명: 알려진 데이터들 사이의 빈 값을 예측·채워주는 수학적 도구. 김태수가 현재 딥러닝 AI의 본질을 이렇게 표현함. - **한나 버전**: 한나가 500개 콘텐츠를 봤을 때 "이런 조합이면 터지겠다"는 감이 생기는 거 있잖아. AI도 무수히 많은 데이터를 보고 "이 사이의 빈칸엔 이게 오겠다"를 초정밀로 계산하는 거야. 없는 걸 창조하는 게 아니라, 본 것들 사이의 새 조합을 꺼내는 거지.
    출처 ·EP. 4
  • IRLS(IRLS(Iterative Reweighted Least Squares))

    - 전문가 설명: 로지스틱 회귀의 파라미터를 추정할 때 가중치를 반복적으로 갱신하면서 선형 회귀 방식으로 푸는 알고리즘. - **한나 버전**: 콘텐츠 성과 분석을 할 때 매번 반응률 데이터를 업데이트하면서 "가장 잘 설명하는 공식"을 계속 고쳐나가는 거야. 딱 한 번에 답 내는 게 아니라, 몇 번 반복하면서 점점 맞는 답으로 수렴하는 거지.
    출처 ·EP.

J

  • Jagged(Jagged(들쭉날쭉))

    - 전문가 설명: AI 능력이 균일하지 않고 어떤 분야는 초고수, 어떤 분야는 초보 수준인 현상. 카르파티가 현재 AI의 특징으로 자주 언급. - **한나 버전**: 팔로워 100만인 인플루언서가 뷰티 콘텐츠는 천재인데 요리 영상은 처참한 거랑 비슷해. AI는 코딩은 카르파티 수준이지만 농담은 3년 전 수준이야.
    출처 ·EP. 92
  • Jagged intelligence(Jagged intelligence(들쭉날쭉 지능))

    - 전문가 설명: AI의 지능이 영역마다 극단적으로 다른 현상. 어떤 건 박사 수준, 어떤 건 초등생 수준. - **한나 버전**: 영어 자막은 완벽하게 써주는데 "9.11이랑 9.9 중에 뭐가 커?"라고 물으면 틀리는 거야. 채널 기획서는 기깔나게 써주는데 내 팔로워 수 기억은 못 하는 것처럼.
    출처 ·EP. 57
  • Jared Kaplan / 스케일링 법칙(Jared Kaplan / 스케일링 법칙(Scaling Law))

    - 전문가 설명: Anthropic의 수석 과학자. AI 모델은 데이터와 연산량을 늘릴수록 예측 가능하게 성능이 좋아진다는 "스케일링 법칙"을 발견한 연구자. - **한나 버전**: "유튜브 영상 많이 올릴수록 알고리즘이 채널을 더 잘 밀어준다"는 공식이 있잖아. 스케일링 법칙은 AI 모델에서 비슷한 공식을 수학적으로 증명한 거야.
    출처 ·EP. 76
  • Jasper

    - 전문가 설명: AI 카피라이팅 스타트업. ChatGPT 이전에 "AI로 마케팅 글 써드립니다"로 기업가치 수십억 달러 갔다가, ChatGPT 무료 버전 나오면서 급락한 케이스. - **한나 버전**: "AI 카피 써드릴게요" 유료 서비스였는데 ChatGPT 무료로 다 되니까 고객들이 이탈한 거야. 플랫폼이 직접 그 기능을 탑재해버리면 그 위에서만 장사하던 크리에이터 도구들이 위험해지는 것처럼.
    출처 ·EP. 11
  • JSON / JSON 스키마

    - 전문가 설명: 데이터를 컴퓨터가 읽기 좋게 정리한 형식. 키(항목명)와 값(내용)으로 구성됨. - **한나 버전**: 협찬 정보를 엑셀에 "브랜드명 | 금액 | 마감일" 칸에 딱딱 넣어두는 것과 같아. 사람이 읽는 메모가 아니라 컴퓨터가 읽는 정리된 양식.
    출처 ·EP. 6

K

  • knowledge cutoff

    - 전문가 설명: AI 모델이 학습한 데이터가 어느 날짜까지의 정보를 담고 있는지 나타내는 기준점. - **한나 버전**: AI한테 "최근 유행하는 밈 알아?" 하면 그 AI가 아는 가장 최근 정보의 날짜가 바로 cutoff야. Gemini 2.5랑 3.0이 둘 다 2025년 1월 cutoff라서 같은 시기 데이터로 만들어진 거라는 거야.
    출처 ·EP. 77
  • Knowledge Distillation(Knowledge Distillation (KD, 지식 증류))

    - 전문가 설명: 크고 똑똑한 모델(teacher)의 지식을 작은 모델(student)에게 학습시키는 기술. 큰 모델의 답안지를 바탕으로 작은 모델을 훈련. - **한나 버전**: 100만 구독자 크리에이터가 신인한테 자기 모든 노하우를 직접 가르쳐주는 멘토링이야. 신인이 처음부터 혼자 배우는 것보다 훨씬 빠르게 성장해.
    출처 ·EP. 94
  • KV cache

    - 전문가 설명: Key-Value cache. AI가 이전에 처리한 토큰들의 정보를 저장해두는 임시 메모리. 매번 처음부터 다시 계산하지 않아도 되게 해줌. - **한나 버전**: 콘텐츠 기획 노트 같은 거야. 협업할 때 이전 대화 내용을 메모장에 써두면 매번 처음부터 설명 안 해도 되잖아. KV cache가 AI한테 그 역할을 해. 대화가 길어질수록 이 메모가 쌓여서 맥락을 유지하는 거지.
    출처 ·EP. 83
  • KV Cache

    - 전문가 설명: Transformer가 attention 계산 시 만들어내는 Key, Value 행렬을 저장해두는 메모리. 대화 맥락이 길어질수록 사이즈가 커지며, 이를 재활용해 반복 연산을 줄임. - **한나 버전**: 유튜브 댓글 창에서 이전 대화 맥락을 기억하고 있는 메모장 같은 거야. 대화가 길어질수록 메모장이 두꺼워지고, 그걸 계속 들고 다니는 비용이 생겨.
    출처 ·EP. 95EP. 96

L

  • Last-mile problem

    - 전문가 설명: 아마존이 물류 센터까지는 배송 잘 해도 집 앞 마지막 1km가 제일 비싸고 어렵듯이, AI도 전체의 80%는 잘 하는데 마지막 20%가 막히는 문제. - **한나 버전**: AI가 브랜드 제안서 초안은 뚝딱 만들어줘. 근데 "이 브랜드 담당자 성격이 이러니까 이 문장은 빼야 해" 같은 감각은 아직 몰라. 그 마지막 한 발이 아직 사람 몫이야.
    출처 ·EP. 59
  • Lean(Lean(린))

    - 전문가 설명: 수학 증명을 기계가 이해할 수 있는 코드 형태로 작성해 검증하는 형식 증명 언어. - **한나 버전**: 계약서를 사람이 읽는 말로 쓰는 게 자연어 증명이라면, 변호사 AI가 딱딱 조항으로 파악할 수 있게 법률 언어로 바꿔 쓰는 게 Lean이야. 이번 모델은 그 딱딱한 언어로 번역 안 하고 그냥 한국어(영어)로 쭉 썼다는 거.
    출처 ·EP. 61
  • Lean Startup

    - 전문가 설명: 에릭 리스가 제안한 창업 방법론. 빠르게 최소 기능 제품(MVP)을 만들어 시장 반응을 보고 계속 수정하는 방식. - **한나 버전**: 틱톡 트렌드 올라타서 일단 영상 빠르게 올려보고 반응 보면서 방향 잡는 거야. 근데 요즘 AI 스타트업들은 처음부터 구조 설계를 제대로 해서 처음부터 크게 치는 방식으로 바뀌고 있다는 거지.
    출처 ·EP. 66
  • Lean Startup / Build-Measure-Learn

    - 전문가 설명: 빠르게 시제품 만들어 시장에 내보내고(Build), 반응 측정하고(Measure), 배운 것 반영해서 다시 만드는(Learn) 창업 방법론. - **한나 버전**: 릴스 올리고(Build) → 조회수·저장수 보고(Measure) → "이 포맷이 잘 되네, 다음에 이 방향으로"(Learn). 한나가 매일 하고 있는 거야.
    출처 ·EP.
  • Llama-2

    - 전문가 설명: Meta(페이스북 모회사)가 만든 오픈소스 대형 언어 모델. 누구나 무료로 가져다 쓸 수 있어. - **한나 버전**: 유튜브가 독점 플랫폼이라면, Llama-2는 영상 파일 자체를 누구한테나 공개해버린 거야. "우리 영상 편집 소스 다 가져가서 써요" 하는 느낌. 플랫폼 의존 없이 자기 채널에 세팅할 수 있는 AI야.
    출처 ·EP. 9
  • LLM

    - 전문가 설명: Large Language Model. 대규모 언어 모델. ChatGPT, Claude, Gemini 같은 AI들의 기반 기술. - **한나 버전**: 인플루언서로 치면 팔로워 수가 수십억인 메가 크리에이터야. 엄청난 양의 콘텐츠를 소화하고 뭐든 대답할 수 있는 존재. ---
  • LM Arena

    - 전문가 설명: AI 모델들을 익명으로 올려서 사람들이 직접 비교 평가하는 플랫폼. 출시 전 AI 회사들이 몰래 테스트로 올려놓는 경우가 많아. - **한나 버전**: 콘텐츠 크리에이터가 새 채널을 익명으로 만들어서 알고리즘 반응 테스트해보는 것처럼, AI 회사들이 신모델을 익명으로 올려서 반응 보는 곳.
    출처 ·EP. 63
  • LMM

    - 전문가 설명: Large Multimodal Model. 텍스트뿐 아니라 이미지·영상·오디오 등 여러 형태의 정보를 동시에 처리하는 대형 AI 모델. - **한나 버전**: LLM이 "글만 읽는 AI"였다면, LMM은 "글도 읽고 사진도 보고 영상도 보는 AI"야. 유튜브로만 활동하다가 인스타·틱톡·팟캐스트까지 동시에 하게 된 크리에이터 같은 거지.
    출처 ·EP. 13
  • localization(localization(현지화))

    - 전문가 설명: 콘텐츠나 서비스를 특정 언어·문화권에 맞게 번역하고 수정하는 과정. - **한나 버전**: 한나 인스타를 일본 시장용으로 바꾼다면 — 언어만 번역하는 게 아니라 말투, 유머, 감성까지 일본 팔로워한테 맞게 튜닝하는 거야. AI가 이 과정을 엄청나게 싸고 빠르게 만들어줄 거야. ---
    출처 ·EP. 9
  • Lock-in(Lock-in(락인))

    - 전문가 설명: 고객이 특정 서비스에서 빠져나오기 어렵게 만드는 구조. 데이터나 습관이 묶여 있어서 이탈이 불편함. - **한나 버전**: 한나 팬들이 한나 채널 멤버십에 가입하고 지난 3년 영상 다 아카이브돼 있으면, 다른 크리에이터로 갈아타기 귀찮잖아. 그게 락인이야. ---
    출처 ·EP. 86
  • long context(long context(롱 컨텍스트))

    - 전문가 설명: AI가 한 번에 참조할 수 있는 텍스트의 길이. 길면 길수록 더 긴 문서나 대화 내용을 기억하며 처리할 수 있음. - **한나 버전**: 숏폼 AI가 20초짜리 영상 스크립트만 기억한다면, 롱 컨텍스트 AI는 네 유튜브 영상 100편을 한번에 읽고 답해줄 수 있는 거야.
    출처 ·EP. 69
  • LoRA

    - 전문가 설명: 대형 AI 모델을 전체 재학습하지 않고 특정 분야에 맞게 가볍게 fine-tuning하는 기술. - **한나 버전**: 유튜브 채널의 기본 세팅은 건드리지 않고 특정 캠페인용 콘텐츠 톤만 살짝 바꾸는 것처럼, AI 모델에 "이 회사 전용 성격"만 얹어놓는 작은 업데이트야.
  • LoRA 어댑터

    - 전문가 설명: 큰 AI 모델을 처음부터 다시 학습시키지 않고, 아주 작은 추가 모듈만 붙여서 특정 작업에 맞게 튜닝하는 기술. - **한나 버전**: 인스타 피드용 필터 팩 같은 거야. 기본 카메라 앱은 그대로인데, "음식 촬영용 필터" "여행용 필터"를 상황에 맞게 끼웠다 뺐다 하는 것. 앱 전체를 새로 깔 필요 없이 필터만 바꾸면 돼.
    출처 ·EP. 18
  • low-hanging fruit

    - 전문가 설명: 나무 아래쪽에 달린 쉽게 딸 수 있는 과일. 비유적으로 "쉽게 얻을 수 있는 기회"라는 뜻. - **한나 버전**: 아무도 손 안 댄 틈새 유튜브 키워드 같은 거야. 어렵고 전문적인 분야일수록 아직 AI로 건드린 사람이 없어서 오히려 선점하기 쉬운 자리가 많다는 뜻이지.
    출처 ·EP. 80
  • Low-hanging Fruit(Low-hanging Fruit (낮게 열린 과실))

    - 전문가 설명: 노력 대비 쉽게 얻을 수 있는 성과. 나무에서 손 닿는 낮은 곳에 달린 과일처럼 쉽게 딸 수 있는 기회. - **한나 버전**: 아직 아무도 숏폼으로 안 만든 인기 주제를 내가 먼저 만드는 거야. 경쟁이 없으니까 적은 노력으로 큰 효과. 지금 AI가 수학·과학·보안 쪽에서 이런 "쉬운 과실"을 따고 있다는 거야.
    출처 ·EP. 94
  • LTI(LTI (Linear Time-Invariant))

    - 전문가 설명: 선형 시불변 시스템. 입력을 늦게 넣으면 출력도 똑같이 늦게 나오고, 입력들을 섞어 넣은 출력은 각각 출력을 섞은 것과 같은 시스템. - **한나 버전**: 인스타 알고리즘이 "내가 올린 시간이 달라도 노출 방식이 항상 일정하다"고 가정하는 것처럼, 조건이 일정하게 유지되는 시스템을 뜻해.
    출처 ·EP.

M

  • Mamba / SSM

    - 전문가 설명: State Space Model의 약자. 기존 Transformer와 다른 방식으로 문장을 처리하는 AI 구조. 속도가 빠르고 메모리를 덜 써. - **한나 버전**: 세로형 영상(틱톡)이랑 가로형 영상(유튜브)이 각각 잘 먹히는 플랫폼이 다르듯, AI도 "어떤 구조로 정보를 처리하느냐"가 달라. Mamba는 요약을 잘하고, Transformer는 관계 기억을 잘해. 요즘 둘을 섞은 하이브리드가 뜨고 있어.
    출처 ·EP. 80
  • Manifest(Manifest(매니페스트))

    - 전문가 설명: 원래는 소프트웨어 설정 파일 용어. 여기선 "내 의지를 명확히 표현해서 실제로 나타나게 한다"는 의미로 쓰임. 카르파티가 Sarah Guo의 "express my will"을 이 단어로 바꿔줌. - **한나 버전**: 브랜드 무드보드 같은 거야. "나는 이런 콘텐츠를 만드는 사람이고 이런 방향으로 간다"를 명확히 문서로 정의해 놓으면 AI가 그 방향으로 달려줘. 구체적으로 안 써놓으면 AI는 아무 방향이나 가.
    출처 ·EP. 92
  • Max Pooling(Max Pooling (맥스 풀링))

    - 전문가 설명: CNN에서 일정 영역 안의 값 중 최댓값 하나만 남기고 나머지는 버려 이미지 크기를 줄이는 연산. - **한나 버전**: 댓글 100개 중에서 가장 좋아요 많은 댓글 하나만 대표로 뽑아 요약하는 것처럼, 영역 대표값만 남기는 거야.
    출처 ·EP.
  • Maximum Likelihood Estimation(Maximum Likelihood Estimation(MLE))

    - 전문가 설명: 관측된 데이터가 발생할 확률을 가장 크게 만드는 파라미터를 찾는 방법. - **한나 버전**: "내 팔로워들이 실제로 반응한 게 이 패턴이라면, 이 패턴을 가장 잘 설명하는 공식의 숫자는 뭘까?"를 역산하는 거야. 결과를 보고 공식을 거슬러 올라가는 거지.
    출처 ·EP.
  • MCP

    - 전문가 설명: AI 에이전트들이 서로 정보를 주고받는 표준 통신 규칙. 마치 웹사이트들이 HTTP로 소통하듯 에이전트들이 이 규칙으로 소통해. - **한나 버전**: 인스타·유튜브·틱톡이 각자 다른 앱인데 공유 링크 하나로 연결되잖아. MCP는 AI들 사이의 그 "공유 링크 규칙"이야. 없으면 AI끼리 아무것도 못 주고받아.
  • MCTS(MCTS(Monte Carlo Tree Search))

    - 전문가 설명: 알파고가 바둑에서 쓴 방법. 가능한 수들을 트리 구조로 쭉 탐색하다가, 별로면 되돌아와서 다른 방향을 다시 탐색함. - **한나 버전**: 인스타 릴스 여러 버전 만들어서 소규모로 테스트 돌려보고, 반응 없으면 폐기하고 다른 방향으로 틀어서 다시 테스트하는 그 과정이야. ---
    출처 ·EP. 5
  • Mechanical Interpretability(Mechanical Interpretability(기계적 해석 가능성))

    - 전문가 설명: AI 내부에서 어떤 연산이 일어나는지를 분석해, 모델이 실제로 무슨 생각을 하는지 이해하려는 연구 분야. - **한나 버전**: AI가 "1+1=2"라고 대답하는 동안, 속에서 진짜 뭘 처리했는지 MRI 찍듯 들여다보려는 연구야. Anthropic이 이걸 진지하게 하고 있는데 — 겉으로 순한 척하면서 속에서 딴생각 하는 거 아닌지 확인하는 거지.
    출처 ·EP. 53EP. 54
  • mechanistic interpretability(mechanistic interpretability(기계론적 해석 가능성))

    - 전문가 설명: AI 모델 내부를 역공학(분해)해서 "이 뉴런이 왜 이 반응을 했는가"를 추적하는 연구 분야. Christopher Olah가 개척. - **한나 버전**: 내 영상 중 어떤 씬에서 시청자가 이탈했는지 유튜브 분석으로 파악하듯이, AI 뇌 속에서 어떤 회로가 어떤 생각을 만드는지 들여다보는 거야. ---
    출처 ·EP. 16
  • Mechanistic Interpretability(Mechanistic Interpretability (해석 가능성 연구))

    - 전문가 설명: AI가 어떻게 그 답을 냈는지 내부 작동 방식을 분석하는 연구 분야. Anthropic의 Chris Olah가 선두. - **한나 버전**: 유튜브 알고리즘이 왜 이 영상을 추천하는지 역공학하는 것처럼, AI 두뇌 안을 해부하는 거야. 근데 아직 아무도 완전히 못 풀었어.
    출처 ·EP.
  • Memex

    - 전문가 설명: 배너바 부시가 1945년에 구상한 가상의 개인용 정보 저장·검색 장치. 개인의 모든 책, 기록, 커뮤니케이션을 빠르게 찾아볼 수 있는 "기억의 확대기." - **한나 버전**: 지금으로 치면 AI가 탑재된 나만의 노션+핀터레스트+구글드라이브 통합본이야. 1945년에 이걸 상상했던 거지.
    출처 ·EP. 3
  • Memory-bound vs Compute-bound

    - 전문가 설명: 시스템의 속도를 제한하는 병목이 메모리 대역폭인지(memory-bound), 연산 처리속도인지(compute-bound) 구분하는 개념. - **한나 버전**: 촬영 속도가 느린 건지(compute-bound) vs 저장용 SSD가 느려서 파일 저장에 막히는 건지(memory-bound). AI 추론은 대부분 메모리에서 데이터 꺼내오는 게 병목이야.
    출처 ·EP. 96
  • METR

    - 전문가 설명: AI 시스템의 자율적 작업 능력을 측정하는 독립 연구 기관. "AI가 사람 개입 없이 혼자 얼마나 오래 일할 수 있나"를 수치로 나타냄. - **한나 버전**: 유튜브 채널 분석 툴이라고 생각해봐. 조회수나 체류시간을 측정하듯이, AI의 "혼자 일하는 시간"을 측정하는 공신력 있는 기관이야. 근데 이번에 AI가 14시간을 기록해버려서 측정 범위가 포화됐대.
    출처 ·EP. 87
  • METR 50%-time horizon

    - 전문가 설명: AI 에이전트가 주어진 작업을 절반 이상 성공적으로 완수할 수 있는 최대 작업 시간 길이를 측정하는 벤치마크 - **한나 버전**: "AI가 혼자서 몇 시간짜리 프로젝트를 버틸 수 있냐" 측정하는 거야. 예전엔 5분짜리 심부름만 됐는데 이제 5시간짜리 기획 작업도 된다는 거지.
    출처 ·EP. 82
  • METR 시간 지평

    - 전문가 설명: AI가 혼자서 연속으로 작업할 수 있는 시간 길이를 측정하는 지표. 사람이 같은 일을 하면 걸리는 시간 기준으로 비교함. - **한나 버전**: AI가 혼자서 "기획 → 촬영 대본 → 편집 지시 → 업로드 세팅"까지 얼마나 오래 끊김 없이 할 수 있냐는 거야. 지금 AI는 수 시간짜리 작업을 혼자 돌릴 수 있고, 내년엔 더 길어질 거래.
    출처 ·EP. 77
  • METR 지표

    - 전문가 설명: AI 에이전트가 얼마나 오랜 시간의 복잡한 작업을 스스로 수행할 수 있는지 측정하는 벤치마크. "X시간짜리 작업을 50% 성공률로 해낼 수 있냐"로 측정. - **한나 버전**: AI가 "6시간짜리 유튜브 채널 운영 업무를 혼자 처리할 수 있냐"를 테스트하는 성적표야. 이 점수가 하늘을 찌르고 있어.
    출처 ·EP. 85
  • microgpt

    - 전문가 설명: Andrej Karpathy가 공개한 GPT(대형 언어모델)의 극도로 단순화된 200줄짜리 구현 코드. 교육용으로 트랜스포머의 핵심 원리만 담음. - **한나 버전**: 스마트폰 카메라 원리를 레고 블록으로 재현한 키트 같은 거야. 실제 제품이 아니라 "이게 이렇게 돌아가는구나" 이해하려고 만든 미니어처. 최승준이 이걸 직접 손으로 타이핑하면서 AI 공부의 재미를 되찾았대.
    출처 ·EP. 87
  • MINDcraft

    - 전문가 설명: 마인크래프트 안에서 여러 AI 에이전트가 협업할 수 있게 해주는 오픈소스 연구 프레임워크. 각 에이전트가 메모리를 가지고 서로 소통할 수 있어. - **한나 버전**: 인스타 협업 콘텐츠를 만들 때 두 크리에이터가 같은 방향으로 일할 수 있게 해주는 공유 기획 문서 같은 거야. 이게 없으면 각자 딴 얘기함.
    출처 ·EP. 50
  • Mixture of Experts(Mixture of Experts(MoE))

    - 전문가 설명: 큰 AI 하나 대신, 각기 다른 분야에 특화된 소형 AI 여러 개를 조합해서 쓰는 방식. GPT-4가 이 방식이라는 루머가 있음. - **한나 버전**: 혼자 다 하는 만능 크리에이터 한 명 대신, 촬영 전문 / 편집 전문 / 기획 전문 스태프 여러 명을 용도에 맞게 부르는 거야. ---
    출처 ·EP. 5
  • Moat(Moat (해자))

    - 전문가 설명: 경쟁자가 쉽게 따라올 수 없는 경쟁 우위. 중세 성 주변의 해자처럼 다른 사람이 넘어오기 어려운 방어 장치. - **한나 버전**: 팔로워 200만이 있는 한나가 갑자기 나타난 신인 크리에이터한테 쉽게 자리 빼앗기지 않는 이유. 그 200만이 바로 한나의 해자야. 비즈니스에서는 남이 쉽게 복사 못 하는 내 강점이 해자가 돼.
    출처 ·EP. 60EP. 91
  • MoE(MoE(Mixture of Experts))

    - 전문가 설명: 모델의 FFN 레이어를 여러 개의 "전문가" 모듈로 나누고, 토큰마다 일부 전문가만 활성화해 연산하는 구조. 전체 파라미터는 크지만 실제 계산은 일부만 해. - **한나 버전**: 대형 MCN이랑 계약한 건데 매번 모든 PD를 부르는 게 아니라 이번 영상엔 이 PD, 저번엔 저 PD만 불러서 쓰는 거야. 전체 인력 풀은 크지만 한 번에 다 쓰지 않아서 비용이 줄어.
  • MOE(MOE(Mixture of Experts))

    - 전문가 설명: AI 모델 안에 여러 전문가 유닛을 두고, 질문 종류에 따라 해당 전문가만 깨워서 쓰는 구조. 효율이 올라가. - **한나 버전**: 에디팅팀·기획팀·마케팅팀 따로 두고, 영상 편집할 땐 에디팅팀만 부르는 것처럼. 다 동시에 굴리지 않아서 에너지·비용 절약. ---
    출처 ·EP. 42
  • Moravec's Paradox

    - 전문가 설명: AI가 체스·수학 같은 고차원 사고는 잘 하는데, 아이도 하는 물건 집기·걷기 같은 행동은 오히려 못한다는 역설. - **한나 버전**: 한나가 브랜드 전략 미팅은 척척 잘 하는데, '카페에서 아이패드 꺼내 와이파이 연결하고 파일 공유하기' 같은 게 더 어색한 것처럼 — 당연한 거라 생각한 게 알고 보면 제일 복잡한 거야.
    출처 ·EP. 84
  • Moravec의 역설

    - 전문가 설명: 로봇공학자 Hans Moravec이 말한 것. AI는 체스·수학처럼 어른도 어려운 건 쉽게 하는데, 오히려 어린아이도 하는 걸음걷기·감각 같은 건 어려워하는 역설. - **한나 버전**: AI가 논문 쓰는 건 잘하는데 카페에서 낯선 사람 눈치 보면서 분위기 파악하는 건 아직 못하잖아. 그 거꾸로 뒤집힌 상황이야.
    출처 ·EP. 68
  • mRNA 백신 / 개인화 정밀의료

    - 전문가 설명: 개인의 유전자 데이터를 분석해 그 사람에게 맞는 맞춤형 치료제나 백신을 만드는 의료 기술. mRNA로 몸에 특정 단백질을 만들게 지시해 면역 반응을 유도. - **한나 버전**: 대중한테 파는 기성품 옷이 아니라, 내 몸 치수 딱 맞게 만든 맞춤복 치료제야. COVID 백신이 스파이크 단백질 설계도(mRNA)를 넣은 것처럼, 내 암세포의 단백질 설계도를 넣어서 면역세포가 암을 잡아먹게 만드는 거야. ---
    출처 ·EP. 94
  • Muon Optimizer

    - 전문가 설명: Adam 이후 주목받는 신형 학습 최적화 알고리즘. 학습 속도와 데이터 효율을 높여준다. - **한나 버전**: 콘텐츠 A/B 테스트 툴이 버전 업그레이드 됐다고 생각해봐. 똑같은 영상 올려도 알고리즘이 더 빠르게 더 잘 학습해서 구독자 반응을 더 효율적으로 반영해주는 거야. 지금 중국 모델들은 거의 다 이거 써. ---
    출처 ·EP. 95
  • MVK(MVK(Minimum Viable Knowledge))

    - 전문가 설명: '모르는 채로도 옳은 방향으로 나아가기 위해 최소한 알아야 할 것'이라는 최승준의 화두 개념. - **한나 버전**: MVP(최소 기능 제품)처럼, "일단 시작하려면 최소한 뭘 알아야 하나"야. 유튜브 시작할 때 카메라 원리 다 알 필요 없지만, 썸네일이 클릭률에 영향 준다는 건 알아야 하잖아. 그 "알아야 할 최소치"를 찾는 게 MVK야.
  • Mythos

    - 전문가 설명: Anthropic의 비공개 초거대 AI 모델. 파라미터 수가 10T(조)로 추정되며, 사이버 보안 위험 때문에 일반 공개 안 하고 일부 기관에만 얼리 액세스 제공 중. - **한나 버전**: Anthropic이 "이건 너무 강력해서 아무한테나 못 줘"라고 선언한 최신 모델이야. 아직 팔로워한테 공개 안 한 극비 콘텐츠 같은 느낌 — 그것만으로도 화제가 돼버린 마케팅 홈런이지.
    출처 ·EP. 94

N

  • Nano Banana Pro

    - 전문가 설명: Google DeepMind가 발표한 이미지 생성/이해 특화 모델. Gemini 생태계 안에 통합됨. - **한나 버전**: 구글판 미드저니인데, 혼자 독립 앱이 아니라 구글 AI 서비스들 안에 전부 들어가 있어. 만든 그림을 바로 인터랙티브 시각화로 만들 수 있는 게 포인트야.
    출처 ·EP. 77
  • Native Tool Use(Native Tool Use(네이티브 툴 유즈))

    - 전문가 설명: 외부 프레임워크 없이 모델 자체가 도구 사용 능력을 내재화한 상태. - **한나 버전**: 유튜브 초창기엔 편집 프로그램 따로 써야 했는데, 이제 유튜브 앱 자체에서 편집 다 되잖아. 그게 '내장된 툴 사용 능력'이야.
    출처 ·EP. 60
  • NDA

    - 전문가 설명: Non-Disclosure Agreement. 비밀 유지 계약 - **한나 버전**: 브랜드 협업할 때 "이 제품 공개 전에 다른 데 얘기하면 안 됨" 하는 그 계약서야. 신정규가 고객사 정보를 못 말하는 이유
    출처 ·EP. 2
  • Newton-Raphson(Newton-Raphson(뉴턴-랩슨))

    - 전문가 설명: 1차 미분과 2차 미분(헤시안)을 동시에 활용해 최적점을 더 빠르게 찾는 수치 방법론. - **한나 버전**: 산에서 눈 뜨고 "저기 계곡이 보이네, 한 번에 거기로 점프하면 되겠다" 하는 거야. Gradient descent보다 훨씬 빨리 최솟값에 도착해. 근데 계산량이 너무 많아서 딥러닝엔 잘 안 씀.
    출처 ·EP.
  • Non-deterministic(Non-deterministic(비결정적))

    - 전문가 설명: 같은 입력을 줘도 매번 다른 결과가 나오는 성질. AI의 근본적 특성 중 하나 - **한나 버전**: 인플루언서한테 같은 브리프를 줬는데 어떤 날은 완벽한 콘텐츠가 나오고 어떤 날은 전혀 다른 게 나오는 거랑 같아. AI 에이전트도 이래서 관리가 어려운 거야.
    출처 ·EP. 51
  • Non-verifiable 영역

    - 전문가 설명: 수학처럼 "정답이 있는" 문제와 달리, 좋은 글쓰기·히트 브랜드·패션처럼 정답이 없어서 AI가 "맞다/틀리다"로 학습할 수 없는 영역. - **한나 버전**: "이 릴스가 바이럴될까?"는 정답이 없잖아. 올려봐야 알거든. 그게 non-verifiable 영역이야. 반대로 수학 문제 풀기는 정답 있으니까 verifiable.
    출처 ·EP. 63
  • non-verifiable domain

    - 전문가 설명: 정답이 맞는지 틀린지 객관적으로 바로 확인하기 어려운 영역. 수학 증명이나 코딩은 검증 쉽지만, 글쓰기나 전략적 판단은 어렵잖아. - **한나 버전**: "이 릴스 좋아?" — 좋아요 수로 검증 가능해. "이 브랜드 방향성 맞아?" — 딱 떨어지는 답이 없잖아. 후자가 non-verifiable domain이야. AI가 후자도 잘 하기 시작했다는 게 이 영상의 무서운 포인트.
    출처 ·EP. 61
  • NotebookLM

    - 전문가 설명: 구글이 만든 AI 리서치 도구. 내 문서나 링크를 넣으면 AI가 그 내용 기반으로 질문에 답해주고 인사이트를 정리해줌. - **한나 버전**: 내 콘텐츠 기획 노트, 댓글 모음, 협업 제안서를 다 넣어두면 "이번 달 어떤 주제가 반응 좋았어?" 바로 물어볼 수 있는 AI 비서. 한미유치원은 선생님들 교육 기록을 여기에 넣어서 인사이트를 뽑고 있어.
    출처 ·EP. 46EP. 76
  • npm

    - 전문가 설명: Node Package Manager. 자바스크립트/TypeScript 개발자들이 코드 모듈을 공유하고 다운로드하는 저장소야. - **한나 버전**: 개발자들의 무료 폰트/템플릿 사이트야. 누구나 올리고 누구나 받아 쓰는 곳인데, 거기에 실수로 비공개 파일이 올라간 거야.
    출처 ·EP. 93

O

  • o3 / o4-mini

    - 전문가 설명: OpenAI의 추론 특화 모델 시리즈. 복잡한 문제를 단계적으로 생각(chain of thought)하며 푸는 데 특화됨 - **한나 버전**: 기존 ChatGPT가 빠르게 답하는 '즉답형'이라면, o3는 어려운 질문을 받으면 오래 생각하고 깊게 파고드는 '탐구형'이야. 릴스 vs 다큐멘터리 차이랄까.
    출처 ·EP. 49
  • OCR

    - 전문가 설명: Optical Character Recognition. 이미지 속 글자를 컴퓨터가 읽을 수 있는 텍스트로 변환하는 기술. - **한나 버전**: 종이로 받은 계약서를 사진 찍으면 문자로 바꿔주는 기능. GPT-4V는 그 수준을 훨씬 넘어서 읽고 분석하고 요약까지 해버려.
    출처 ·EP. 13
  • OKR

    - 전문가 설명: Objectives and Key Results. 구글이 유행시킨 목표 관리 방식. 목표(Objective)와 그게 달성됐을 때 보게 되는 핵심 결과(Key Results)를 숫자로 명확히 정의. - **한나 버전**: "이번 분기 브랜드 콜라보 늘리기"(Objective) → "월 콜라보 제안 수락율 20% 이상, 협찬 단가 30% 인상, 리뷰 영상 저장율 8% 이상"(Key Results) 이렇게 숫자로 쪼개는 거야. 노정석은 AI 루프에 이걸 그대로 적용해.
    출처 ·EP. 92
  • On-policy

    - 전문가 설명: AI가 현재 자신의 능력 수준에서 직접 실험하면서 학습하는 방식. 외부 데이터 말고 자기 경험으로 배우는 것. - **한나 버전**: 다른 크리에이터 영상 보고 배우는 게 아니라, 내가 직접 영상 올려보고 반응 받아보면서 배우는 거야. AI가 실전에서 직접 부딪히며 스스로 더 똑똑해지는 것.
    출처 ·EP. 91
  • on-policy / off-policy

    - 전문가 설명: 학습하는 AI와 행동하는 AI가 같으면(on-policy), 다르면(off-policy). - **한나 버전**: on-policy는 "내가 직접 릴스 올려보고 반응 보고 내가 배우는 것". off-policy는 "선배 크리에이터 영상 보고 배우는 것". 선배 방식이 내 채널에 안 맞을 수 있으니까 직접 해봐야 진짜 내 것이 돼.
    출처 ·EP. 75
  • on-prem(on-prem(온프레미스))

    - 전문가 설명: 클라우드(인터넷)가 아니라 회사 내부 서버에 직접 설치해서 쓰는 방식. - **한나 버전**: 스트리밍 말고 내 하드디스크에 직접 저장해서 쓰는 거야. 보안이 중요한 기업들이 "우리 AI, 우리 서버에서만 돌릴게요" 하는 경우.
    출처 ·EP. 9
  • on-premise

    - 전문가 설명: 회사 서버를 외부 클라우드가 아닌 자기 건물 안에 직접 설치해서 운영하는 방식. - **한나 버전**: 사진을 구글포토에 올리느냐 vs 내 하드드라이브에만 저장하느냐의 차이야. 보수적인 기업들, 특히 은행이나 정부는 "우리 데이터 절대 외부로 안 내보낸다"는 규정 때문에 후자를 고집해.
    출처 ·EP. 7EP. 11
  • On-premise

    - 전문가 설명: 인터넷 클라우드가 아닌 자체 서버에서 운영하는 방식 - **한나 버전**: 클라우드 저장소(Google Drive)가 아니라 내 외장하드에 저장하는 거야. 정부기관·대기업은 보안상 ChatGPT한테 데이터 못 보내니까 이렇게 써야 해
    출처 ·EP. 2
  • OpenClaw

    - 전문가 설명: AI 에이전트가 컴퓨터를 직접 조작할 수 있게 해주는 환경/도구. Claude나 GPT 같은 AI가 실제로 프로그램을 실행하고 파일을 다루게 해줘. - **한나 버전**: AI 비서한테 "내 폰 직접 잡아서 배민 주문해줘"를 가능하게 해주는 도구야. 지금까지는 AI한테 "어떻게 하면 되냐"고 물어보는 수준이었다면, 이제는 AI가 직접 폰 화면 보고 클릭하고 주문까지 해줘.
    출처 ·EP. 85EP. 91
  • operational vacation

    - 전문가 설명: Andrej Karpathy가 Tesla AI Day에서 쓴 표현. 시스템이 자동으로 돌아가니까 엔지니어는 실제로 개입할 게 없는 상태. 일은 하고 있지만 사실상 휴가. - **한나 버전**: 숏폼 영상이 알아서 바이럴 타서 팔로워가 자동으로 늘고, 예약된 포스팅이 올라가고, 브랜드 DM은 챗봇이 답하는 상태. 한나는 그냥 모니터링만 하면 되는 것.
    출처 ·EP.

P

  • PagedAttention

    - 전문가 설명: vLLM이 개발한 기법. KV cache를 OS의 페이지 메모리처럼 잘게 나눠 포인터로 관리해, 메모리 낭비 없이 여러 사용자의 다양한 길이 context를 효율적으로 처리함. - **한나 버전**: 클라우드 드라이브 폴더 관리법 바꾼 거야. 예전엔 영상마다 고정된 폴더 크기를 잡아두고 빈 공간은 낭비했다면, 이제는 포인터로 여기저기 연결해서 딱 필요한 만큼만 써. 메모리 낭비가 확 줄어.
    출처 ·EP. 96
  • PaLM 2

    - 전문가 설명: 현재 Bard를 구동하는 Google의 언어모델. GPT-4보다 성능이 낮다는 평가를 받고 있음. - **한나 버전**: 지금 Bard에 들어가 있는 엔진인데, 구형 카메라 바디라고 보면 돼. 인터페이스(바디 셸)는 멋진데 안에 들어간 렌즈/센서가 아직 아쉬운 상태. Gemini로 렌즈 바꾸면 달라진다는 거야.
    출처 ·EP. 12
  • Paradigm Shift(Paradigm Shift(패러다임 시프트))

    - 전문가 설명: 기존 규칙과 상식을 완전히 뒤엎는 판의 전환. - **한나 버전**: TV 시대에서 유튜브 시대로 넘어간 것처럼, 이전 방식 전체가 쓸모없어지는 급의 변화야. 노정석은 GPT-5가 나오면 지금 AI 도구들이 그 수준일 거라고 봐. ---
    출처 ·EP. 15
  • Particle Life / Particle Lenia

    - 전문가 설명: 단순한 입자들이 인력·척력 규칙에 따라 움직이다가 복잡한 생명체 같은 패턴을 만들어내는 시뮬레이션 알고리즘들. - **한나 버전**: 점들한테 "빨간 점은 서로 끌어당겨, 파란 점은 밀어내" 규칙만 줬는데 자기들끼리 모이고 흩어지고 하다가 마치 세포처럼 움직이기 시작하는 거야. 최승준이 두 버전을 AI한테 합쳐달라고 해서 새로운 걸 만들어냈어. ---
    출처 ·EP. 68
  • Passive Income(Passive Income(패시브 인컴))

    - 전문가 설명: 일하지 않아도 자동으로 들어오는 수익. 저작권료, 배당금 등. - **한나 버전**: 한나가 올해 올린 영상이 내년에도 조회수 나오면서 광고 수익 계속 들어오는 것처럼, Typecast에 목소리 등록한 성우는 자면서도 누군가가 그 목소리 쓸 때마다 돈이 들어오는 구조야.
    출처 ·EP. 4
  • Periodic Labs

    - 전문가 설명: OpenAI·DeepMind 출신들이 창업한 AI 과학 연구 스타트업. 고온 초전도체 개발을 목표로 AI에게 실제 실험실 환경을 제공해 스스로 실험을 반복하게 함. - **한나 버전**: AI 크리에이터 에이전시를 차리되, AI가 직접 콘텐츠 올리고 → 반응 보고 → 다음 콘텐츠 만들고를 혼자 무한 반복하게 시스템을 깐 것과 비슷해. 근데 대상이 콘텐츠가 아니라 화학 실험인 거야.
    출처 ·EP. 71
  • Physical AI

    - 전문가 설명: AI가 디지털 세상이 아닌 물리 세상에서 직접 몸을 움직여 행동하는 것. 로봇·자율주행 등이 해당. - **한나 버전**: 지금까지 AI는 '말하고 쓰는' 것만 했잖아. Physical AI는 AI가 직접 손 들고 청소하고, 설거지하고, 물건 나르는 거야. 인플루언서가 글로만 소통하다가 오프라인 팝업 열어서 직접 팬들이랑 만나는 것처럼, AI가 현실 세계로 나온 버전.
    출처 ·EP. 84
  • Plateau(Plateau(플래토))

    - 전문가 설명: 급격한 성장·발전 후 성능 향상이 멈추거나 느려지는 정체 구간. - **한나 버전**: 유튜브 채널 초기에 구독자 폭발하다가 어느 순간 딱 멈추는 그 구간이야. AI 수학 문제 풀이도 쉬운 문제들 다 정복하고 나니 지금 그 정체기에 접어들었다는 거.
    출처 ·EP. 15EP. 92
  • Playwright MCP

    - 전문가 설명: Microsoft가 만든 오픈소스 도구로, AI가 실제 웹 브라우저를 자동으로 조종할 수 있게 해주는 MCP 서버 - **한나 버전**: 한나 대신 AI가 직접 크롬 창 열어서, 클릭하고 입력하고 스크롤하는 거야. 마치 한나 대신 인턴이 웹서핑 해서 결과 가져오는 느낌인데, 그 인턴이 AI인 거지.
    출처 ·EP. 49
  • PMF

    - 전문가 설명: Product-Market Fit. 내가 만든 제품이 시장이 원하는 것과 딱 맞아떨어지는 상태야. 스타트업에서 가장 중요한 목표 중 하나야. - **한나 버전**: 내가 올린 콘텐츠가 알고리즘이랑 팬들한테 딱 맞아떨어져서 폭발적으로 반응 오는 상태야. 콘텐츠 크리에이터의 "이 포맷이 터진다" 느낌이랑 같아.
    출처 ·EP. 93
  • post-training

    - 전문가 설명: AI의 기초 학습(pre-training) 이후에 실제 사용에 맞게 미세 조정하는 단계. 여기서 각 회사마다 노하우 차이가 크게 난다. - **한나 버전**: 데뷔 전 트레이닝이 pre-training이면, 데뷔 후 특정 브랜드 이미지에 맞춰 스타일을 다듬는 게 post-training이야. 같은 실력의 연습생도 기획사마다 완전히 다른 스타가 되는 것처럼.
    출처 ·EP. 78
  • Post-training

    - 전문가 설명: 기초 학습이 끝난 모델에 RLHF, 지시 따르기 등 실제 사용 목적에 맞게 추가 훈련하는 과정. - **한나 버전**: pre-training이 "기초 촬영 실력"이라면 post-training은 "이 채널은 뷰티야, 이 채널은 여행이야" 방향을 잡고 실제 팬들 취향에 맞게 세팅하는 거야. 아직 중국이 이 단계에서 미국에 살짝 밀린다고 해. ---
  • PRD / spec sheet

    - 전문가 설명: Product Requirements Document. 제품을 만들기 전에 목적·기능·제약 조건을 문서로 정리한 것. - **한나 버전**: 브랜드 협업 전에 "이 콘텐츠 목적은 뭐고, 하면 안 되는 건 뭐고, 최종 형태는 뭐야"를 문서로 정리해두는 브리프야. AI한테 코딩 시킬 때 이게 없으면 서너 번 만에 망해.
    출처 ·EP.
  • Pre-training

    - 전문가 설명: AI 모델이 대량의 텍스트 데이터를 보며 언어의 기본 패턴을 학습하는 초기 훈련 과정. - **한나 버전**: 유튜버로 치면 "촬영·편집·구성 기초 능력" 자체를 키우는 단계야. 아직 어떤 콘텐츠를 만들지 방향도 없이, 그냥 기본기를 수십만 시간 쌓는 거지. 이 단계에서 중국이 미국 수준에 왔다는 게 핵심 뉴스야. ---
    출처 ·EP. 95
  • Pre-training / Fine-tuning

    - 전문가 설명: Pre-training은 방대한 데이터로 기초 언어 능력을 학습, Fine-tuning은 특정 목적에 맞게 추가 학습하는 과정. - **한나 버전**: Pre-training은 학교에서 전반적인 공부 다 한 것. Fine-tuning은 취업 준비로 특정 분야만 집중 공부하는 것. 기초 없이 파인튜닝만 하면 약해.
    출처 ·EP. 17
  • pre-training / post-training

    - 전문가 설명: AI 모델을 만드는 두 단계. pre-training은 인터넷 전체 데이터를 먹여서 기본 언어 감각을 키우는 것, post-training은 그 모델을 특정 목적에 맞게 다듬는 것. - **한나 버전**: pre-training은 크리에이터가 어릴 때부터 쌓은 영상 감각, 유머 코드, 편집 취향 같은 것. post-training은 데뷔하고 나서 "짧은 영상 스타일로 바꿔봐" 피드백 받으면서 다듬어지는 과정. Gemini 3는 두 단계 모두를 크게 개선했대.
    출처 ·EP. 77
  • Pre-training / Post-training / Mid-training

    - 전문가 설명: AI 학습 단계. Pre-training은 방대한 데이터로 기초 학습, Post-training은 특정 용도(챗봇, 코딩 등)로 미세조정, Mid-training은 그 중간 단계. - **한나 버전**: Pre-training은 초중고 전과목 공부, Mid-training은 수능 특정 과목 집중 보강, Post-training은 면접용 자기소개서 다듬기야. 기초가 탄탄해야 다음이 잘 돼.
    출처 ·EP. 81
  • pre-training 스케일링

    - 전문가 설명: AI 모델을 만들 때 엄청난 양의 데이터와 컴퓨팅 파워를 투입해서 기초 능력을 키우는 과정. 더 크게, 더 많이 넣을수록 성능이 올라간다는 게 스케일링 법칙. - **한나 버전**: 유튜브 쇼츠를 매일 10개씩 올리면 알고리즘이 계속 좋아지는 거랑 비슷해. 근데 어느 순간부터 아무리 더 올려도 구독자 성장이 둔해지잖아 — 그게 "스케일링의 벽"이야.
    출처 ·EP. 78
  • Prefill

    - 전문가 설명: 사용자의 입력 전체를 AI가 한 번에 병렬로 처리하는 단계. 긴 prompt일수록 이 비용이 커. - **한나 버전**: 인스타 라이브 시작 전에 배경, 조명, 사운드 한 번에 세팅하는 것. 세팅이 길수록 시간 더 걸려. 네가 AI한테 코드를 천 줄 붙여넣는 그 순간이야.
    출처 ·EP. 96
  • prefill / decode 분리

    - 전문가 설명: AI가 답변을 생성할 때 입력을 처리하는 단계(prefill)와 토큰을 하나씩 생성하는 단계(decode)를 별도의 GPU 팜으로 나눠 처리하는 서빙 최적화 방식. - **한나 버전**: 영상 제작에서 촬영팀이랑 편집팀을 완전히 분리하는 것과 같아. 촬영은 촬영 전담, 편집은 편집 전담으로 나누니까 전체 파이프라인이 훨씬 빨라지는 거야. ---
    출처 ·EP. 64
  • Private Cloud

    - 전문가 설명: 애플이 자체 칩(Apple Silicon)으로 운영하는 클라우드 서버. 일반 퍼블릭 클라우드가 아니라 애플 전용 보안 환경에서 AI가 돌아가. - **한나 버전**: 공용 스튜디오(AWS·구글 클라우드)가 아니라 애플이 직접 지은 프라이빗 스튜디오에서만 내 데이터가 처리되는 거야.
    출처 ·EP. 18
  • problem holder vs. problem solver

    - 전문가 설명: 해결해야 할 문제를 가진 사람(기업, 개인)과 그 문제를 기술로 해결하는 사람을 구분한 개념. - **한나 버전**: 브랜드(광고주)랑 크리에이터 관계야. 브랜드는 "팔릴 방법 모르겠어"라는 문제를 가졌고, 크리에이터가 콘텐츠로 풀어줘. AI 시대엔 solver(크리에이터)가 넘쳐나니까, 좋은 problem holder를 먼저 찾는 게 핵심이라는 거야.
    출처 ·EP. 77
  • Product-Market Fit(Product-Market Fit(프로덕트 마켓 핏))

    - 전문가 설명: 내가 만든 제품이 시장의 진짜 수요와 딱 맞아떨어지는 상태. - **한나 버전**: 한나가 새 콘텐츠 포맷 테스트했는데 조회수 폭발하고 저장·공유가 미친 듯이 되는 순간 있잖아. "아, 이게 사람들이 원하는 거구나" 느끼는 그 순간이 바로 PMF야. Typecast는 "내 목소리 영상에 넣고 싶어"라는 연락이 쏟아졌을 때 그걸 찾은 거야.
    출처 ·EP. 4
  • programmazione vs. progettazione

    - 전문가 설명: 이탈리아어. programmazione는 사전에 짜놓은 프로그램대로 실행하는 것, progettazione는 진행하면서 조정 가능한 열린 계획. - **한나 버전**: 유튜브 영상 "3개월 스케줄 다 짜고 그대로 올리기" vs. "첫 영상 반응 보고 방향 계속 수정해가며 시리즈 만들기". 최승준은 후자로 유치원을 운영해.
    출처 ·EP. 76
  • proprietary data

    - 전문가 설명: 특정 기업만 보유한 독점 데이터. 외부에서 구할 수 없어서 경쟁 우위가 되는 데이터. - **한나 버전**: 인스타 팔로워 1만 명이 네 게시물에 남긴 저장·댓글·DM 패턴. 누구도 그 데이터를 너 대신 갖고 있을 수 없잖아. 그게 바로 proprietary data야. 경쟁자가 아무리 잘 해도 네 팔로워 반응은 못 훔쳐.
    출처 ·EP. 45
  • Proprietary Data(Proprietary Data(프로프라이어터리 데이터))

    - 전문가 설명: 나만이 가진 독점 데이터. 공개된 AI 학습 데이터에 없는 나만의 정보. - **한나 버전**: 내 팔로워들이 어떤 댓글 달고, 어떤 콘텐츠에서 이탈하고, 어떤 톤에 반응하는지 — 이게 바로 나만 가진 데이터야. 챗GPT는 이걸 몰라. 이게 해자(경쟁 우위)가 돼.
    출처 ·EP. 55
  • proto-AGI

    - 전문가 설명: AGI(범용 인공지능)에 완전히 도달하진 않았지만 그 후보 단계로 볼 수 있는 시스템. - **한나 버전**: 메가 인플루언서가 되기 직전의 상태, 그러니까 팔로워 90만 명 같은 거야. 아직 100만은 아닌데 냄새가 나는 단계. Demis가 지금 AI가 그 지점쯤 왔다고 본다는 거야.
    출처 ·EP. 80

Q

  • quantization(quantization(양자화))

    - 전문가 설명: AI 모델의 데이터 정밀도를 낮춰서 파일 크기와 메모리 사용량을 줄이는 기술. 4-bit, 8-bit 등. - **한나 버전**: 영상 화질 낮추는 거야. 4K → 1080p → 720p. 용량은 줄지만 화질이 좀 떨어지는 대신 더 가볍게 돌아가. AI 모델도 이렇게 압축해서 작은 컴퓨터에서 돌릴 수 있어.
    출처 ·EP. 9
  • Quantization(Quantization(양자화))

    - 전문가 설명: AI 모델의 숫자 표현 정밀도를 낮춰서 파일 크기와 연산량을 줄이는 기술. 품질은 조금 손해보지만 속도·용량이 확 좋아져. - **한나 버전**: 4K 영상을 1080p로 압축하는 것. 원본보단 약간 질이 떨어지지만 용량이 훨씬 작아져서 폰에 담을 수 있게 되는 거야.
    출처 ·EP. 18

R

  • RAG

    - 전문가 설명: Retrieval-Augmented Generation. AI가 답변할 때 외부 자료를 실시간으로 검색해서 정확도를 높이는 기술. - **한나 버전**: AI한테 내 유튜브 영상 대본 파일들 다 넣어두고, 질문하면 그 파일들 뒤지면서 답해주는 방식이야. 기억력 좋은 조수 같은 거.
  • RAG / Graph-RAG

    - 전문가 설명: RAG은 AI가 답변할 때 외부 데이터를 실시간으로 참조하게 하는 기술. Graph-RAG은 데이터들 사이의 관계망(그래프)까지 정리해서 더 복잡한 질문에 답하게 하는 것. - **한나 버전**: RAG은 "이 성분이 뭐야?"라고 물으면 제품 설명서를 펴서 읽어주는 것. Graph-RAG은 "비타민 C 대신 뭘 써야 차별화돼?"라는 오픈된 질문에 성분 간 관계망을 훑어서 답하는 것. 단순 검색 vs. 전문가 조언의 차이야.
    출처 ·EP. 74
  • ralph loop

    - 전문가 설명: AI 에이전트가 사람 개입 없이 스스로 반복 실행하며 목표를 향해 달려가게 하는 자율 루프. - **한나 버전**: "유튜브 쇼츠 100개 자동 생성해줘"처럼 AI한테 목적만 던지고 알아서 다 하라고 무한 반복 돌리는 거야. 빠르긴 한데, 노정석 말처럼 "우리가 알던 것 이상은 안 나온다"는 한계가 있어.
    출처 ·EP. 87
  • Ralph Loop

    - 전문가 설명: 기획서(PRD)를 AI에게 주고 "될 때까지 반복해" 방식으로 자율 실행시키는 agentic 워크플로우 패턴. - **한나 버전**: "이 콘텐츠 아이디어로 숏폼 스크립트 10개 써줘, 조회수 100만 될 것 같은 거 나올 때까지 계속 고쳐줘"라고 던지고 AI가 알아서 반복하는 거야. 도달하면 알려줘, 하는 방식.
    출처 ·EP. 85
  • Ralph loop / 에이전트 루프

    - 전문가 설명: AI가 작업을 반복 수행하며 목표 달성까지 자동으로 루프를 도는 구조. - **한나 버전**: 예약 발행 설정이랑 비슷한데, 훨씬 스마트한 버전. 실패하면 스스로 수정하고 다시 시도하는 걸 목표 달성까지 멈추지 않아.
    출처 ·EP. 90
  • React 컴포넌트

    - 전문가 설명: 웹 페이지를 만드는 자바스크립트 도구 중 하나. 버튼·카드·대시보드 같은 UI 요소를 블록처럼 조립해서 웹앱을 만들 수 있음. - **한나 버전**: 인스타 스토리 템플릿 블록이랑 비슷해. 버튼 블록, 카드 블록, 슬라이더 블록 이런 걸 가져다 조립하면 웹페이지 하나가 뚝딱 완성돼.
    출처 ·EP. 19
  • Recall(Recall (Microsoft))

    - 전문가 설명: 내 PC에서 한 모든 작업을 AI가 기억해두고, 나중에 검색하면 찾아주는 기능. - **한나 버전**: "저번 달에 봤던 그 DM 어디 갔지?" 하면 AI가 찾아주는 거야. 내 PC 전체가 포토 앨범처럼 검색 가능해지는 거지. 단, 개인정보 논란이 엄청 컸어. ---
    출처 ·EP. 14
  • Red Teaming(Red Teaming(레드티밍))

    - 전문가 설명: AI를 출시 전에 일부러 악용하거나 오류를 유발하는 방식으로 테스트해서 문제를 미리 잡는 과정. - **한나 버전**: 유튜브 영상 올리기 전에 악플러 입장에서 미리 댓글 달아보고 취약점 체크하는 거야. 아니면 인플루언서 마케팅 진행 전에 "이거 역풍 맞을 수 있냐?" 사전 점검하는 거.
    출처 ·EP. 12
  • reinforcement learning(reinforcement learning (강화학습))

    - 전문가 설명: AI가 어떤 행동을 하면 보상/벌점을 받고, 그걸 반복하면서 스스로 좋은 행동을 학습하는 방식. - **한나 버전**: 릴스를 올렸을 때 조회수가 터지면 "이 포맷 또 해", 반응 없으면 "이 포맷 버려" 식으로 알고리즘이 너한테 신호 주잖아. 그 신호 보고 네가 콘텐츠 조정하는 게 인간 버전 강화학습이야. ---
    출처 ·EP. 45
  • Reporting Bias(Reporting Bias(리포팅 편향))

    - 전문가 설명: 글이나 기록에는 특이하고 주목할 만한 정보만 남고, 당연한 것들은 기록되지 않는 현상. - **한나 버전**: 한나가 여행 브이로그 찍을 때 멋진 뷰는 다 찍는데, 숙소 벽 색깔이나 수건 위치는 안 찍잖아. LLM은 그 찍힌 것들만 배워서 당연한 상식을 모르는 거야. "코끼리는 냉장고에 안 들어가"는 당연해서 아무도 안 썼으니까. ---
    출처 ·EP. 84
  • Residual Connection(Residual Connection(잔차 연결))

    - 전문가 설명: 각 층의 출력에 입력을 더해주는 구조. 깊은 레이어에서도 초기 정보가 사라지지 않게 함. - **한나 버전**: 리믹스 콘텐츠 만들 때 원본 소스를 계속 레이어로 깔아두는 것처럼. 아무리 편집이 많이 돼도 원본 느낌이 남아 있는 거야. AI도 레이어가 깊어져도 처음 입력의 느낌이 계속 살아있게 이렇게 구조가 돼 있어.
    출처 ·EP. 83
  • ResNet(ResNet (잔차 네트워크))

    - 전문가 설명: Skip Connection으로 기울기 소실을 해결해 매우 깊은 CNN도 학습 가능하게 만든 구조. ImageNet 대회에서 Top-5 오류율 5.72%로 당시 최고 성능. - **한나 버전**: 100층짜리 고층빌딩에 계단만 있으면 꼭대기까지 올라가기 힘들잖아. ResNet은 그 사이사이 엘리베이터를 달아놓은 거야. 덕분에 레이어가 엄청 깊어도 학습이 잘 돼. ---
    출처 ·EP.
  • RL(RL(강화학습, Reinforcement Learning))

    - 전문가 설명: AI가 행동→결과→보상/페널티 사이클을 반복하며 좋은 행동을 강화하는 학습 방식. 알파고, ChatGPT 훈련에 쓰임. - **한나 버전**: 틱톡 알고리즘이 콘텐츠를 학습하는 방식이랑 똑같아. 사람들이 오래 봤으면 "이거 좋아" 신호, 넘기면 "이거 별로" 신호. 그걸 수억 번 반복해서 뭘 추천할지 학습하는 거. AI 모델도 같은 방식으로 훈련돼.
  • RLHF(RLHF(Reinforcement Learning from Human Feedback))

    - 전문가 설명: 사람이 AI 응답 두 개 중 좋은 걸 고르고, 그 선호를 기반으로 보상 모델을 만들어 RL에 쓰는 방법. - **한나 버전**: 팔로워한테 A/B 테스트 해서 "어떤 게 더 좋아?" 물어보고, 그 반응을 기준으로 앞으로 콘텐츠 방향을 정하는 것.
  • RLVR

    - 전문가 설명: Reinforcement Learning by Verifiable Rewards. "검증 가능한 보상 신호"로 AI를 학습시키는 방법. 답이 맞는지 틀리는지 확인할 수 있는 환경에서 AI가 반복 학습하는 것. - **한나 버전**: 인스타 알고리즘이 좋아요·저장·공유 수치로 "이 콘텐츠 좋아요, 이건 별로예요"를 판단하는 것처럼, AI한테도 "이거 정답이에요, 저건 틀렸어요"를 명확하게 알려주면서 반복 훈련시키는 거야.
  • Robot Foundation Model

    - 전문가 설명: 특정 작업·몸체에 한정되지 않고 다양한 로봇에서 다양한 작업을 수행할 수 있는 범용 로봇 AI. - **한나 버전**: 인스타 전용 크리에이터, 유튜브 전용 크리에이터가 따로 있던 시대가 있었잖아. 지금은 멀티플랫폼 크리에이터가 어디든 다 잘하는 것처럼 — 어떤 로봇 몸체에도, 어떤 작업에도 다 쓸 수 있는 '멀티플랫폼 AI'.
    출처 ·EP. 84
  • Roofline Analysis

    - 전문가 설명: 하드웨어의 연산 성능과 메모리 대역폭 한계를 "천장선"으로 그려서 시스템이 어디서 병목이 나는지 추정하는 분석 기법. 정확한 계산이 아닌 큰 그림 추정용. - **한나 버전**: 내 채널 성장 가능성을 "구독자 상한선 vs 조회율 상한선" 두 개 천장선 그려서 어느 쪽이 먼저 막히는지 보는 것. 노정석도 "guesstimation"이라고 계속 강조했어 — 정확한 계산이 아니라 큰 그림 보는 도구야. ---
    출처 ·EP. 96
  • Router(Router(라우터))

    - 전문가 설명: AI 모델 앞단에 붙어서 사용자의 입력을 읽고, 적합한 모델(빠른 것 vs 깊이 생각하는 것)로 자동 연결해주는 경량 모델 - **한나 버전**: 유튜브 업로드할 때 자동으로 숏츠 탭이냐 일반 탭이냐 분류해주는 시스템이랑 비슷해. 네가 고르는 게 아니라 시스템이 판단해서 보내주는 거야
    출처 ·EP. 65

S

  • S커브(S커브(S-curve))

    - 전문가 설명: 기술이나 산업의 성장 패턴. 처음엔 느리다가 폭발적으로 성장하고, 어느 순간 정체기에 들어가는 S자 모양의 곡선. - **한나 버전**: 인스타 팔로워 성장이랑 똑같아. 처음엔 팔로워 100명 모으는 데 1년 걸리다가, 어느 순간 콘텐츠 터지면 한 달에 10만이 붙고, 그러다가 또 성장이 멈추는 구간이 오잖아. 노정석이 "AI도 이 S커브를 타고 어느 순간 평지에 들어갈 것"이라고 해석한 거야.
    출처 ·EP.
  • SaaS(SaaS(Software as a Service))

    - 전문가 설명: 소프트웨어를 설치 없이 월정액 구독으로 쓰는 서비스. Notion, Canva, Salesforce 같은 것들. - **한나 버전**: 한나가 쓰는 편집 툴 구독료야. AI가 이걸 다 직접 만들 수 있게 되면서 "굳이 구독해야 하나?" 의문이 생기는 중.
    출처 ·EP. 85EP. 86
  • Scale Law(Scale Law(스케일 법칙))

    - 전문가 설명: 모델 크기, 데이터, 컴퓨팅 파워를 늘릴수록 AI 성능이 예측 가능하게 향상된다는 경험 법칙. - **한나 버전**: 팔로워 10만보다 100만이 협찬 단가 정비례로 오르는 게 아니라, 훨씬 더 가파르게 오르잖아. 그것처럼 AI도 자원 투입이 늘면 능력이 그냥 예측 가능하게 올라간다는 거야.
    출처 ·EP. 58
  • Scaling / 스케일링

    - 전문가 설명: 모델 크기, 데이터 양, 연산량을 늘릴수록 성능이 올라가는 현상과 그 연구. - **한나 버전**: 구독자가 많아질수록 알고리즘 노출이 늘고 → 더 많은 사람이 보고 → 또 구독자가 느는 선순환. AI도 크게 만들수록 잘하게 되는 비슷한 구조야.
    출처 ·EP. 17
  • scaling law(scaling law(스케일링 법칙))

    - 전문가 설명: AI에 데이터와 컴퓨팅을 더 쏟아부으면 성능이 예측 가능하게 올라간다는 법칙. - **한나 버전**: 유튜브로 치면 "영상 더 많이 올릴수록 채널이 커진다"는 공식 같은 거야. 작년에 "이제 이 공식이 한계에 다다랐다"는 얘기가 돌았는데, Gemini 3가 "아직 아니야"를 증명한 거야.
    출처 ·EP. 77
  • Scaling Law(Scaling Law(스케일링 법칙))

    - 전문가 설명: 모델 크기·데이터·연산량을 늘리면 성능이 예측 가능하게 좋아진다는 법칙. LLM에서 검증됨. - **한나 버전**: 팔로워가 1만일 때보다 10만일 때 협찬 단가가 오르듯이, 데이터 많이 넣을수록 AI가 규칙적으로 똑똑해진다는 거야. 이 법칙이 로봇에도 적용될까 — 지금 다들 그걸 테스트 중.
  • Scaling Law / 스케일링 법칙

    - 전문가 설명: 모델 크기와 데이터 양이 늘수록 성능이 예측 가능하게 향상된다는 법칙 - **한나 버전**: 유튜브에서 "영상 올리는 횟수 늘리면 구독자 는다"는 공식 같은 거야. 정확히 얼마나 늘지는 모르지만 방향은 확실해
    출처 ·EP. 2
  • Search Problem(Search Problem (탐색 문제))

    - 전문가 설명: 수많은 가능한 답 중에서 가장 좋은 답을 찾아가는 방식으로 재정의된 문제. - **한나 버전**: "어떤 섬네일이 클릭률 제일 높지?" 를 100개 테스트해서 찾는 거야. 천재적인 직관으로 한 번에 정답 찾는 게 아니라, 많이 시도해서 걸러내는 방식. AI가 지금 모든 어려운 문제를 이런 식으로 풀고 있어. ---
    출처 ·EP. 91
  • Self-improving(Self-improving(자기 개선))

    - 전문가 설명: AI가 스스로 학습 데이터를 생성하거나 피드백을 만들어 자기 자신을 계속 발전시키는 능력. - **한나 버전**: 내가 영상 올리면 알고리즘이 반응 보고 다음 추천을 바꾸는 것처럼, AI도 자기가 한 결과물을 보고 스스로 "이거 더 잘해야겠다"며 성장하는 거야. 진짜 무서운 부분이지.
    출처 ·EP. 12
  • Self-play

    - 전문가 설명: AI끼리 경쟁하면서 스스로 학습하는 방식. 알파고가 자신과 바둑을 수백만 번 두며 강해진 것이 대표 사례. - **한나 버전**: 크리에이터 두 명이 서로 콜라보 경쟁하면서 서로를 자극해서 퀄리티가 올라가는 거야. 한 명이 문제 내고 한 명이 풀면서 둘 다 강해지는 구조인데, 언어·코딩에선 "어떤 문제가 가치 있냐"를 판단하는 게 너무 어려워서 구현이 힘들어.
    출처 ·EP. 81
  • Semantic Scaffold(Semantic Scaffold (시맨틱 스캐폴드))

    - 전문가 설명: AI에게 좋은 답을 이끌어내기 위해 의미론적으로 잘 설계된 프롬프트 구조. 비계(scaffold)처럼 AI 사고를 지탱해주는 틀. - **한나 버전**: 브리프를 잘 쓰면 디자이너한테 훨씬 좋은 결과물이 나오는 것처럼 — AI한테도 질문 틀 자체를 잘 짜면 훨씬 좋은 답이 나오는 거야. ---
    출처 ·EP. 63
  • Semi-formal 언어

    - 전문가 설명: 완전한 수학 증명 언어(Lean 같은 formal language)도 아니고 일상 자연어도 아닌 중간 형태. 전문가들의 암묵적 판단 기준을 AI가 이해할 수 있게 구조화하는 방식. - **한나 버전**: 콘텐츠 스타일 가이드 같은 거야. "밝게, 자연스럽게" 같은 모호한 말도 아니고 코드도 아닌, "배경은 따뜻한 톤, 자막 폰트는 고딕, 인트로 3초 이내, 말투는 반말"처럼 AI가 따를 수 있게 반쯤 정형화한 규칙 문서.
    출처 ·EP. 92
  • SemiAnalysis

    - 전문가 설명: 실리콘밸리 반도체·AI 산업 전문 리서치 미디어. 내부 관계자 정보를 토대로 심층 분석을 유료로 제공함. 연 구독료 약 100만 원 이상. - **한나 버전**: 뷰티/패션 업계에 내부 정보로 먹고 사는 프리미엄 뉴스레터 있잖아. "이 브랜드 다음 분기 어떻게 된다더라" 같은 거 독점으로 파는 데. SemiAnalysis가 AI 업계에서 그 역할이야.
    출처 ·EP. 8
  • SFT(SFT(Supervised Fine-Tuning))

    - 전문가 설명: 전문가가 직접 정답을 써준 데이터로 AI를 지도학습 방식으로 미세 조정하는 것. - **한나 버전**: 브랜드 담당자가 "이런 말투로 써" 하고 예시 스크립트 잔뜩 줘서 AI 작가를 훈련시키는 것. 근데 예시에 없는 상황은 AI가 아무 말이나 지어낼 수 있어.
  • shadow AI

    - 전문가 설명: 회사 공식 정책과 무관하게 직원들이 개인 돈으로 ChatGPT 등을 결제해서 몰래 업무에 쓰는 현상. - **한나 버전**: 회사에서 "AI 써도 돼" 공지 안 했는데, 직원이 자기 폰으로 ChatGPT 켜서 기획안 초안 뽑아 쓰는 거야. MIT 보고서에서 응답 기업의 90%가 이미 이러고 있다고 나왔어.
    출처 ·EP. 67
  • Sim-to-real Gap

    - 전문가 설명: 시뮬레이터(가상환경)에서 학습한 로봇이 실제 세상에 나오면 성능이 떨어지는 현상. - **한나 버전**: 릴스 조회수 잘 나오던 콘텐츠가 유튜브 쇼츠로 그대로 올리면 왜 안 터지지? 하는 그 느낌. 환경이 조금만 달라도 잘 안 돼.
    출처 ·EP. 84
  • singularity

    - 전문가 설명: AI 능력이 인간 전체를 초월하는 시점. 그 이후 어떻게 될지 예측 불가능하다고 해서 '특이점'이라고도 불러. - **한나 버전**: 유튜브 알고리즘이 어느 순간 "크리에이터보다 알고리즘이 더 잘 안다"는 시점처럼 — AI가 어느 순간 "인간보다 모든 걸 더 잘한다"는 순간이 오는 거야. 노정석은 2년 안에 올 수도 있다고 봤어.
    출처 ·EP. 11
  • Situational Awareness

    - 전문가 설명: OpenAI 출신 Leopold Aschenbrenner가 2024년 공개한 장문의 글. AGI, ASI로 가는 경로와 타임라인을 구체적으로 예측해서 화제가 됐음. - **한나 버전**: AI 업계 내부자가 "앞으로 이렇게 될 거야"를 아주 세세하게 적어서 유출한 로드맵 문서 느낌. 음모론이 아니라 꽤 맞아떨어지고 있어서 더 무서운 거야.
    출처 ·EP. 68
  • Sketchpad / HyperCard

    - 전문가 설명: Sketchpad(1962)는 세계 최초 GUI 프로그램. HyperCard(1987)는 일반인이 앱 비슷한 것을 만들 수 있게 한 Apple 도구. - **한나 버전**: Sketchpad는 마우스·터치스크린의 시초 조상이고, HyperCard는 "코딩 몰라도 앱 만든다"는 노코드의 조상이야. 지금 Notion이나 에어테이블 같은 것들의 1960~80년대 버전이라고 생각하면 돼.
    출처 ·EP. 72
  • Skip Connection(Skip Connection (스킵 커넥션))

    - 전문가 설명: 레이어 여러 개를 건너뛰어 입력값을 그대로 더해주는 연결. ResNet의 핵심 아이디어로 기울기 소실 문제를 해결함. - **한나 버전**: 유튜브 롱폼 편집할 때 15분짜리 본 영상에 "핵심 요약 쇼츠"를 병렬로 붙여놓는 것처럼, 정보가 사라지지 않도록 우회로를 만드는 거야.
    출처 ·EP.
  • Skunkworks(Skunkworks(스컹크웍스))

    - 전문가 설명: 경쟁사 발표에 맞춰 자사 소식을 전략적으로 흘려 존재감을 방해하는 전술. 원래는 비밀 R&D 조직 이름이었는데 이런 의미로도 쓰임. - **한나 버전**: 라이벌 유튜버가 대형 영상 올리는 날 나도 비슷한 주제로 영상 올려서 알고리즘 자리 뺏는 거. 아니면 경쟁 브랜드 팝업 여는 날 옆에서 체험 이벤트 여는 느낌.
    출처 ·EP. 12
  • Slash Command(Slash Command (/커맨드))

    - 전문가 설명: Claude Code에서 미리 만들어둔 자동화 명령어. 호출하면 여러 에이전트가 병렬로 작업을 나눠 처리함 - **한나 버전**: 인스타 릴스 만들기 버튼 하나 누르면 → 리서치봇·스크립트봇·썸네일봇이 동시에 움직이는 느낌이야.
    출처 ·EP. 86
  • Sleep-time Compute

    - 전문가 설명: 사용자가 자는 동안 AI가 비동기적으로 백그라운드에서 작업을 처리하고 아침에 결과를 제시해주는 방식. - **한나 버전**: 밤에 에디터가 알아서 내 영상 편집하고 트렌드 분석해서 아침에 "이런 방향 어때?" 하고 보고서 던져주는 것. ChatGPT Pulse가 딱 그거야.
    출처 ·EP. 71
  • Soft Lookup

    - 전문가 설명: 딱 하나의 답을 찾는 게 아니라 여러 후보에 점수를 매겨 가중 평균을 내는 정보 검색 방식. - **한나 버전**: 브랜드 선택할 때 딱 하나만 고르는 게 아니라 "A 브랜드 40%, B 브랜드 35%, C 브랜드 25%"로 비율로 섞어서 결정 내리는 느낌. AI가 정보 찾는 방식이 다 이런 식으로 "비율로 섞기"야. ---
    출처 ·EP. 83
  • Sovereign AI(Sovereign AI(주권 AI))

    - 전문가 설명: 특정 국가나 기관이 외국 기업에 의존하지 않고 자체적으로 통제·운영할 수 있는 AI 시스템. - **한나 버전**: 자체 제작 콘텐츠야. 유튜브 알고리즘 바뀌면 망하는 게 아니라, 자기 채널·자기 플랫폼·자기 팬 DB를 직접 갖고 있는 것. 미국 빅테크 서버에 다 올리는 게 아니라 우리나라 서버에서 우리가 직접 돌리는 AI. ---
    출처 ·EP. 64
  • Spaced Repetition(Spaced Repetition(간격 반복))

    - 전문가 설명: 망각 곡선을 활용해 기억이 사라지기 직전에 반복 학습하는 기법. Anki, Mochi 같은 앱이 대표적. - **한나 버전**: 새 레시피 외울 때 오늘 보고, 3일 뒤 보고, 1주일 뒤 보고, 1달 뒤 보면 장기 기억에 박히는 거잖아. 영단어 외울 때 오답 카드 계속 반복하는 것도 이거야.
    출처 ·EP. 58
  • Sparse Attention

    - 전문가 설명: 모든 이전 토큰을 참조하는 대신, 중요한 일부 토큰만 선택적으로 참조하는 어텐션 메커니즘. - **한나 버전**: 인스타 피드를 스크롤할 때, 1000개 게시물을 다 보는 게 아니라 알고리즘이 "이거 봐" 하고 30개만 추려서 보여주는 거랑 비슷해. 근데 그 "추리는 기준" 자체를 AI가 학습하는 게 극도로 어렵다는 게 문제야. ---
    출처 ·EP. 95
  • Sparsity(Sparsity(희소성))

    - 전문가 설명: MoE에서 전체 파라미터 중 실제로 활성화되는 비율. Sparsity가 높을수록(= 쓰는 비율이 적을수록) 효율이 높아지는 경향. - **한나 버전**: 유닛 이코노미처럼, 전체 팀원 100명 중 10명만 쓰는 게 25명만 쓰는 것보다 비용 효율이 높은 거야. 근데 AI에선 신기하게도 더 적게 쓸수록 오히려 전체 성능이 더 좋아지는 역설이 나타나거든.
    출처 ·EP. 81
  • Spec(Spec(스펙))

    - 전문가 설명: 소프트웨어를 만들기 전에 어떻게 동작해야 하는지 상세히 적은 기획 문서 - **한나 버전**: 협찬 콘텐츠 브리프랑 똑같아. "이런 분위기로, 이런 메시지로, 이런 포맷으로" 미리 다 적어두는 거. 노정석 말로는 앞으로 개발자의 핵심 역할이 코딩이 아니라 이 스펙 잘 쓰기가 될 거래.
    출처 ·EP. 51
  • SSI(SSI (Safe Superintelligence))

    - 전문가 설명: 일리야 수츠케버가 OpenAI를 나와서 만든 회사. 안전한 초지능 개발에만 집중한다고 선언했어. - **한나 버전**: 대형 MCN에서 나와서 "나는 돈 버는 콘텐츠 말고 진짜 좋은 콘텐츠만 만들겠다"고 독립한 크리에이터야. 근데 어떻게 수익화할 건지 아직 안 밝혔어서 밈이 되고 있는 상황이야.
    출처 ·EP. 78
  • Strange Loop(Strange Loop (이상한 루프))

    - 전문가 설명: 호프스태터가 제안한 개념. 위 레벨과 아래 레벨이 서로 영향을 주고받으면서 무한히 얽히는 구조. 이게 자아 의식을 만든다는 이론. - **한나 버전**: 네가 올린 콘텐츠가 팔로워 반응을 만들고, 그 반응이 다시 네 콘텐츠 방향을 바꾸고, 그게 다시 팔로워를 바꾸고… 이 루프가 계속 쌓이면서 "한나의 브랜드"라는 정체성이 탄생하는 것. 그게 인간에게는 "나"라는 자아고, AI에게도 그게 생기면 AGI라는 얘기야.
    출처 ·EP. 78
  • Superalignment

    - 전문가 설명: AI가 인간의 가치와 의도에 벗어나지 않도록 자동화된 방법으로 정렬하는 연구. OpenAI가 4년 목표로 팀 꾸림. - **한나 버전**: 크리에이터가 이상한 말 막 올릴 수 없게 커뮤니티 가이드라인 세우는 거야. 근데 그 가이드라인을 AI가 스스로 지키도록 AI한테 다시 AI로 가르치는 작업이야. ---
    출처 ·EP. 5
  • Superintelligence(Superintelligence(슈퍼인텔리전스))

    - 전문가 설명: 인간의 지적 능력을 모든 분야에서 훨씬 뛰어넘는 AI. - **한나 버전**: 영상 기획, 썸네일 디자인, 세금 처리, 법률 검토, 의료 상담 — 이 모든 걸 한 AI가 인간 전문가보다 잘하는 상태. 지금 ChatGPT는 그 중 일부만 잘하는 "만능 인턴" 정도야.
    출처 ·EP. 15
  • SVG

    - 전문가 설명: 웹에서 벡터 그래픽(확대해도 안 깨지는 그림)을 코드로 표현하는 형식. - **한나 버전**: 일러스트레이터로 만든 로고처럼 아무리 키워도 안 깨지는 이미지인데, 코드로 만들 수 있어. "SVG로 그려줘"라고 하면 AI가 그 코드를 써서 그림을 만들어줘.
    출처 ·EP. 48
  • Syncretism

    - 전문가 설명: 서로 다른 믿음이나 의견을 가지더라도 더 큰 공통 목표 아래 협력하는 태도. - **한나 버전**: AI 낙관론자와 신중론자가 "그래도 이 시대를 같이 읽어야 하잖아"하면서 한 테이블에 앉는 거야. 최승준이 마지막에 "건강한 마찰"이라고 부른 것과 같은 맥락이야.
    출처 ·EP. 77
  • synthetic data(synthetic data(합성 데이터))

    - 전문가 설명: 실제 데이터가 아니라 AI가 스스로 만들어낸 학습용 데이터. 모델이 문제를 풀고 그 풀이를 다시 학습 데이터로 쓰는 방식. - **한나 버전**: 내가 만든 영상으로 유튜브 쇼츠를 자동 생성하고, 그 쇼츠 반응 데이터를 다시 원본 영상 기획에 반영하는 루프. AI가 자기 풀이로 자기를 더 잘 가르치는 거야.
    출처 ·EP. 61
  • Synthetic Data(Synthetic Data(생성 데이터))

    - 전문가 설명: 사람이 만든 데이터가 아니라 AI 모델이 스스로 생성한 데이터로 다른 AI를 학습시키는 방식 - **한나 버전**: 사람들이 찍은 영상 말고 AI가 만든 콘텐츠로 알고리즘을 또 학습시키는 거야. GPT-OSS가 수학/코드 편향인 게 이것 때문일 수도 있다는 거야 ---
  • System 1 / System 2

    - 전문가 설명: 심리학자 Kahneman이 제시한 인간 사고 방식. System 1은 무의식적·즉각적 판단, System 2는 의식적·느린 숙고. - **한나 버전**: 인스타 피드 스크롤하다 광고 보자마자 "이건 별로"라고 느끼는 게 System 1. 브랜드 콜라보 제안서 받고 며칠 동안 장단점 비교해서 결정하는 게 System 2야. AI도 똑같이 이 두 가지 모드가 있어.
    출처 ·EP. 58

T

  • TAM(TAM(Total Addressable Market))

    - 전문가 설명: 어떤 제품이나 서비스가 공략할 수 있는 전체 시장의 최대 크기. - **한나 버전**: 한나가 뷰티 크리에이터라면, 한국 전체 뷰티 제품 구매자 수 × 평균 구매액이 TAM이야. Sequoia는 "AI가 대체할 서비스 산업 TAM이 10조 달러"라고 봤어.
    출처 ·EP. 67
  • Teleoperation(Teleoperation(텔레오퍼레이션))

    - 전문가 설명: 사람이 원격에서 직접 로봇을 조종하는 것. VR 기기 등을 사용해 사람의 동작을 로봇에 그대로 전달. - **한나 버전**: 한나가 라이브 방송에서 직접 말하는 게 아니라 작가가 귓속말로 대본 불러주고 한나가 그대로 말하는 것. 겉으로 보면 로봇이 일하는 것 같은데 뒤에서 사람이 조종 중인 거야.
    출처 ·EP. 84
  • temperature

    - 전문가 설명: AI 응답의 창의성/랜덤성을 조절하는 수치. 0에 가까울수록 항상 같은 답, 1에 가까울수록 매번 다른 답. - **한나 버전**: 인스타 캡션 쓸 때 "무조건 정확하고 정제된 문장"으로 쓰느냐 vs "매번 톤이 조금씩 달라도 되니까 자유롭게"로 쓰느냐야. 기업 문서 검색엔 0, 마케팅 카피 생성엔 0.5~1.
    출처 ·EP. 11
  • Temperature(Temperature(온도))

    - 전문가 설명: AI 답변의 무작위성을 조절하는 수치. 낮으면 항상 비슷한 답, 높으면 의외의 단어가 튀어나올 확률 높아짐. - **한나 버전**: 인스타 캡션 쓸 때 "항상 안전하게 쓰기" vs "가끔 엉뚱한 거 써보기" 중에 어느 쪽으로 갈지 조절하는 손잡이야. 0이면 모범생 답안, 2면 취한 상태로 쓴 것처럼 튀어. ---
    출처 ·EP. 5
  • test-time compute

    - 전문가 설명: 모델을 훈련할 때가 아니라 답을 내는 순간(추론 시)에 더 많은 계산 자원을 쓰게 하는 방법. 더 오래 생각하게 하는 것. - **한나 버전**: 유튜브 영상 촬영할 때 장비를 업그레이드하는 게 "학습"이라면, 촬영 당일 테이크를 10번 찍어서 제일 좋은 거 고르는 게 "test-time compute"야. 이번 AI는 촬영 당일에 그냥 혼자 100분 동안 생각을 계속한 거.
    출처 ·EP. 61
  • Test-time compute / Inference-time compute

    - 전문가 설명: 모델이 학습할 때 쓰는 컴퓨터 자원(training compute)이 아니라, 실제 답변 생성할 때 쓰는 자원. 더 오래 "생각"하게 할수록 답이 좋아짐. - **한나 버전**: 영상 편집 프로그램이 렌더링할 때 시간 오래 걸릴수록 화질이 좋아지는 거랑 비슷해. o1이 "20초 생각"하는 게 그 렌더링 시간을 늘린 거야.
    출처 ·EP. 58
  • Test-time Scaling

    - 전문가 설명: 모델을 더 크게 만드는 게 아니라, 답을 낼 때 더 많은 계산 자원과 시간을 쓰게 해서 성능을 올리는 방법. - **한나 버전**: 촬영 장비 업그레이드(모델 키우기) 대신 편집에 10배 더 공 들이는(더 오래 생각하게 하기) 것과 같아.
    출처 ·EP. 63
  • The Bitter Lesson(The Bitter Lesson(쓴 교훈))

    - 전문가 설명: 2019년 강화학습의 대가 Richard Sutton이 쓴 글. AI 역사를 보면 "영리한 알고리즘"보다 "컴퓨팅 규모 확장"이 항상 이겼다는 주장. - **한나 버전**: "콘텐츠 퀄리티보다 결국 업로드 양이 이겼더라." 이게 크리에이터판 쓴 교훈이야.
    출처 ·EP. 16
  • The Fog of Progress(The Fog of Progress(진보의 안개))

    - 전문가 설명: 힌튼이 사용한 표현. 기술 발전 속도가 너무 빨라서 가까운 미래는 보이지만 멀어질수록 예측이 불가능해지는 상태. - **한나 버전**: 알고리즘 변화 예측이랑 같아. 다음 주 어떤 포맷이 먹힐지는 어느 정도 감 오는데, 6개월 뒤 플랫폼 생태계가 어떻게 바뀔지는 아무도 몰라. 지금 AI 세계는 그 안개가 1~2년 앞에 이미 깔려 있어.
    출처 ·EP. 69
  • Thinking Machines Lab(Thinking Machines Lab (TML))

    - 전문가 설명: OpenAI 전 CTO Mira Murati가 창업한 AI 연구 회사. RL 인프라 도구 Tinker를 첫 제품으로 출시함. - **한나 버전**: 인플루언서들이 직접 편집 프로그램 배우지 않아도 되게, 편집 인프라 전체를 대신 해주는 스튜디오 같은 거야. 연구자들이 알고리즘만 고민하면 나머지 인프라는 TML이 해결해줘.
    출처 ·EP. 71
  • Thinking Token / Thinking Budget

    - 전문가 설명: AI가 답을 내기 전에 내부적으로 "생각"하는 데 쓰는 연산량. 많을수록 답이 좋지만 느려짐. - **한나 버전**: 촬영 전에 스크립트 얼마나 오래 쓰냐랑 같아. 오래 쓸수록 완성도는 높지만 업로드가 늦어지잖아.
    출처 ·EP. 86
  • Third-party

    - 전문가 설명: 플랫폼 생태계 안에서 핵심 플레이어가 아닌 외부 파트너 앱·서비스. - **한나 버전**: 유튜브가 직접 만든 기능이 아니라, 유튜브 생태계에 올라탄 외부 자막 편집 툴, 썸네일 만들기 앱 같은 것들. 플랫폼이 비슷한 기능 자체 출시하면 바로 사라지는 그 앱들이야.
    출처 ·EP. 74
  • tinkering

    - 전문가 설명: 목적 없이 이것저것 만지고 실험해보는 행위. 탐색적 학습 방식. - **한나 버전**: 새 카메라 샀을 때 설명서 안 읽고 일단 이 버튼 저 버튼 눌러보는 거야. 계획 없이 그냥 만져보면서 느낌 잡는 것.
    출처 ·EP. 6
  • Tiny Teams

    - 전문가 설명: 3~5명의 소수 인원이 AI 도구를 활용해 수십 명 규모의 아웃풋을 내는 팀 구조. - **한나 버전**: 요즘 뷰 잘 나오는 유튜브 채널 보면 진짜 2~3명이 다 돌리는 경우 있잖아. 그게 기업 단위로 확장된 개념이야.
    출처 ·EP. 54
  • Tool Use(Tool Use(툴 유즈))

    - 전문가 설명: AI가 외부 시스템(검색엔진, 데이터베이스, 브라우저 등)을 직접 호출해서 사용하는 능력. - **한나 버전**: 인스타그램 앱에서 링크트리, 결제 툴, 예약 시스템을 직접 연결해서 쓰는 것처럼, AI가 외부 도구를 척척 불러다 쓰는 거야. Native tool use는 그 연결이 앱 내장처럼 자연스러워진 것.
    출처 ·EP. 60
  • TPU

    - 전문가 설명: Google이 자체 설계한 AI 연산 전용 칩(Tensor Processing Unit). AI 모델 학습·추론에서 GPU보다 효율적 - **한나 버전**: 남들이 카메라 빌려서 영상 찍을 때 Google은 자기 공장에서 만든 최신 장비를 쓰는 거야. 장비 값도 없고 속도도 빠르니까 가격 경쟁에서 구조적으로 유리한 거지.
    출처 ·EP. 2EP. 49
  • TPU / Trillium

    - 전문가 설명: TPU는 Google이 만든 AI 전용 연산 칩. GPU의 Google 버전. Trillium은 6세대 TPU 이름. - **한나 버전**: GPU가 고성능 카메라라면, TPU는 Google이 AI 영상 편집만을 위해 직접 설계한 전용 장비야. 남의 장비 빌리는 게 아니라 직접 만들어 쓰는 거지.
    출처 ·EP. 14
  • Transformer

    - 전문가 설명: ChatGPT를 포함한 대부분의 최신 AI가 사용하는 핵심 신경망 구조. 단어와 단어 사이의 관계(Attention)를 계산해서 언어를 이해하고 생성해. - **한나 버전**: 유튜브 알고리즘이 "이 영상 본 사람이 다음에 뭘 볼지" 관계를 계산하는 것처럼, Transformer는 단어들 사이 관계를 계산하는 AI의 두뇌 구조야.
    출처 ·EP. 2EP. 6
  • Transformer / Attention is all you need

    - 전문가 설명: 2017년 구글이 발표한 AI 아키텍처 논문 제목. 지금의 GPT, Claude 등 거의 모든 대형 언어 모델의 근간이 됨. - **한나 버전**: 지금 우리가 쓰는 AI 챗봇의 엔진을 처음 만든 논문이야. 제목이 "주목(Attention)이 전부야" 인데, 최승준이 "인간의 경이로운 주목 능력"을 얘기하다가 이 제목이 아이러니하게 겹쳐 보인다고 했어.
    출처 ·EP. 68
  • Transformer / BERT / GPT

    - 전문가 설명: 현재 AI 언어모델의 기반 구조. BERT는 앞뒤 문맥을 다 보는 방식, GPT는 앞만 보고 다음을 예측하는 방식. - **한나 버전**: BERT는 영상 다 보고 편집하는 편집자. GPT는 촬영하면서 실시간으로 다음 장면 만드는 라이브 스트리머. 속도와 확장성에서 GPT 방식이 결국 이긴 거야.
    출처 ·EP. 90
  • Transformer 아키텍처

    - 전문가 설명: 현재 LLM의 표준 구조. Attention 메커니즘을 핵심으로 하고 MLP 레이어가 함께 구성돼. - **한나 버전**: 콘텐츠 제작 파이프라인이라고 생각해. Attention은 "어떤 장면이 이 스토리에서 중요해?"를 파악하는 편집자 역할, MLP는 실제 편집 작업을 하는 도구 역할.
    출처 ·EP. 17
  • Tree of Thoughts

    - 전문가 설명: AI한테 질문할 때 일직선으로 답을 뽑는 게 아니라, 여러 갈래로 생각을 분기하고 되돌아가며 탐색하는 방식. - **한나 버전**: 콘텐츠 기획할 때 마인드맵 그리는 것. A안, B안 동시에 써보고 마음에 드는 거 골라서 더 발전시키는 방식이야.
    출처 ·EP. 5EP. 7
  • TTC(TTC(Test-Time Compute, 테스트 타임 컴퓨트))

    - 전문가 설명: 모델 학습이 끝난 후에도, 질문에 답하는 시점에 더 많은 연산을 투입해 성능을 높이는 방법. "답 내기 전에 더 오래 생각하기." - **한나 버전**: 릴스 올리기 전에 캡션 5초 쓰는 거랑 30분 고민해서 쓰는 거랑 다르잖아. 모델도 답 바로 뱉지 않고 더 오래 생각하게 하면 더 좋은 답 나오는 거야. ---
    출처 ·EP. 42
  • TTS(TTS(Text-to-Speech))

    - 전문가 설명: 텍스트를 음성으로 변환하는 기술. - **한나 버전**: 대본 텍스트를 치면 AI 목소리로 읽어주는 것. 한나가 얼굴 안 나오는 콘텐츠 만들 때 내레이션 넣는 그거야.
    출처 ·EP. 4

U

  • UBI(UBI (기본소득))

    - 전문가 설명: Universal Basic Income. 일을 하든 안 하든 모든 시민에게 정부가 기본적인 생활비를 지급하는 제도. - **한나 버전**: 유튜브 수익이 없어도 국가에서 매달 일정 금액을 주는 세상. Hinton은 이게 "굶는 건 막아주지만, 일이 없어서 생기는 정체성 상처는 못 고친다"고 봐.
    출처 ·EP. 54EP. 68
  • unfolding

    - 전문가 설명: 건축가 Christopher Alexander의 개념. 사전에 완전히 계획하지 않고, 각 단계가 이전 단계와 조화를 이루면서 자연스럽게 펼쳐지는 설계 방식. - **한나 버전**: 유튜브 채널을 키울 때 1편 올리고 댓글 보고, 그걸 반영해서 2편 만들고, 또 반응 보면서 방향 잡고. 그렇게 채널이 자라나는 거잖아. 처음부터 100편 다 기획하고 시작하는 게 아니라.
    출처 ·EP. 6
  • Universal Verifier

    - 전문가 설명: AI 훈련에서 "이 답이 맞는지 틀린지"를 확인해 주는 심판 역할을 AI 모델 자체가 맡는 시스템. 기존에 검증 불가능했던 영역까지 AI 심판이 판정하게 만드는 기술. - **한나 버전**: 유튜브 영상 품질을 사람 PD가 아니라 AI가 직접 "이게 더 재밌어/별로야"를 판단하고 채점하는 거야. 예전엔 "재밌는 영상"은 AI가 평가 못 했는데, 이제 AI 심판이 그것도 하겠다는 거지.
    출처 ·EP. 63
  • unlearn

    - 전문가 설명: 기존에 습득한 지식·방법론·습관을 의도적으로 버리고 새로운 방식을 받아들이는 능력 - **한나 버전**: 예전에 잘 됐던 콘텐츠 공식을 과감하게 버리고, 지금 AI 시대에 맞는 새 방식으로 갈아타는 것. "원래 이렇게 했는데"를 내려놓는 거야.
    출처 ·EP. 49
  • uv

    - 전문가 설명: Python 패키지(도구 모음)를 초고속으로 설치하고 관리하는 신식 툴. 기존 pip보다 훨씬 빠름. - **한나 버전**: 예전엔 앱 하나 설치에 5분 걸렸는데, uv는 같은 걸 3초에 끝내. 요즘 개발자들 사이 필수템이 됐어.
    출처 ·EP. 48

V

  • Vanishing Gradient(Vanishing Gradient (기울기 소실))

    - 전문가 설명: 딥러닝에서 역전파 시 오차 신호가 레이어를 거칠수록 계속 곱해져 0에 가까워지는 현상. 앞쪽 레이어가 학습이 안 됨. - **한나 버전**: 브랜드 피드백이 에이전시 → 팀장 → 담당자 → 크리에이터로 전달되면서 점점 희미해져서 결국 아무것도 안 바뀌는 상황과 똑같아.
    출처 ·EP.
  • Vector Database(Vector Database(벡터 데이터베이스))

    - 전문가 설명: 텍스트나 이미지를 숫자 벡터로 변환해서 저장하고, 의미 기반으로 검색할 수 있게 해주는 데이터베이스. - **한나 버전**: 내 3년치 콘텐츠를 AI가 다 읽어서 "이 분위기랑 비슷한 거 찾아줘"라고 하면 딱 찾아주는 기억 창고. AI한테 외부 장기기억을 달아주는 거야.
    출처 ·EP. 1
  • verifiable(verifiable(검증 가능))

    - 전문가 설명: AI의 답이 맞는지 틀린지를 사람 없이 알고리즘으로 확인할 수 있는 성질. - **한나 버전**: 댓글 감정 분석(긍정/부정) 결과는 검증 쉬워. 근데 "이 캡션이 감성 있냐?"는 검증하기 어렵잖아. 전자가 verifiable, 후자가 non-verifiable.
    출처 ·EP. 69
  • verifiable / non-verifiable

    - 전문가 설명: 맞고 틀림을 객관적으로 검증 가능한지 여부. 수학 문제는 verifiable, 예술적 취향은 non-verifiable. - **한나 버전**: "이 사진 밝기가 몇 룩스야?" → AI가 채점 가능(verifiable). "이 사진 분위기 예뻐?" → AI 혼자 채점 불가(non-verifiable). 네 콘텐츠 미학 판단이 딱 여기 해당돼.
    출처 ·EP. 45
  • Verifiable / Non-verifiable

    - 전문가 설명: Verifiable = 정답이 명확히 있어서 맞고 틀림을 기계가 판단할 수 있는 작업 (코딩, 수학). Non-verifiable = 정답이 없어서 사람이 주관적으로 판단해야 하는 작업. - **한나 버전**: 썸네일 CTR이 5% vs 3% — 이건 숫자로 검증 가능(Verifiable). 근데 "이 썸네일이 우리 브랜드 톤이랑 맞아?" — 이건 정답이 없잖아(Non-verifiable). 후자가 한나 네가 살아남는 구간이야.
    출처 ·EP. 54
  • verifiable reward

    - 전문가 설명: AI 학습에서 답이 맞는지 틀렸는지를 명확하게 확인할 수 있는 보상 신호. 코딩(코드가 실행되냐)·수학(답이 맞냐)이 대표적. - **한나 버전**: 인스타 좋아요 수처럼 즉시 피드백이 오는 지표야. AI가 "이 방향이 맞아"를 확인할 수 있어야 스스로 개선이 되거든. 이걸 과학 분야에서도 만드는 게 2026년의 핵심 과제야.
    출처 ·EP. 80
  • Verifiable Reward(Verifiable Reward(검증 가능한 보상))

    - 전문가 설명: AI 학습 시 정답/오답을 명확히 판별할 수 있는 영역. 수학 답, 코드 실행 결과 등. - **한나 버전**: "이 유튜브 영상이 좋아요 1만 개 넘으면 성공"처럼 수치로 딱 끊을 수 있는 기준. AI 입장에서 수학 문제는 맞고 틀림이 딱 나와서 연습하기 쉬운데, 글쓰기나 감성 콘텐츠는 기준이 모호해서 더 어려운 거야.
    출처 ·EP. 52EP. 60
  • Verifiable Reward / Non-verifiable

    - 전문가 설명: AI가 학습할 때 정답이 맞는지 틀린지 기계적으로 확인할 수 있냐(verifiable) 없냐(non-verifiable)의 차이. 확인 가능한 영역은 AI가 전기세만 쏟아부으면 인간을 뛰어넘을 수 있어. - **한나 버전**: 구독자 수나 조회수는 숫자로 딱 나오잖아 (verifiable). 근데 "이 영상이 감동적이냐"는 딱 측정이 안 되잖아 (non-verifiable). AI는 조회수 같은 숫자 게임에서 인간을 이미 뛰어넘었고, 감동적이냐 같은 판단은 아직 어려워.
    출처 ·EP. 55
  • verifiable vs non-verifiable

    - 전문가 설명: 답이 맞는지 틀린지 명확히 확인할 수 있는 영역(수학, 과학)과 그렇지 않은 영역(감성, 창의성, 관계)의 구분. - **한나 버전**: 유튜브 조회수는 숫자라서 AI가 최적화하기 쉬워(verifiable). 근데 "이 콘텐츠가 내 팬들 마음을 울리냐"는 AI가 확신하기 어려워(non-verifiable). AI가 못 먹는 영역이 네 승부처야.
    출처 ·EP. 53
  • Vertical(Vertical(버티컬))

    - 전문가 설명: 뷰티, 의료, 법률처럼 특정 산업 분야를 뜻함. "버티컬 서비스"는 그 분야 전문 서비스. - **한나 버전**: 뷰티 전문 인플루언서, 요리 전문 인플루언서처럼 분야 특화된 것. 노정석 회사는 뷰티 버티컬에서 AI 쓰고 있어.
    출처 ·EP. 4EP. 15
  • Vertical AI

    - 전문가 설명: 특정 산업·분야에 특화된 AI 서비스. 범용 모델이 아니라 한 도메인의 문제를 깊이 파고드는 것. - **한나 버전**: ChatGPT는 모든 걸 다 해주는 유니버설 크리에이터. Vertical AI는 "뷰티 브랜드 마케팅만 전문으로 해주는 AI 에이전트" 같은 것. 제너럴리스트 vs. 뷰티 특화 전문가의 차이야.
    출처 ·EP. 55EP. 74
  • vibe coding

    - 전문가 설명: 정확한 코드 문법 없이 자연어로 분위기 타면서 앱을 만드는 방식. 카르파티가 2025년 2월에 만든 말이야. - **한나 버전**: 대본 없이 즉흥으로 영상 찍는 느낌이야. "이런 앱 만들어줘"라고 말하면서 AI랑 티키타카하다 보면 어느 순간 작동하는 앱이 생기는 거거든. 데모 수준에서는 쩔어주는데 실제 배포하려면 또 다른 얘기야.
    출처 ·EP. 53EP. 57
  • Vibe coding

    - 전문가 설명: 코딩 지식 없이 AI한테 말로만 요청해서 앱이나 서비스를 만드는 것. - **한나 버전**: "인스타 팔로워 관리 앱 만들어줘"라고 말하면 AI가 알아서 만들어주는 거야. 코딩 한 줄도 몰라도 돼.
    출처 ·EP. 51EP. 59
  • Vision Transformer

    - 전문가 설명: 언어 모델에 쓰던 Transformer 구조를 이미지 인식에 적용한 것. 2020년 구글이 공개. - **한나 버전**: 글 읽는 AI한테 "사진도 읽어봐"라고 한 거야. 사진을 작은 조각으로 잘라서 글자처럼 순서대로 읽히는 방식. 근데 이게 작동하려면 어마어마한 데이터가 필요했고, 구글만 그게 됐어.
    출처 ·EP. 90
  • VLA(VLA(Vision-Language-Action Model))

    - 전문가 설명: 카메라 영상(Vision)과 텍스트 명령(Language)을 받아서 로봇 행동(Action)을 출력하는 AI 모델. - **한나 버전**: 유튜브 알고리즘이 "이 시청자가 뭘 보고 싶어 하는지(Vision)" + "검색어(Language)"를 합쳐서 "다음 영상 추천(Action)"을 내놓는 것처럼, 로봇판 추천 엔진이야. 다른 점은 추천 대신 실제로 팔을 움직인다는 것.
    출처 ·EP. 84
  • VM(VM(가상 머신, Virtual Machine))

    - 전문가 설명: 실제 서버 컴퓨터를 빌려서 쓰는 것처럼 작동하는 가상 환경. ChatGPT 코드 인터프리터가 이걸 써서 파이썬을 돌려줌. - **한나 버전**: 유튜브 스튜디오를 내 컴퓨터에 설치하는 게 아니라 클라우드에서 빌려 쓰는 것처럼, AI가 빌린 서버 컴퓨터 위에서 코드를 실행해주는 거야.
    출처 ·EP. 19
  • Voice Cloning(Voice Cloning(보이스 클로닝))

    - 전문가 설명: 특정 사람의 목소리를 AI로 복제해서 새로운 텍스트를 그 목소리로 읽게 만드는 기술. - **한나 버전**: 한나 목소리 샘플 몇 분 녹음해놓으면, 나중에 한나가 안 읽어도 AI가 한나 목소리로 뭐든 읽어주는 거야. 유명 크리에이터 목소리로 광고 나레이션 넣는 것도 이걸로 가능해.
    출처 ·EP. 4

W

  • wet lab

    - 전문가 설명: 실제 화학물질, 생체 시료를 다루는 물리적 실험실. 컴퓨터 시뮬레이션만 하는 dry lab과 반대. - **한나 버전**: 스튜디오에서 직접 촬영하는 것 vs 앱으로 편집만 하는 것의 차이야. AI가 시뮬레이션(편집)은 잘했는데 이제 실제 촬영(wet lab 실험)도 로봇으로 자동화하고 있다는 거지.
    출처 ·EP. 80

X

  • xAI / x 인수

    - 전문가 설명: 일론 머스크의 AI 회사 xAI가 자신이 소유한 소셜미디어 X(구 트위터)를 합병한 것. AI를 플랫폼과 결합하는 전략. - **한나 버전**: 일론 머스크가 유튜브(=X)랑 자기 AI 스튜디오(=xAI)를 하나로 합쳤다고 보면 돼. AI 기술을 가장 많은 사람이 쓰는 플랫폼에 직접 심겠다는 거지.
    출처 ·EP. 46

Y

  • YC(YC(Y Combinator))

    - 전문가 설명: 미국 실리콘밸리의 세계 최대 스타트업 액셀러레이터. Airbnb, Dropbox, Stripe 등을 배출. 3개월 프로그램으로 소액 투자와 네트워크를 제공. - **한나 버전**: 유튜브 크리에이터 아카데미 같은 건데, 워낙 유명해서 지금은 너무 많이 뽑아. 과거엔 여기 붙으면 대박이었는데, 지금은 "어, YC 출신이야? 근데 AI Grant는?" 이렇게 된 거야.
    출처 ·EP. 66

Z

  • Zero-day(Zero-day (제로데이))

    - 전문가 설명: 아직 아무도 발견하지 못한, 혹은 공개되지 않은 보안 취약점. 방어 준비가 0일(zero day)인 상태라 붙은 이름. - **한나 버전**: 아무도 모르는 인스타 알고리즘 허점이야. 그 허점을 먼저 찾은 사람이 바이럴을 독점하는 것처럼, 보안에서도 먼저 찾으면 공격(또는 방어)에 쓸 수 있어.
    출처 ·EP. 94