← 메인으로
EP. 64·25.08.06·⭐⭐⭐⭐·1시간 20분 32초

gpt-oss talk with Lablup 신정규 대표

OpenAI가 6년 만에 오픈소스 모델을 공개했고, 이건 단순한 '선물'이 아니라 "이 정도는 줘도 우린 더 센 거 있어"라는 자신감의 증거야.

▶ 유튜브에서 원본 보기← 앞: EP 63. GPT-5를 기다리며→ 다음: EP 65. 드디어 나온 GPT-5

EP 64. gpt-oss talk with Lablup 신정규 대표

🗺️ 이 영상의 위치

⚡ 5분 요약

한 줄

OpenAI가 6년 만에 오픈소스 모델을 공개했고, 이건 단순한 '선물'이 아니라 "이 정도는 줘도 우린 더 센 거 있어"라는 자신감의 증거야.

핵심 3개

1) GPT-OSS — OpenAI가 6년 만에 오픈소스로 돌아온 이유 DeepSeek이 '고성능 AI 레시피'를 먼저 공개하면서 OpenAI의 기술 신비감이 깎였어. 투자 유치도 삐걱거렸고, 내부 인력 이탈도 있었고. 결국 "우리도 이 정도는 공개할 수 있어"라고 선언한 거야. 공개한 게 모델만이 아니라 훈련 코드·레시피까지 통째로여서 진짜 선물 꾸러미에 가까워.

2) H100 2,000장, 44일 — "프런티어 AI가 그렇게 먼 세상 얘기가 아니다" 이번에 훈련 비용도 공개됐는데, GPU 2,000장으로 44일이면 120B짜리 대형 모델을 찍어낼 수 있어. 한국 정부가 지원하는 AI 개발 사업(GPU 1,000장 6개월)으로 이 모델을 두 번 훈련할 수 있는 수준이야. "우리도 해볼 수 있다"는 기준점이 생긴 거지.

3) 신정규 대표의 우울 극복기 — "어차피 올 거면 즐겨라" 4월에 "코딩의 의미가 사라지는 것 같다"는 깊은 우울을 겪었는데, Claude Code로 직접 왕창 써보면서 마음이 바뀌었어. 사내 해커톤 1시간 버전을 열었더니 비개발자가 2·3등을 했고, 지금은 모니터에 창 6개 띄워놓고 AI한테 일 시키면서 30년치 밀린 숙제를 풀고 있대.

가장 인상적인 한 마디

"어차피 올 거면 즐깁시다."

한나야, 이게 무슨 말이냐면 — AI가 내 일을 바꾸는 게 두렵고 우울하더라도, 피할 수 없으면 제일 먼저 뛰어들어서 내 편으로 만드는 게 답이라는 거야.

한나가 지금 당장 시도해볼 것

Claude나 ChatGPT 열어놓고 지금 '나중에 해야지' 하고 미뤄둔 콘텐츠 작업 하나를 던져봐. 대본이든, 썸네일 기획이든. 신정규 대표가 1,800페이지 문서를 이틀 만에 뽑아낸 것처럼, 평소에 "시간 없어서 못 했던 것"이 처음 할 것 목록이야.

📖 시간대별 영상 흐름 (15분 정도 걸려, 시간 있을 때만)

0~15분: 왜 OpenAI가 갑자기 오픈소스를 꺼냈나

노정석이 "오늘 새벽에 터졌어요, 정신없습니다"라고 웃으면서 시작해. 긴급 소집된 분위기가 느껴지는 거야. 신정규 대표가 차분하게 정리해주는데, 핵심은 두 가지야. 하나는 DeepSeek이 "AI 고성능 레시피"를 먼저 공개해버리면서 OpenAI가 갖고 있던 기술 신비감이 깎였다는 것. 두 번째는 내부 분위기가 흔들렸다는 것. "나는 모델을 공개하고 싶은데 경영진이 막는다"는 내부 반발이 인력 이탈로 이어졌을 거라는 추측이야.

거기다 DeepSeek 공개 이후 피해를 가장 크게 본 회사가 NVIDIA랑 OpenAI인데, NVIDIA는 아젠다를 영리하게 틀어서 "너도 이런 거 만들 수 있어, 우리한테 돈 내면"으로 갔고 결국 세계 1등 주식이 됐어. OpenAI는 그 타이밍에 오픈소스를 빨리 내놨으면 같은 효과를 봤을 텐데, 여러 사정으로 늦어진 거야.

신정규 대표가 흥미롭게 짚는 부분이 있어. "OpenAI가 Apache 라이선스(= 완전 자유 사용)로 내놨다는 건, 이 정도는 줘도 우리 기술에 타격이 없다는 자신감이다"라는 거야. 즉, 보여주지 않는 것들이 진짜 해자라는 뜻이지.


15~35분: 기술 뜯어보기 — MoE, FP4, 서빙의 혁명

신정규 대표가 오전 내내 직접 모델을 돌려봤대. 성능 자체는 "엄청 좋다"까진 아닌데, 눈길을 끄는 건 구조야.

이번 GPT-OSS는 MoE(전문가 혼합, 아래 사전 참고) 방식이고, 모델 두 개(120B·20B)를 동시에 공개했어. 크기 조절을 "전문가 수"로 한다는 게 신기한 점이야. 요즘 트렌드인 이 방식 덕분에 GPU 한 장에 전문가 하나씩 올릴 수 있고, 이게 서비스 비용을 확 줄여줘.

또 하나 기술 포인트는 FP4야. NVIDIA가 작년에 Blackwell 칩 발표할 때 "FP4 지원하는데 어디다 써요?" 소리를 들었거든. 근데 GPT-OSS가 FP4로 서빙되면서 칩 성능이 이론상 20배까지 올라가는 게 현실이 됐어. 노정석이 "NVIDIA가 계 탔네요"라고 요약했는데, 신정규 대표도 웃으면서 "정확한 표현"이라고 했어.

서빙 기술 변화도 인상적이야. 2년 전엔 GPU 한 장에 모델 하나 올리는 게 기본이었는데, 지금은 GPU 팜을 아예 둘로 쪼개서(입력 처리 전용 / 답변 생성 전용) 운영해. NVIDIA Dynamo가 그걸 제품화한 거야. 신정규 대표 한마디: "신경계를 밖으로 뜯어내고 있는 중입니다."


35~55분: Sovereign AI, 모델 대폭발, BEP의 의미

한국 정부가 추진 중인 'World Best LLM' 사업 얘기가 나와. GPU 1,000장을 6개월 지원해주는데, 이번에 공개된 수치로 계산하면 GPT-OSS급 모델을 두 번 훈련할 수 있어. "프런티어 AI가 화성에 있지 않다"는 느낌이 드는 거지.

그리고 최근 3주 동안 파운데이션 모델이 50개 공개됐다는 Reddit 글이 화제로 나와. 신정규 대표 코멘트가 뼈때려: "이게 지금까지 공개된 것 중 제일 많은데, 앞으로 보게 될 것 중엔 제일 적을 거야."

BEP(손익분기점) 얘기가 나오는데, 이게 이 에피소드의 경제 파트 핵심이야. 모델 회사들이 처음으로 "흑자 가능성"을 보기 시작했고, 그 1등 공신이 코딩이야. Anthropic API 매출이 3개월 만에 20~30배 뛰었거든. BEP가 보이기 시작하면 회사 모드가 완전히 바뀐다고 신정규 대표가 설명해. "살수록 적자"에서 "살수록 흑자"로 뒤집히는 순간이라고.


55분~1시간 10분: 다음 BEP는 멀티모달 — 영상·음성이 판을 키운다

노정석이 물어봐. "코딩 다음에 더 큰 시장은요?" 신정규 대표 대답이 단호해: "멀티모달이요." 텍스트보다 오디오가 크고, 오디오보다 영상이 수천 배 커. 토큰 소모량이 그냥 폭발하는 거야.

멀티모달의 첫 번째 적용처는 로봇이나 자율주행이 아니야. 데스크톱/모바일 자동화야. 화면을 AI가 인식하고 대신 클릭·입력해주는 거. Windows는 MCP 서버를 운영체제에 내장하겠다고 했고, Apple도 화면 인식 모델을 조용히 공개했어. 신정규 대표가 지금 보고 있는 지표: "ChatGPT나 Claude 데스크톱 앱이 업데이트될 때, 뒷창 읽기 권한을 언제 요청하냐." 그게 '준비됐다'는 신호래.


1시간 10분~끝: 신정규의 우울 극복기 — "피할 수 없으면 즐겨라"

이 구간이 이 영상에서 가장 사람 냄새가 나는 부분이야. 최승준이 조심스럽게 꺼내: "몇 달 전에 신정규 대표님 우울하셨잖아요?"

신정규 대표가 솔직하게 털어놓아. 코딩을 예술이라고 생각하며 30년을 살았는데, Claude Code로 6월에 프로젝트 돌려보다가 "코딩의 정의가 바뀌겠구나" 실감했대. 이세돌이 바둑을 예술로 여겼던 것처럼, 그 허무함이 왔던 거야.

그런데 전환점이 생겼어. 회사에서 1시간짜리 해커톤을 열었는데(설명 30분 + 코딩 1시간 + 시상 30분), 2·3등이 비개발자였어. 그걸 보면서 "어차피 올 거면 내가 제일 먼저 뛰어들자"로 바뀐 거야.

지금은 모니터에 Claude Code 창 6개 열어놓고, 5시간마다 토큰 리필되면 알람 맞춰놓고 일 시키다가 잠깐 자고, 또 일 시키는 루틴을 살고 있대. 1,800페이지 문서를 이틀에 뽑고, Claude가 만든 걸 Gemini가 검수하고 다시 Claude가 검수하게 핑퐁을 시킨대. "30년 밀린 숙제를 다 꺼내서 시키는 중"이라고.

마지막 한 마디가 이 에피소드의 결론이야: "어차피 올 거면 즐깁시다."


💡 한나 버전 사전

"오픈소스(Open Source)"가 뭐야?

  • 전문가 설명: 소프트웨어나 AI 모델의 소스코드·구조를 누구나 보고 쓸 수 있게 공개하는 것.
  • 한나 버전: 레시피 공개야. 대형 분식집이 "우리 떡볶이 양념 비율 공개합니다"라고 하는 거. 아무나 따라 만들 수 있지만, 원조는 여전히 원조야.

"MoE(Mixture of Experts, 전문가 혼합)"가 뭐야?

  • 전문가 설명: AI 모델 안에 작은 서브모델(expert)을 여러 개 두고, 입력에 따라 그중 일부만 활성화해서 효율을 높이는 구조.
  • 한나 버전: 크리에이터 에이전시 운영 방식이야. 영상 편집자·섬네일 디자이너·대본 작가·유통 담당자가 다 있는데, 매 콘텐츠마다 필요한 팀원만 불러서 쓰는 거. 전원 다 투입하는 게 아니라 상황에 맞는 팀만 쓰니까 효율이 올라가.

"파라미터(B, 빌리언)"가 뭐야?

  • 전문가 설명: AI 모델이 학습을 통해 갖게 되는 수치 값의 총 개수. 클수록 더 많은 것을 학습할 수 있지만 더 많은 자원이 필요.
  • 한나 버전: 팔로워 숫자 같은 거야. 120B라면 1,200억 개. 숫자가 클수록 영향력(= 표현력)이 크지만, 관리 비용(= 연산 비용)도 그만큼 커져.

"Sovereign AI(주권 AI)"가 뭐야?

  • 전문가 설명: 특정 국가나 기관이 외국 기업에 의존하지 않고 자체적으로 통제·운영할 수 있는 AI 시스템.
  • 한나 버전: 자체 제작 콘텐츠야. 유튜브 알고리즘 바뀌면 망하는 게 아니라, 자기 채널·자기 플랫폼·자기 팬 DB를 직접 갖고 있는 것. 미국 빅테크 서버에 다 올리는 게 아니라 우리나라 서버에서 우리가 직접 돌리는 AI.

"BEP(Break-Even Point, 손익분기점)"가 뭐야?

  • 전문가 설명: 매출이 비용을 넘어서는 순간. 이 지점부터 흑자가 시작됨.
  • 한나 버전: 유튜브 수익화 승인 같은 거야. 구독자 1,000명·시청 시간 4,000시간 넘으면 광고 수익이 들어오기 시작하잖아. 그 순간부터 "콘텐츠 더 만들수록 돈 더 번다"로 게임이 바뀌어. 모델 회사들이 지금 딱 그 지점을 넘고 있는 거야.

"FP4(4비트 부동소수점)"가 뭐야?

  • 전문가 설명: AI 연산에서 숫자를 4비트(0~15, 총 16단계)로만 표현하는 방식. 정밀도는 낮아지지만 속도와 메모리 효율이 극적으로 올라감.
  • 한나 버전: 사진 화질 압축이야. 원본 RAW 파일 대신 저해상도 JPEG로 저장하면 용량이 확 줄어들잖아. AI도 숫자를 "대충 16단계로만 보면" 메모리 훨씬 적게 쓰고 훨씬 빨리 돌아가. 문제는 화질(= 정확도)이 떨어지는데, 최근에 그래도 충분히 괜찮다는 게 증명된 거야.

"Apache 라이선스"가 뭐야?

  • 전문가 설명: 소프트웨어를 상업적으로도 자유롭게 쓸 수 있는 오픈소스 라이선스. 거의 제약이 없음.
  • 한나 버전: 저작권 표시만 해주면 상업적으로도 막 써도 되는 무료 BGM이야. 반면 Llama 라이선스는 "팔로워 7억 명 넘으면 유료 계약해야 해"라는 조건이 달린 거고.

"prefill / decode 분리"가 뭐야?

  • 전문가 설명: AI가 답변을 생성할 때 입력을 처리하는 단계(prefill)와 토큰을 하나씩 생성하는 단계(decode)를 별도의 GPU 팜으로 나눠 처리하는 서빙 최적화 방식.
  • 한나 버전: 영상 제작에서 촬영팀이랑 편집팀을 완전히 분리하는 것과 같아. 촬영은 촬영 전담, 편집은 편집 전담으로 나누니까 전체 파이프라인이 훨씬 빨라지는 거야.

"파인튜닝(Fine-tuning)"이 뭐야?

  • 전문가 설명: 이미 대규모 학습이 완료된 AI 모델에 특정 분야 데이터를 추가로 학습시켜 특화된 능력을 부여하는 것.
  • 한나 버전: 요리 유학 후 한식 전문점을 여는 거야. 요리 기본기(= 사전 훈련)는 다 배웠고, 거기에 한식 레시피(= 한국어 데이터)만 집중적으로 추가로 배우는 거.

"토크나이저(Tokenizer)"가 뭐야?

  • 전문가 설명: 텍스트를 AI가 처리할 수 있는 숫자 단위(토큰)로 쪼개는 도구. 한국어 지원 여부가 한국어 성능에 영향을 줌.
  • 한나 버전: 통역사 전처리야. AI한테 한국어를 이해시키려면 먼저 "가나다라"를 얼마나 세밀하게 쪼갤 수 있냐가 중요해. 최근 빅테크 모델들은 20만 단위 토크나이저를 쓰면서 한국어를 꽤 잘 잡아주게 됐어.

"지식 단절(Knowledge Cutoff)"이 뭐야?

  • 전문가 설명: AI 모델이 학습한 데이터의 마지막 날짜. 이 이후 정보는 모델이 모름.
  • 한나 버전: 잡지 발행일이야. 6개월 전 잡지를 보면 최근 뉴스는 없잖아. OpenAI는 거의 1년 전 정보까지만 아는데, 구글은 검색 엔진을 들고 있으니까 2달 전 정보까지 알아. 이게 실력 차이처럼 보이는 이유야.

🔥 노정석 어록 모음

"보여주지 않는 것들이 해자다. 이렇게 우리한테 공개해 주는 거는 다 주워 먹어라."

분위기: 신정규 대표가 "이 정도는 다 까도 된다는 확신이 있는 거"라고 했을 때 노정석이 방금 떠오른 것처럼 딱 정리해주는 톤.

한나 풀이: OpenAI가 무료로 공개해주는 건, 그들 입장에서 "줘도 우린 안 위협받는 기술"이야. 진짜 비밀 소스는 절대 안 나와. 한나 버전으로 말하면, 인플루언서가 팔로워한테 공유하는 팁들은 이미 본인이 다음 단계로 넘어간 것들이야.


"석 달 전에 알았던 게 쓸모없어지는 그런 시대를 살고 있는 것 같아요. 지식 변화의 어떤 변화 폭이 정말 상상을 초월합니다."

분위기: 신정규 대표와 기술 얘기를 한참 나누다가 노정석이 조용히, 진지하게 뱉은 한마디.

한나 풀이: 6개월 전에 배운 AI 툴 사용법이 이미 구식이 됐다는 거야. 한나한테도 직접 와 닿는 말이지. 지금 쓰는 편집 방식, 알고리즘 전략, 협업 방식이 내년엔 다 바뀔 수 있어. 지식을 쌓는 것보다 "빠르게 적응하는 근육"을 키우는 게 더 중요한 시대야.


"여러분들이 사용하는 토큰 양이 지금 이 시대에 얼마나 잘 적응하고 있는지를 나타내는 지표라고 생각해도 무방하다."

분위기: 영상 마무리에서 노정석이 청취자한테 직접 말 걸듯이 천천히 꺼내는 결론.

한나 풀이: 하루에 AI를 얼마나 쓰냐가 곧 내가 이 시대에 얼마나 올라타고 있냐는 거야. 유튜브 조회수처럼, 토큰 소모량이 나의 AI 적응 지표인 셈이야.


🎬 한나 적용 포인트

📌 "오픈소스 AI = 공짜 레시피"를 콘텐츠로 만들어봐 GPT-OSS 같은 오픈소스 모델이 쏟아지는 흐름 자체가 콘텐츠야. "AI 진짜 무료로 쓸 수 있는 툴 총정리"나 "OpenAI가 공짜로 풀어버린 것들" 같은 기획은 지금 이 시점에 검색 유입이 폭발할 수 있어. 한나가 직접 써보고 반응을 담으면 신뢰도도 올라가거든.

📌 내 콘텐츠 제작 파이프라인에 "Claude 검수 → Gemini 검수" 넣어봐 신정규 대표가 Claude가 만든 문서를 Gemini가 검수하고, 다시 Claude가 검수하는 핑퐁 방식을 쓰잖아. 한나도 대본 초안을 Claude로 뽑고, Gemini한테 "어색한 표현 잡아줘"라고 시키면 퀄리티 필터가 2중으로 생기는 거야. 영상 한 편 제작 시간이 확 줄어들어.

📌 브랜드 협업 제안서 같은 '밀린 숙제'를 지금 AI한테 시켜봐 신정규 대표가 30년치 밀린 숙제를 꺼냈듯이, 한나도 "언젠가 만들어야지" 했던 미디어 킷, 요율표, 협업 포트폴리오 같은 걸 지금 당장 AI한테 초안 시키는 게 맞아. 완성도보다 "일단 초안 있는 상태"가 협업 성사율을 올리거든. 5분 투자로 초안을 뽑아두면 기회가 왔을 때 바로 쏠 수 있어.

🏷️ 태그