목차
- 호스팅만으로는 IPO가 안 되는 이유
- v0 — 프롬프트를 매출로 바꾸는 구조
- AI SDK — 진짜 수익 엔진은 따로 있다
- 토큰 경제학 — 과금 단위가 달라졌다
- IPO 시그널 — 숫자로 보는 준비 상태
- 개발자 입장에서 달라지는 것
- 어떤 팀이 이 변화를 신경 써야 하는가
import { generateText } from 'ai';
import { openai } from '@ai-sdk/openai';
const { text } = await generateText({
model: openai('gpt-4o'),
prompt: 'Vercel 배포 에러 원인을 분석해줘',
});
이 코드가 Vercel AI SDK의 전부다. ai라는 패키지 하나로 OpenAI, Anthropic, Google 모델을 동일한 인터페이스로 호출한다. 프론트엔드 시절 Vercel은 vercel deploy 한 줄이면 끝나는 배포 도구였다. 백엔드로 전환하고 2년 만에 다시 보니, 이 회사는 완전히 다른 곳이 되어 있었다.
Guillermo Rauch CEO가 2025년 하반기부터 IPO 가능성을 공개적으로 시사하기 시작했다. 2024년 5월 시리즈 E에서 32.5억 달러 기업가치를 인정받았고, 그 뒤로 AI 관련 제품 라인업이 급격히 늘었다. 단순히 "Next.js 만든 회사"로는 IPO 스토리가 약하다. AI 에이전트 인프라라는 새 포지셔닝이 핵심이다.
호스팅만으로는 IPO가 안 되는 이유
Vercel의 원래 수익 모델은 단순했다. Next.js 앱을 배포하면 트래픽과 빌드 횟수에 따라 과금하는 구조다. Pro 플랜 월 20달러, Enterprise는 협의. CDN, 서버리스 함수, Edge Runtime — 전형적인 PaaS 모델이었다.
문제는 이 시장의 천장이 보인다는 거다. Netlify, Cloudflare Pages, AWS Amplify가 거의 같은 기능을 제공한다. 가격 경쟁은 바닥을 향하고, 호스팅 자체로는 차별화가 어렵다. Cloudflare는 아예 무료 티어를 공격적으로 풀고 있다.
IPO를 하려면 투자자에게 "이 회사의 TAM(Total Addressable Market)은 계속 커진다"는 이야기를 해야 한다. 호스팅 시장의 성장률로는 그 이야기가 성립하지 않는다. Vercel이 AI 쪽으로 방향을 튼 건 기술적 호기심이 아니라 재무적 필요였다고 보는 게 맞다.
v0 — 프롬프트를 매출로 바꾸는 구조
프론트엔드 개발자의 새 워크플로우
v0.dev는 2023년 10월에 공개됐다. 프롬프트를 입력하면 React + Tailwind CSS 컴포넌트를 생성해주는 AI 도구다. 처음엔 "또 하나의 코드 생성기"라고 생각했는데, 써보니 접근 방식이 달랐다.
일반 코드 생성 도구는 코드를 뱉고 끝이다. v0는 생성된 컴포넌트를 바로 Vercel에 배포할 수 있게 연결했다. 코드 생성 → 미리보기 → 수정 → 배포가 하나의 루프 안에서 돌아간다. 이건 단순 AI 기능이 아니라 Vercel 생태계에 락인(lock-in)시키는 전략이다.
과금 모델의 변화
v0의 과금은 토큰 기반이다. 무료 티어에서 일정량의 생성을 허용하고, 그 이상은 구독으로 전환해야 한다. 2024년 기준 v0 Premium이 월 20달러였는데, 이게 Vercel Pro 플랜과 같은 가격이라는 점이 흥미롭다. 호스팅 20달러 + AI 20달러, 한 사용자에게서 월 40달러를 뽑아내는 구조가 된 셈이다.
사이드 프로젝트에서 v0로 대시보드 컴포넌트를 만들어봤는데, 프롬프트 3~4번이면 쓸만한 UI가 나왔다. 프론트엔드 시절이었으면 "이걸 왜 돈 주고 쓰지?"라고 했을 텐데, 백엔드 전환 후에는 UI 작업 시간을 줄여주는 게 체감이 됐다. 타겟 사용자를 잘 잡은 거다 — 프론트엔드 전문가가 아닌, 프론트엔드를 "해야 하는" 사람들.
AI SDK — 진짜 수익 엔진은 따로 있다
v0가 B2C 쪽 매출이라면, AI SDK는 B2B/개발자 생태계를 노린다. ai라는 npm 패키지 이름을 선점한 것부터 의도가 보인다.
LLM 추상화 레이어
import { streamText } from 'ai';
import { anthropic } from '@ai-sdk/anthropic';
// 모델만 바꾸면 나머지 코드는 동일
const result = streamText({
model: anthropic('claude-sonnet-4-20250514'),
messages: [
{ role: 'user', content: '배포 로그를 분석해줘' }
],
});
// 스트리밍 응답 처리
for await (const chunk of result.textStream) {
process.stdout.write(chunk);
}
OpenAI에서 Anthropic으로 모델을 바꿀 때 수정할 코드가 import 한 줄이다. 이 추상화가 왜 중요하냐면, AI 에이전트를 만드는 팀 입장에서 모델 교체 비용이 거의 0이 된다. ORM이 데이터베이스를 추상화한 것과 같은 패턴이다. 백엔드 전환하면서 Prisma 쓸 때 느꼈던 그 편리함이 LLM 영역에서도 통하는 구조다.
에이전트 프레임워크로의 확장
2025년부터 AI SDK에 에이전트 관련 기능이 본격적으로 추가됐다. tool 정의, 멀티스텝 실행, 구조화된 출력(Structured Output) 등이 들어갔다. LangChain이나 LlamaIndex 같은 전문 프레임워크가 이미 있는 시장에 뛰어든 건데, Vercel의 전략은 좀 다르다.
LangChain은 범용 프레임워크라서 뭘 만들든 가능하지만, 그만큼 학습 곡선이 있다. Vercel AI SDK는 "Next.js 앱에 AI 기능을 붙이는" 특정 유스케이스에 집중한다. useChat 훅 하나로 챗 UI가 완성되고, 서버 액션과 자연스럽게 연결된다. 풀스택 개발자가 AI 에이전트를 만들 때 가장 빠른 경로를 제공하는 게 목표다.
이 SDK 자체는 오픈소스라서 직접 매출이 발생하지 않는다. 수익은 간접적으로 들어온다 — AI SDK로 만든 앱은 자연스럽게 Vercel에 배포하게 되고, AI 기능이 붙으면 서버리스 함수 호출량이 폭증하면서 호스팅 요금이 올라간다. 무료로 SDK를 주고 인프라 비용으로 회수하는 구조다.
토큰 경제학 — 과금 단위가 달라졌다
전통적인 PaaS의 과금 단위는 요청 수, 대역폭, 빌드 시간이다. AI가 들어오면서 새로운 과금 축이 생겼다.
| 과금 요소 | 기존 모델 | AI 이후 모델 |
|---|---|---|
| 기본 단위 | HTTP 요청, 대역폭 | 토큰, 모델 호출 횟수 |
| 사용자당 단가 | 월 $20 고정 | $20 + 사용량 비례 |
| 마진 구조 | CDN 캐싱으로 원가 절감 | LLM API 콜 원가가 높음 |
| 확장성 | 트래픽에 비례 | 에이전트 복잡도에 비례 |
| 락인 효과 | 낮음 (마이그레이션 쉬움) | 높음 (SDK 종속성) |
여기서 핵심은 "에이전트 복잡도에 비례"하는 부분이다. 단순 챗봇은 한 번에 토큰 몇 백 개를 쓰지만, 멀티스텝 에이전트는 한 작업에 수천~수만 토큰을 소비한다. 에이전트가 복잡해질수록 Vercel의 서버리스 함수 실행 시간이 길어지고, 과금이 올라간다.
이건 Vercel 입장에서 꽤 좋은 구조다. 고객이 더 정교한 AI 기능을 만들수록 매출이 자연스럽게 올라간다. "고객의 성공 = 우리의 매출 증가"라는 SaaS의 이상적인 구조에 가깝다. IPO 투자자들이 좋아할 만한 이야기다.
IPO 시그널 — 숫자로 보는 준비 상태
밸류에이션 궤적
Vercel의 펀딩 히스토리를 보면 방향이 보인다. 2021년 시리즈 D에서 25억 달러, 2024년 시리즈 E에서 32.5억 달러. 밸류에이션 성장률이 둔화됐다는 건, 다음 라운드보다 IPO가 더 합리적인 선택이라는 뜻이기도 하다. 비공개 시장에서 추가로 높은 밸류에이션을 받기 어려우면, 공개 시장으로 가는 게 낫다.
Guillermo Rauch가 여러 인터뷰에서 "right time"을 언급한 배경에는 이런 계산이 있다. AI 에이전트 시장이 폭발적으로 성장하는 지금이 스토리텔링에 가장 유리한 시점이다.
경쟁사 대비 포지셔닝
IPO 시장에서 Vercel의 비교 대상은 Netlify나 Render가 아니다. AI 인프라 기업으로 포지셔닝하면 Datadog, Snowflake 같은 카테고리의 멀티플을 받을 수 있다. 호스팅 회사로 상장하면 DigitalOcean 수준의 멀티플에 머물 가능성이 높다. 2026년 4월 기준, AI 인프라 관련 기업들의 매출 멀티플이 전통 클라우드 대비 2~3배 높은 경향이 있다.
이게 Vercel이 AI 에이전트를 전면에 내세우는 진짜 이유다. 기술적 비전이라기보다 재무적 포지셔닝 전략에 가깝다.
개발자 입장에서 달라지는 것
이 변화가 Vercel 사용자인 개발자에게 의미하는 바가 있다.
첫째, AI SDK 종속성을 고려해야 한다. ai 패키지의 추상화는 편하지만, Vercel이 IPO 이후 가격 정책을 변경할 가능성이 있다. SDK 자체는 오픈소스라 포크할 수 있지만, Vercel 플랫폼과의 긴밀한 통합 — 예를 들어 Edge Runtime에서의 스트리밍 최적화 — 은 다른 플랫폼에서 재현하기 어렵다.
둘째, 비용 예측이 복잡해진다. 호스팅 비용은 트래픽 패턴으로 예측할 수 있었다. AI 에이전트가 붙으면 사용자 행동에 따라 토큰 소비량이 크게 달라진다. 한 달에 $50이던 비용이 에이전트 기능 하나 붙이고 $200으로 뛰는 건 흔한 일이다. 비용 모니터링 없이 에이전트를 붙이면 청구서 보고 놀라는 상황이 생긴다.
// Vercel에서 AI 사용량 추적하는 간단한 미들웨어
import { NextResponse } from 'next/server';
export function middleware(request: Request) {
// AI 엔드포인트 호출 시 사용량 로깅
if (request.url.includes('/api/ai/')) {
const startTime = Date.now();
// 응답 후 실행 시간 기록
const response = NextResponse.next();
response.headers.set(
'x-ai-duration',
String(Date.now() - startTime)
);
return response;
}
return NextResponse.next();
}
셋째, 이건 Vercel만의 현상이 아니다. Supabase도 AI 벡터 검색을 밀고 있고, Cloudflare는 Workers AI를 출시했다. 모든 클라우드 플랫폼이 AI 기능을 과금 축으로 추가하고 있다. 플랫폼 선택 시 AI 관련 과금 구조를 미리 비교해보는 게 좋다.
어떤 팀이 이 변화를 신경 써야 하는가
Vercel의 AI 전환이 모든 개발팀에 영향을 주는 건 아니다. 정적 사이트나 단순 SSR 앱만 배포하는 팀이라면 당분간 큰 변화가 없다.
신경 써야 하는 경우는 명확하다. AI 에이전트를 프로덕트에 내장하려는 팀, 특히 Next.js 기반으로 빌드하는 팀이라면 Vercel AI SDK가 가장 빠른 경로다. 에이전트의 복잡도가 낮고 Next.js를 이미 쓰고 있다면 Vercel 생태계 안에서 해결하는 게 합리적이다. 반대로 에이전트 로직이 복잡하고 모델 선택의 자유도가 중요하다면, LangChain + 별도 인프라 조합이 더 유연하다. Vercel에 올리되 AI SDK는 안 쓰는 것도 선택지다.
IPO 이후의 가격 변동 리스크가 걱정된다면, 핵심 AI 로직을 Vercel SDK에 강하게 결합시키지 않는 게 좋다. 추상화 레이어를 하나 더 두는 건 과한 것 같지만, 인프라 비용이 매출의 20% 이상을 차지하는 팀이라면 고려할 만하다. 현재 Vercel에서 AI 기능을 운영 중인 팀이라면 월별 토큰 사용량 추이부터 먼저 확인하는 게 첫 번째 액션이다.
관련 글
- AI 에이전트 프레임워크 비교 — LangGraph, AutoGen, CrewAI 실무 선택 기준 (2026) – AI 에이전트 프레임워크 비교가 필요한 시점이다. LangGraph, AutoGen, CrewAI의 설계 철학 차이를 분석하고, 러닝커브부…
- ChatGPT API 비용 72% 줄인 실전 최적화 — 토큰 절약과 캐싱 전략 – GPT-4o와 gpt-4o-mini의 토큰당 단가 차이는 16배다. 이 차이를 활용한 모델 라우팅, 프롬프트 압축, 시멘틱 캐싱 세 가지 …
- Python LLM API 비용 최적화 — 캐싱, 배치, 프롬프트 압축으로 청구서 반토막 낸 방법 – 월 $180이던 LLM API 비용을 $72까지 줄인 Python LLM API 비용 최적화 실전기. 시멘틱 캐싱, OpenAI Batch…