구글이 제미나이 3 플래시를 기본 모델로 바꿨다는 소식, 이거 그냥 “새 모델 나왔어요” 수준의 업데이트는 아니야. 이건 거의 소비자용 + 개발자용 AI를 전면 재배치하겠다는 선언에 가깝다고 봐야 해.

제미나이 3 플래시, 정확히 뭐가 달라졌나
제미나이 3 플래시는 포지션이 되게 명확해. 한마디로 말하면 빠르고, 많이 돌리고, 싸게 쓰는 워크호스 모델이야. 전작인 2.5 플래시보다 성능이 꽤 많이 뛰었고, 일부 벤치마크에선 제미나이 3 프로나 GPT-5.2급 모델이랑 비슷한 수준까지 올라왔다는 평가도 나와. 특히 상징적인 게 MMMU-Pro 점수야. 멀티모달 + 추론 능력을 보는 벤치마크인데, 여기서 81.2%를 찍으면서 경쟁 모델들을 제치고 1등을 했어.
이 정도면 “싸구려 모델” 이미지랑은 완전히 다른 급이지.
싸고 빠른데, 가격은 왜 올랐을까?
재밌는 포인트가 여기야. 3 플래시는 분명 “빠르고 싸게 쓰는 모델”인데, 가격만 놓고 보면 2.5 플래시보다 살짝 올랐어.
- 입력: 100만 토큰당 0.5달러
- 출력: 100만 토큰당 3달러
이전보다 비싸진 건 맞아. 근데 구글 논리는 이거야.
- 처리 속도는 약 3배 빨라졌고
- 추론이 필요한 작업에서는 토큰을 평균 30% 덜 쓴다
그러니까 “토큰 단가”는 올라갔지만 실제 작업 단가(total cost)는 내려갈 수 있다는 계산이지. 이건 딱 엔터프라이즈랑 개발자들이 좋아할 논리야.
앱 기본값이 됐다는 게 왜 중요하냐면
이번 변화의 핵심은 여기야. 구글은 전 세계 제미나이 앱의 기본 모델을 2.5 플래시에서 3 플래시로 통째로 바꾸고 있어. 수학이나 코딩 같은 고난도 작업은 사용자가 직접 프로 모델로 바꿔 쓰면 되지만, 기본 사용자 경험 자체는 이제 3 플래시가 책임진다는 구조야. 검색의 AI 모드에도 3 플래시를 올렸다는 건, 사실상 “이 모델이 구글 AI의 얼굴”이라는 선언이기도 하고.
일반 사용자 입장에서 체감되는 변화
이게 왜 중요하냐면, 이제 제미나이 앱이 진짜 멀티모달 어시스턴트처럼 움직이기 시작하거든.
예를 들면
- 짧은 영상을 올리고 “내 스윙 뭐가 문제야?”라고 묻거나
- 대충 그린 스케치를 보여주고 “이거 내가 뭘 그리려던 걸까?”라고 물어보거나
- 녹음 파일을 던져놓고 요약, 분석, 퀴즈 생성을 맡기는 식
텍스트만 치는 챗봇이 아니라, 보고, 듣고, 이해하는 쪽으로 기본 경험이 이동하는 거야.
개발자·엔터프라이즈 관점에서 보면 더 분명하다
개발자 쪽에서 보면, 3 플래시는 “옵션 하나”가 아니라 기본 칩셋 같은 느낌이야. 이미 JetBrains, Figma, Cursor 같은 툴들이 Vertex AI나 Gemini Enterprise를 통해 이 모델을 쓰고 있고, API랑 구글의 새 코딩 툴에도 프리뷰로 열려 있어.
- 프로 모델: 정밀하고 무거운 작업용
- 플래시 모델: 대량 처리, 반복 작업용
비디오 분석, 데이터 추출, 비주얼 Q&A처럼 양 많고 자주 돌리는 작업은 전부 플래시로 깔아두고, 진짜 중요한 판단만 프로로 올리는 구조지. 이건 기술 선택이 아니라 아키텍처 설계 문제야.
오픈AI랑 붙는 구도에서 이게 갖는 의미
지금 타이밍도 되게 미묘해. 구글은 “하루 1조 토큰 이상 처리 중”이라고 강조하고 있고, 그 사이 OpenAI 쪽에서는 내부적으로 위기감이 감지된다는 얘기가 나왔어. 그래서 GPT-5.2랑 새 이미지 모델을 빠르게 던진 거고. 근데 재미있는 건, 이 싸움이 더 이상 “누가 제일 똑똑하냐” 경쟁이 아니라는 거야. 진짜 싸움은 누가 더 많은 일을 조용히, 기본값으로 처리하느냐 쪽으로 가고 있어.
화려한 SOTA 모델보다, 이런 플래시급 워크호스 모델이 실제 매출이랑 락인을 만들어낼 가능성이 훨씬 크거든.
서비스기획 시 보이는 시그널
이 변화는 우리 같은 기획자한테도 꽤 명확한 메시지를 던져줘.
첫째, 멀티모달은 이제 “있으면 좋은 기능”이 아니라 없는 게 이상한 기본 조건이 되어가고 있어.
둘째, 모델 티어 설계가 기획안의 일부가 될 가능성이 커보여. 플래시로 대량 처리하고, 프로로 정밀 처리하는 구조를 처음부터 아키텍처로 짜야 한다는 얘기야.
그리고 마지막으로, 기본 모델이 바뀐다는 건 사용자 행동도 바뀐다는 뜻이야. 이제는 “어떤 글을 쓸까?”가 아니라
“어떤 입력(영상·오디오·이미지)을 던져서 어떤 형태의 콘텐츠로 변환할까?”를 설계하는 구간으로 들어온 느낌이야.
솔직히 말하면, 지금 이 변화 구간이 제일 재밌다. AI를 쓰는 단계에서, AI로 설계하는 단계로 넘어가고 있으니까.
'AI' 카테고리의 다른 글
| 엔비디아가 Groq까지 품으려는 이유 (0) | 2025.12.27 |
|---|---|
| 좀 이상한 실험인데… AI가 내 장바구니 가격을 몰래 바꾸고 있었다 (0) | 2025.12.26 |
| 음성 AI가 소개팅까지 대신 깔아주는 시대, 진짜 왔다 (0) | 2025.12.24 |
| 프롬프트 엔지니어링? 이제 그만 (0) | 2025.12.22 |
| 아마존 링의 얼굴인식, ‘편리함 vs 디스토피아’ 사이에 선 문 앞의 AI (0) | 2025.12.13 |