본문 바로가기

AI

AI의 숨은 핵심 무기, TPU! — GPU랑 뭐가 다르고, 누가 쓰는 걸까?

요즘 다들 "AI = GPU"라고만 생각하는데, 사실 AI에 최적화된 전용 칩이 하나 더 있어.
그게 바로 TPU(Tensor Processing Unit)야.

이건 구글이 직접 만든 AI 전용 칩인데, 이름부터가 '텐서(행렬)'를 위한 유닛이라는 뜻.
AI, 특히 딥러닝에서 연산하는 데이터는 거의 다 텐서 형태로 처리돼.
그러니까 TPU는 처음부터 "AI만 잘하자!"라고 마음먹고 태어난 놈이라고 보면 돼.

 

비유하자면, GPU는 다목적 요리 칼이고, TPU는 오로지 회만 뜨는 전용 사시미 칼 같은 느낌!

 

TPU가 왜 필요할까?

최근 AI 모델은 GPT-4 같은 초거대 모델부터 이미지·음성 생성까지, 점점 더 커지고 복잡해지고 있어.
예를 들어 GPT-4는 1조 개 이상의 파라미터(AI 모델의 세포 같은 단위)를 갖고 있는데, 이걸 학습시키려면 엄청난 계산력이 필요해.

GPU도 빠르지만, GPU는 범용 칩이라서 전력 소모가 크고, 메모리 접근에서 병목 현상이 생길 수 있어.
여기서 TPU가 등장!

 

TPU의 비밀 무기

AI 특화 설계

TPU는 처음부터 행렬 곱셈 같은 AI 연산에만 집중하도록 설계했어.
여기에 시스톨릭 어레이(Systolic Array)라는 구조를 써서, 하나의 데이터를 여러 번 재활용하면서 동시에 계산을 수행해.

예를 들어, GPT 모델이 문장을 예측할 때 수백억 개의 숫자(행렬)를 한꺼번에 곱하고 더해야 되는데, 이걸 TPU가 빠르게 뽑아주는 거야.

무슨말이야? ㅋㅋㅋ

더 쉽게 이야기하자면..ㅋ

예를 들어, "나는 오늘 점심에 김치찌개를 먹었다"라는 문장을 GPT 같은 AI 모델에게 예측하게 시킨다고 생각해봐.

이 AI는 단순히 단어를 하나씩 이어붙이는 게 아니고,
단어와 문장 구조를 수백억 개의 숫자(행렬)로 바꿔서,
"다음에 어떤 단어가 올지"를 계산해야 돼.

이때, AI는

  • "나는" 다음에 "오늘"이 올 확률은 몇 %?
  • "나는" 다음에 "점심"이 올 확률은 몇 %?
    이렇게 수많은 경우의 수를 동시에 계산해.

그런데 이런 계산을 하려면 엄청난 행렬 곱셈이 필요해.
GPU도 빠르긴 하지만, TPU는 이런 행렬 곱셈에 특화되어 있어서
마치 고속도로에서 스포츠카가 달리는 것처럼 엄청 빠르게 계산을 끝낼 수 있어!

AI가 문장을 예측할 때는 "수백억 개의 수학 문제를 한꺼번에 푸는 것"인데, TPU는 이걸 가장 빨리, 가장 효율적으로 푸는 전용 계산기라고 보면 돼.

무한 확장성

TPU는 팟(Pod)이라는 단위로 묶을 수 있어.
예를 들어, 구글의 TPU v4는 최대 4,096개 칩을 하나로 묶어서 한 모델을 동시에 훈련시킬 수 있어.

 

일반인이 GPU 한두 개 달린 PC로 코딩하는 거랑, 구글이 TPU 팟을 돌리는 거는 마치 동네 헬스장에서 아령 드는 거랑,

UFC 선수들이 철창 안에서 싸우는 거만큼 차이 나.

전력 효율 & 성능

구글 최신 TPU인 트릴리움(Trillium)은

  • 속도가 4.7배 빨라졌고
  • 전력 효율은 67%나 개선됐어.

AI는 단순히 빠른 게 중요한 게 아니라 전기세도 큰 문제거든.
이걸 TPU가 해결해주는 거지.

 

CPU, GPU, TPU 간 차이 — 한눈에!

종류 특징 예시
CPU 범용 작업 가능, 복잡한 로직에 강함 문서 작성, 게임, 엑셀 돌리기
GPU 병렬 연산에 강함, AI·그래픽 작업용 동영상 편집, 게임 그래픽, AI 모델 학습
TPU AI 전용, 텐서 연산 최적화 초거대 언어모델(GPT), 이미지 생성 AI, 번역 AI

속도(처리 성능)

  • GPU: 원래는 그래픽(3D 렌더링 등)을 빠르게 처리하기 위해 만들어졌지만, 병렬 계산이 강해서 AI에 많이 쓰여.
    → AI 연산도 빠르긴 한데, 범용적으로 설계돼 있어서 모든 연산을 다 잘하려고 함.
  • TPU: 아예 AI 전용으로 설계됐기 때문에, 특히 행렬 곱셈 같은 AI 핵심 작업에선 GPU보다 빠름.
    → 예를 들어, 구글 TPU v4는 같은 조건에서 GPU보다 최대 2~3배 더 빠르게 처리할 수 있어.

GPU는 만능 운동선수, TPU는 단거리 육상 전문 스프린터. 단거리(행렬 연산)만 놓고 보면 TPU가 훨씬 빠르지!

전력 효율(와트당 성능)

  • GPU: 강력한 성능이 있지만, 그만큼 전력 소모도 크다는 게 단점.
    → 특히 여러 GPU를 동시에 돌리면 전기세 폭탄 맞을 각… ⚡️
  • TPU: 같은 연산을 처리할 때 전력당 성능(와트당 연산량)이 더 높음.
    → 구글 발표 자료에 따르면, 최신 TPU(트릴리움 기준)는 GPU 대비 전력 효율이 최대 67% 개선.

같은 일을 할 때, GPU가 전기차로 100km 가는데 20kWh를 쓰면, TPU는 12~13kWh 정도만 쓴다는 느낌!

왜 TPU가 무조건 좋은 건 아닐까?

  • TPU는 AI 전용이라 범용성은 떨어져.
    → 영상 렌더링, 게임 그래픽, 기타 다양한 연산에는 GPU가 더 유연해.
  • TPU는 구글 클라우드 기반이 많아, 자유롭게 쓰려면 클라우드 요금 구조도 고려해야 함.

[이미지출처: ChatGPT 이미지 생성]

실제 기업들, 어떻게 쓰고 있을까?

구글

구글은 TPU의 원조답게 Gemini, PaLM 같은 초대형 AI 모델을 TPU로 학습시켜.
또한, 번역 서비스, 검색 결과 개선, 구글 포토(사진 분류, 인물 태그 등)에서도 TPU가 빛을 발하고 있어.

OpenAI (GPT 만든 회사)

OpenAI는 주로 NVIDIA의 GPU를 많이 써왔어.
하지만 최근 들어 TPU를 포함한 다양한 AI 칩셋으로 확장하려는 움직임이 있어.
왜냐면 GPU만 쓰면 비용도 많이 들고, 전력도 많이 먹고, 공급도 불안정하니까.
특히 구글 클라우드 TPU를 대안으로 고려하는 사례들이 점점 늘어나고 있어.

 

앞으로 OpenAI도 TPU 기반 인프라를 일부 가져가면서 멀티 칩 전략을 쓸 가능성이 높아 보여.

AI 칩셋 시장에서 구글, 엔비디아, AMD가 진짜 전쟁 중임!

카카오

카카오는 자체 GPT 같은 모델인 '카나나' 개발할 때 GPU가 부족해서 구글 클라우드 TPU를 활용했어.
덕분에 대규모 모델 학습을 더 빨리, 더 싸게 끝낼 수 있었지.

 

앞으로의 전망

AI 모델은 점점 더 커지고, 그만큼 연산도 늘어남.
그러면 GPU만으로는 한계가 분명히 오고, TPU 같은 AI 특화 칩이 점점 더 중요해질 거야.

또한, TPU는 전력 효율을 잡으면서도 대규모 확장성을 동시에 만족시키니까,
초거대 AI 모델을 연구하거나 서비스하는 회사들에겐 거의 필수 옵션이 될 거야.

 

"TPU는 AI만을 위해 태어난 근육질 전용 선수 같은 존재.

앞으로 AI 경기장에서는 이 선수 없으면 안 될 날이 온다!"