본문 바로가기

AI

엔비디아 독주에 균열? 조용히 등장한 MatX

AI 칩 시장은 그동안 사실상 NVIDIA가 기준점이었어. 모델이 아무리 좋아도 결국 GPU 위에서 돌아가니까, 인프라 권력도 자연스럽게 거기로 모였지. 그런데 여기에 정면으로 “다르게 해보자”고 나온 팀이 있어. 이름은 MatX.
이 회사는 GPU를 조금 더 잘 만드는 게 아니라, LLM을 돌리는 방식 자체를 다시 설계하겠다는 쪽에 가까워.

 

[Source: https://matx.com/ 캡쳐]

 

TPU 만들던 사람들이 왜 밖으로 나왔을까

창업 멤버들은 원래 Google에서 TPU를 만들던 핵심 인력들이야.
칩만 설계하던 사람들이 아니라, 모델 → 컴파일러 → 클러스터 운영까지 전부 경험해본 팀.

그래서 접근 방식이 좀 달라.

  • 일반 반도체 회사: 성능을 올린다
  • MatX: LLM을 가장 싸게 돌리는 구조를 만든다

목표도 단순해. GPU 대비 10배 효율적인 LLM 전용 프로세서. 성능 경쟁이라기보다 연산 비용 경쟁을 선언한 셈이지.

 

투자자 구성이 말해주는 진짜 메시지

이번에 5억 달러를 추가로 유치했는데, 여기서 분위기가 확 달라져. 리드 투자자가 벤처캐피탈이 아니라 Jane Street 같은 트레이딩 하우스거든. 이게 의미하는 건 간단해. AI는 이제 기술 산업이면서 동시에 인프라 비용 산업이 됐다는 신호.

모델 성능보다 “얼마에 계산하느냐”가 시장 전체 수익 구조를 바꿀 수 있다는 판단이지.

 

[Souce: ChatGPT 생성]

 

진짜 승부는 지금이 아니라 2027년 이후

칩은 TSMC에서 생산 예정이고, 목표 출하 시점은 2027년이야. 그래서 지금 당장 시장 점유율이 흔들리는 상황은 아니야. 

지금은 준비 단계이고 2027년 이후가 인프라 구조 재편 경쟁이 되지 않을까?

비슷한 방향을 노리는 스타트업 Etched도 있어서, GPU 이후 시대를 누가 선점하느냐 싸움이 서서히 만들어지고 있어.

 

왜 “효율 10배”가 무서운 숫자인가

이 숫자는 단순히 빠르다는 의미가 아니야. 서비스 구조를 바꿀 수 있는 숫자야.

연산 비용이 크게 내려가면

  • AI 기능 무료화
  • 실시간 처리 확대
  • 더 큰 모델 상시 사용
  • AI 기본 기능화

결국 경쟁 기준이 이렇게 바뀔 가능성이 커. 좋은 모델 → 싸게 돌리는 능력

 

서비스 기획 관점에서 보면 더 중요한 이야기

이 흐름이 현실이 되면 선택지가 생겨. GPU만 쓰던 시대 → LLM 특화 칩 선택 시대

그럼 자연스럽게 생기는 질문들은 어떤 인프라를 표준으로 잡을지?  벤더 락인을 어디까지 감수할지? 연산 비용 하락을 가격 정책에 반영할지?  기술 뉴스처럼 보이지만 사실은 비즈니스 모델 뉴스에 더 가까워.

 

한 문장으로 정리해보면

MatX는 엔비디아를 당장 위협하는 회사라기보다,
AI 경쟁의 기준을 “성능”에서 “연산 단가”로 옮기려는 시도야.

지금은 조용한 스타트업인데, 2027년 이후 인프라 판을 흔들 변수 후보인 건 맞아.