본문 바로가기

Study

LLM 구조 + GPU + 엔비디아 투자까지 한눈에 이해하기

요즘 LLM(대형 언어모델) 얘기 많이 듣지?

그냥 "AI가 글 쓰는 프로그램"이라고 생각하면 오산이야. 내부 구조를 보면 훨씬 흥미롭고 복잡함.

이번 글에서는 내가 이해한 걸 기준으로 모델 파라미터, 학습, Python 래퍼, GPU, 그리고 엔비디아 투자 이야기까지 자연스럽게 풀어서 설명할게. 다만, 나도 공부하는 입장에서 쓴 글이니 참조형태로 가볍게 읽었으면 해.

 

LLM 구조: 모델 파라미터와 실행 엔진

모델 파라미터 파일

LLM이 학습해서 얻은 지식과 패턴의 집합이야.

예를 들어 70B 모델이면 700억 개 숫자가 들어 있음.

숫자 하나하나는 단순히 데이터 덩어리가 아니라,

입력을 출력으로 변환할 때 신호를 얼마나 강하게 전달할지 결정하는 가중치(weight)라고 보면 돼.

두뇌 속 시냅스 같은 느낌이지. 혼자서는 아무 것도 못 하고, 그냥 데이터 덩어리일 뿐임.

실행 엔진

모델 파라미터를 읽고 실제 입력에 대해 추론(inference) 수행.

보통 C++/CUDA로 만들어지고, Python 래퍼를 통해 쉽게 제어 가능.

CLI는 수백 줄 정도로 충분하고, GUI나 서버 붙이면 수천 줄 이상임.

 

학습(Training)에서 GPU와 파라미터

  • 파라미터 = 모델 속 “조절할 수 있는 숫자”
    → 학습하면서 조금씩 바뀌면서 모델이 똑똑해짐
  • GPU 역할 = 이 숫자를 계속 바꾸고 계산하는 일을 빠르게 해주는 슈퍼 컴퓨터
  • 비유: 파라미터 = 요리 레시피, GPU = 초고속 믹서기
    → 레시피를 바꾸면서 재료를 동시에 빠르게 섞어야 맛있는 요리 완성 가능

즉, 학습에서는 GPU가 파라미터를 바꾸면서 모델을 똑똑하게 만드는 계산 담당이라고 생각하면 돼.

 

추론(Inference)에서 GPU와 파라미터

  • 파라미터 = 이미 학습된 레시피, 값은 고정
  • GPU 역할 = 입력(재료)을 빠르게 넣어서 결과(요리) 만들어 내는 역할
  • 비유: 이미 완성된 레시피로 요리를 만들 때, GPU = 여러 재료를 한 번에 다룰 수 있는 초고속 조리기

즉, 추론에서는 GPU가 학습이 끝난 파라미터를 활용해서 답을 빠르게 계산하게 도와주는 역할.

  • 학습 = 파라미터를 바꾸는 과정, GPU는 계산 담당
  • 추론 = 파라미터를 그대로 쓰는 과정, GPU는 빠른 출력 담당
구분 파라미터 역할 GPU 역할
학습 오차를 줄이도록 값을 계속 조정 수십억 행렬곱 연산을 병렬 처리하여 학습 속도 확보
추론 이미 학습된 값으로 입력 → 출력 계산 병렬로 빠르게 출력 생성, 실시간 응답 가능

 

Python 래퍼(Python Wrapper)란?

C++/CUDA 엔진을 Python에서 쉽게 사용할 수 있게 만든 인터페이스야.

비유하면 C++ 엔진 = 자동차 엔진, Python 래퍼 = 핸들과 페달. Python 코드에서 그냥 "가속" 버튼 누르면 엔진이 GPU 활용해서 연산 수행.

[입력 텍스트] ---> [Python 코드]
                      │
                      ▼
                 [Python 래퍼]
                      │
                      ▼
            [C++/CUDA 실행 엔진] ---> [모델 파라미터 파일 (70B 등)]
                      │
                      ▼
                [출력 텍스트]

 

래퍼는 GPU 메모리 관리, 배치 처리, 데이터 전송까지 일부 수행해서 연산 효율을 높임.

 

GPU가 중요한 이유

핵심 연산 = 행렬곱(Matrix Multiplication).

70B 모델이면 CPU만으로 처리하면 거의 불가능 수준. GPU는 병렬 처리 장치라 수많은 연산을 동시에 빠르게 처리 가능.

학습 중에도 파라미터 파일 압축, 연산 최적화 등 많은 작업을 GPU로 수행해야 함.

솔직히 GPU 없으면 로컬에서 70B 모델 돌리는 건 답답해서 못 기다림 ㅋㅋ 최소한 RTX 40 시리즈 정도는 있어야 쾌적하게 돌릴 수 있어.

 

왜 엔비디아가 훌륭한 주식이었나?

LLM 시대가 오면서 GPU 수요 폭발. 특히 엔비디아는 AI 학습과 추론용 GPU 시장의 절대 강자.

모델 파라미터가 커질수록 학습 클러스터에 필요한 GPU도 늘어남. 자연스럽게 엔비디아 실적 + 주가 상승과 연결됨.

 

LLM 자체보다, GPU 기반 인프라 수요 증가 때문에 엔비디아가 주식 시장에서 훌륭한 선택이 됨.

AI 붐 = 모델 + GPU + 인프라, 여기서 GPU가 핵심임. 게다가 HPC, 데이터센터, 클라우드 AI 서비스에서도 엔비디아 GPU가 중심이라 실제 가치가 뒷받침됨.

 

결론적으로, LLM을 제대로 이해하려면 모델 크기, 학습 과정, 실행 구조, GPU 활용까지 전체를 봐야 함.

내 경험상 이 구조를 이해하고 나니까, “왜 AI 시대에 GPU가 핵심이고, 엔비디아가 주식 시장에서 주목받는지” 한눈에 보이더라.