글로만 배우는 LLM, 이제는 그만
LLM(Large Language Model, 대규모 언어 모델)이 뭔지 한 번쯤 공부해보려고 한 분들 많으시죠. 그런데 막상 자료를 찾으면 두 가지 극단이 있어요. 하나는 "ChatGPT는 마법 같은 AI입니다" 수준의 너무 얕은 설명이고, 다른 하나는 수식과 논문 링크가 가득한 딥러닝 석사 과정 자료예요. 그 중간 지점, 개발자라면 납득할 만큼 구체적이지만 수식에 빠지지는 않는 설명을 찾기가 의외로 어려웠어요.
그래서 많은 분들이 Andrej Karpathy의 유튜브 강의를 보셨을 거예요. OpenAI 창립 멤버이자 테슬라 AI 총괄을 지낸 그 분이죠. 특히 "Intro to Large Language Models"와 "Let's build GPT from scratch" 같은 영상은 현재 LLM을 이해하는 데 사실상 표준 교재 역할을 하고 있어요. 다만 영상은 영상대로 장점이 있지만, 원할 때 원하는 지점을 손으로 만져보며 이해하기는 어렵죠.
이번에 공개된 "How LLMs Work" 인터랙티브 가이드는 바로 그 지점을 파고들어요. Karpathy의 강의를 기반으로, 글과 다이어그램과 직접 조작해볼 수 있는 위젯을 섞어서 웹 페이지로 재구성한 프로젝트예요.
사이트가 다루는 내용
가이드는 LLM의 전체 생명주기를 따라가요. 프리트레이닝(pretraining) 단계에서는 인터넷에서 긁어모은 텍스트 수조 개 토큰으로 모델을 처음부터 학습시키는 과정을 보여줘요. 토큰이 뭐냐면, 모델이 텍스트를 쪼개서 이해하는 단위예요. "사과"라는 단어가 하나의 토큰일 수도 있고, "사"와 "과"로 나뉠 수도 있어요. BPE(Byte Pair Encoding)라는 알고리즘이 이걸 결정하는데, 사이트에서는 직접 텍스트를 넣어보며 토큰으로 쪼개지는 걸 볼 수 있어요.
그다음은 Transformer 아키텍처예요. 이게 현대 LLM의 심장인데, 핵심 개념이 셀프 어텐션(self-attention)이에요. 어텐션을 쉽게 비유하면, 한 문장 안에서 어떤 단어가 다른 어떤 단어에게 주목해야 하는지를 계산하는 메커니즘이에요. "나는 사과를 먹었다. 그것은 달콤했다"에서 "그것"이 "사과"를 가리킨다는 걸 모델이 스스로 파악하게 만드는 장치죠. 가이드는 이 어텐션 매트릭스를 시각적으로 보여주면서, 레이어가 깊어질수록 어떻게 더 추상적인 패턴을 잡아내는지 설명해요.
그 다음이 포스트트레이닝이에요. 여기에는 SFT(Supervised Fine-Tuning)와 RLHF(Reinforcement Learning from Human Feedback)가 포함돼요. SFT는 "질문-답변" 쌍을 사람이 만들어서 모델에게 가르치는 단계고, RLHF는 여러 답변 중 사람이 더 좋아하는 걸 고르게 해서 그 선호를 모델에 반영하는 방식이에요. 이 두 단계를 거쳐야 비로소 "그냥 인터넷을 따라 치는 모델"이 "질문에 답하는 챗봇"으로 변신해요.
마지막으로 추론(inference)과 환각(hallucination) 문제를 다뤄요. 모델이 왜 자신 있게 거짓말을 하는지, 왜 수학 문제에서 실수하는지를 토큰 예측 확률 분포의 관점에서 설명해줘요. 이 부분이 개인적으로 가장 유익한 챕터 같아요, 실무에서 LLM을 쓸 때 가장 자주 마주치는 이슈니까요.
왜 인터랙티브가 중요한가
Anthropic이 공개한 "Transformer Circuits"나 Distill.pub 시대의 시각화 논문들이 증명했듯, 추상 개념은 글로만 읽을 때보다 조작해볼 때 훨씬 빠르게 체화돼요. 예를 들어 temperature 파라미터를 직접 슬라이더로 움직여서 출력 확률 분포가 어떻게 변하는지 보면, "temperature가 높을수록 창의적이다"라는 말의 의미가 한눈에 들어오거든요. 아무리 좋은 글로 설명해도 슬라이더 한 번 조작하는 것만 못해요.
비슷한 자료들과 비교
참고할 만한 자료로는 3Blue1Brown의 딥러닝 시리즈가 수학적 직관을 제공하고, Jay Alammar의 "Illustrated Transformer" 블로그 글이 초심자 대상 시각 자료의 고전이에요. 코드로 파고들고 싶으면 Karpathy의 nanoGPT 레포가 약 300줄로 GPT를 재현하는 교재 역할을 하고요. 이번 "How LLMs Work"는 이들 사이에서 "읽는 시간이 30분~1시간 수준이고, 수식 없이, 브라우저만으로 끝낼 수 있는" 포지션을 채워줘요. 팀원에게 공유하기 딱 좋은 분량이죠.
한국 개발자에게 주는 시사점
요즘 회사마다 "AI를 제품에 붙여보자"는 얘기가 안 나오는 곳이 없잖아요. 이럴 때 PM, 디자이너, 백엔드 개발자까지 LLM의 기본 동작 원리를 공통된 정신 모델로 이해하고 있으면 협업이 훨씬 수월해져요. 왜 컨텍스트 윈도우에 제약이 있는지, 왜 같은 질문에도 매번 다른 답이 나오는지, 왜 RAG(Retrieval-Augmented Generation)가 필요한지 같은 기본 전제가 공유되지 않으면, 기획 단계부터 계속 엇나가거든요.
이 가이드를 주니어 온보딩 자료로 공유하거나, 스터디 첫 주차 읽기 자료로 쓰는 것만으로도 팀 전체의 베이스라인이 올라가요. 그리고 본인이 나중에 내부 도구에 LLM을 붙일 때, 왜 특정 프롬프트가 더 잘 동작하는지 설명할 수 있는 기반이 생기죠.
마무리
"LLM이 어떻게 동작하는지"는 이제 프론트엔드 개발자든 백엔드 개발자든 기본 교양이 되어가고 있어요. 여러분은 주변 동료에게 LLM을 설명해야 할 때 어떤 자료를 가장 먼저 공유하시나요? 혹시 더 좋은 한국어 자료를 알고 계시다면 댓글로 공유해주시면 많은 분들께 도움이 될 거예요.
🔗 출처: Hacker News
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공