계속 빨라지기만 할 줄 알았는데
GPT-3가 나왔을 때 세상이 놀랐고, GPT-4가 나왔을 때 또 한번 놀랐죠. 그래서 많은 사람들이 이 속도로 계속 가면 GPT-5, GPT-6은 얼마나 대단할까 기대했어요. 그런데 최근 들어 업계 안팎에서 조금 다른 이야기가 나오고 있어요. "프론티어 모델의 발전이 둔화되고 있는 게 아니냐"는 거죠.
"The Closing of the Frontier"라는 제목의 글이 이 주제를 정면으로 다루고 있는데요, 프론티어 모델이라는 게 뭔지부터 짚어볼게요. 프론티어 모델은 그 시점에서 가장 앞선 성능을 보여주는 최첨단 AI 모델을 말해요. 지금 기준으로는 GPT-4 계열, Claude Opus, Gemini Ultra 같은 모델들이 여기에 해당하죠. 이 글의 핵심 논지는, 이런 최첨단 모델들의 성능 향상 곡선이 점점 완만해지고 있다는 거예요.
무엇이 한계에 다다르고 있나?
이 주장의 근거를 살펴보면 꽤 설득력이 있어요.
첫 번째는 학습 데이터의 한계예요. 지금까지 LLM 성능을 끌어올린 핵심 전략 중 하나는 "더 많은 데이터로 더 크게 학습시키기"였거든요. 그런데 인터넷에 있는 고품질 텍스트 데이터는 유한해요. 이미 대형 모델들이 인터넷의 상당 부분을 학습 데이터로 사용했기 때문에, 추가로 투입할 새로운 데이터를 찾기가 점점 어려워지고 있어요. 합성 데이터(AI가 만든 데이터)로 보충하는 시도가 있지만, 이것만으로는 이전 같은 점프를 만들어내기 어렵다는 게 중론이에요.
두 번째는 컴퓨팅 비용의 벽이에요. 모델을 크게 만들수록 학습에 필요한 GPU 비용이 기하급수적으로 늘어나요. GPT-4 학습에 수천만 달러가 들었다는 얘기가 있는데, 다음 세대 모델은 수억 달러가 필요할 수 있어요. 이게 뭐냐면, 기술적으로 가능하더라도 경제적으로 합리적이지 않은 지점이 오고 있다는 거예요. 물리학에서 입자 가속기를 점점 더 크게 만드는 것과 비슷한 상황이라고 볼 수 있죠.
세 번째는 벤치마크 포화예요. 새 모델이 나올 때마다 MMLU, HumanEval 같은 벤치마크 점수를 비교하잖아요. 그런데 최근 모델들 간의 점수 차이가 점점 좁아지고 있어요. 물론 벤치마크가 모델 성능의 전부를 나타내는 건 아니지만, 적어도 "측정 가능한 영역에서의 혁신 속도"가 줄어들고 있다는 신호일 수 있어요.
그러면 AI 발전이 멈추는 건가요?
여기서 중요한 구분이 필요해요. 프론티어 모델의 성능 향상이 둔화된다고 해서 AI 분야 전체의 발전이 멈추는 건 아니거든요. 오히려 다른 방향의 혁신이 더 활발해질 수 있어요.
대표적인 게 소형 모델의 효율화예요. Llama 3, Mistral, Phi 시리즈 같은 모델들은 프론티어 모델보다 훨씬 작지만, 특정 작업에서는 비슷한 성능을 보여주고 있어요. 모델의 크기를 키우는 것보다 같은 크기에서 더 많은 성능을 뽑아내는 연구가 각광받고 있는 거죠.
추론 시간 컴퓨팅(inference-time compute)도 주목할 만한 흐름이에요. 이게 뭐냐면, 모델을 학습시키는 단계에서 더 많은 자원을 쓰는 대신, 모델이 답변을 생성하는 단계에서 더 많이 "생각"하게 하는 거예요. OpenAI의 o1이나 o3 모델이 이 접근법을 쓰고 있죠. 학습 규모를 무한정 키우는 것보다는 이런 방향이 더 현실적일 수 있어요.
그리고 도메인 특화 모델의 부상도 있어요. 모든 것을 잘하는 범용 모델보다, 의료·법률·코딩 같은 특정 분야에 최적화된 모델이 실무에서는 더 유용한 경우가 많거든요. 이 방향은 학습 데이터나 컴퓨팅 자원의 제약을 덜 받으면서도 실질적인 가치를 만들어낼 수 있어요.
업계에서는 어떻게 대응하고 있나?
큰 AI 기업들의 움직임을 보면 이 흐름을 이미 반영하고 있어요. OpenAI는 GPT-5를 "하나의 거대한 모델"이 아니라 여러 모델의 조합으로 구성할 수 있다는 힌트를 줬고, Google은 Gemini 시리즈에서 Nano·Flash·Pro·Ultra 같은 다양한 크기의 모델 라인업을 강화하고 있어요. Anthropic도 Claude의 Haiku·Sonnet·Opus 라인업으로 비슷한 전략을 취하고 있고요.
이건 "하나의 초거대 모델로 모든 걸 해결하자"는 접근에서 "적재적소에 맞는 모델을 쓰자"는 방향으로 업계가 움직이고 있다는 뜻이에요.
한국 개발자에게 주는 시사점
이 흐름이 우리한테 주는 메시지는 꽤 명확해요.
첫째, 최신 모델에 대한 FOMO(놓칠까 봐 불안한 마음)를 좀 내려놓아도 돼요. 새 모델이 나올 때마다 기존 시스템을 갈아엎어야 하나 고민할 필요가 줄어들고 있어요. 지금 잘 작동하는 모델과 프롬프트가 있다면, 그걸 더 잘 활용하는 데 집중하는 게 ROI가 높을 수 있어요.
둘째, 엔지니어링 역량이 더 중요해져요. 모델 자체의 성능 차이가 줄어들수록, 그 모델을 어떻게 잘 활용하느냐가 차별화 포인트가 돼요. RAG 파이프라인, 에이전트 설계, 프롬프트 엔지니어링, 파인튜닝 같은 응용 기술의 가치가 올라가는 거죠.
셋째, 오픈소스 모델에 대한 투자가 더 합리적일 수 있어요. 프론티어 모델과 오픈소스 모델의 격차가 줄어드는 추세라면, 자체 인프라에서 돌릴 수 있는 오픈소스 모델을 잘 활용하는 전략이 비용과 자주성 면에서 유리해질 수 있어요.
정리
AI의 "더 크게, 더 빠르게" 시대가 끝나고, "더 똑똑하게, 더 효율적으로" 시대가 열리고 있는 것일 수 있어요. 이건 위기가 아니라 오히려 개발자에게는 기회일 수 있습니다.
여러분은 프론티어 모델의 발전 속도에 대해 어떻게 느끼고 계신가요? 최근 모델들 간의 차이가 줄어들고 있다고 체감하시나요?
🔗 출처: Hacker News
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공