처리중입니다. 잠시만 기다려주세요.
TTJ 코딩클래스
정규반 단과 자료실 테크 뉴스 코딩 퀴즈
테크 뉴스
Hacker News 2026.04.22 28

Anthropic, Amazon에서 5B 받고 100B 약속... AI 순환 투자의 민낯

Hacker News 원문 보기
Anthropic, Amazon에서 5B 받고 100B 약속... AI 순환 투자의 민낯

숫자만 봐도 어지러운 이번 계약

Anthropic이 Amazon으로부터 50억 달러(약 7조 원)를 새로 투자받기로 했습니다. 그런데 여기서 눈이 번쩍 뜨이는 대목이 나와요. 그 대가로 Anthropic은 앞으로 AWS에 1000억 달러(약 140조 원) 규모의 클라우드 지출을 약속했거든요. 받는 돈의 스무 배를 쓰겠다는 얘기예요.

이걸 단순 투자로 보면 좀 이상하죠. "5억 줄 테니 100억짜리 우리 상품 사라"는 조건이 붙은 셈이니까요. 업계에서는 이런 구조를 순환 투자(circular financing)라고 부릅니다. 클라우드 회사가 AI 스타트업에 돈을 주면, 그 돈이 다시 클라우드 사용료로 돌아오는 구조인 거예요.

왜 이런 구조가 나오나

배경을 좀 풀어드릴게요. 요즘 AI 학습과 추론(inference, 모델을 실제로 실행해서 답을 내놓는 과정)에는 천문학적인 GPU 자원이 필요합니다. GPT-4나 Claude 같은 모델 하나를 학습시키는 데만 수억 달러가 들고, 서비스하는 데는 그 이상이 꾸준히 깨져요.

Anthropic 같은 프론티어 AI 회사들은 이 비용을 혼자 감당할 수 없습니다. 그래서 하이퍼스케일러(AWS·Azure·GCP 같은 초대형 클라우드 사업자)와 손을 잡는데, 클라우드 쪽도 속셈이 있어요. 자기네 GPU 인프라를 "믿을 만한 AI 회사가 장기간 쓴다"는 약속만큼 주주들한테 설명하기 좋은 스토리가 없거든요. 그래서 지분 투자 + 장기 사용 계약이 세트로 묶이는 겁니다.

Microsoft-OpenAI 관계가 정확히 이 구조예요. Microsoft가 OpenAI에 130억 달러 이상 투자했는데, OpenAI는 Azure를 사실상 독점적으로 쓰고 있죠. 이번 Amazon-Anthropic 딜도 규모만 더 커졌을 뿐 본질은 같은 패턴입니다.

100B 달러, 현실적으로 가능한가

1000억 달러라는 숫자가 좀 현실감이 없어서 계산을 한번 해볼게요. 이게 몇 년에 걸쳐 쓰는 누적 금액인지 정확히 공개되진 않았지만, 업계 추정으로는 5~7년 정도 걸릴 거로 봅니다. 그래도 연간 150억~200억 달러 수준이에요.

참고로 Anthropic의 2025년 예상 매출이 50~70억 달러 규모로 알려져 있습니다. 그러니까 매출보다 훨씬 많은 돈을 컴퓨팅에 쏟아붓겠다는 계획인데, 이건 "지금 손해를 감수하더라도 모델 성능과 서비스 규모에서 선두를 지켜야 한다"는 결연한 의지로 읽을 수 있어요.

기술적으로는 Anthropic이 AWS Trainium·Inferentia 같은 Amazon 전용 칩을 본격적으로 활용하는 방향이 될 가능성이 높습니다. NVIDIA H100/B200 같은 범용 GPU가 공급 부족인 상황에서, Amazon은 자사 칩을 Anthropic에게 밀어주면서 "우리 칩도 프론티어 모델 학습에 쓸 수 있다"는 레퍼런스를 확보할 수 있거든요. Anthropic 입장에서는 단가가 싸지고, Amazon 입장에서는 AI 칩 시장에서 NVIDIA에 대항할 포트폴리오를 만드는 셈이죠.

AI 업계 지형이 이렇게 재편된다

이제 AI 최전선의 구도가 꽤 명확해졌어요. OpenAI는 Microsoft/Azure, Anthropic은 Amazon/AWS, Google DeepMind는 Google Cloud 자체. 이걸 업계에서는 "세 개의 왕국(three kingdoms)"이라고 부르기도 합니다. 각 진영이 자기 클라우드에서만 프리미엄 모델을 제공하면서, 결국 고객은 어느 클라우드를 쓰느냐로 AI 모델 선택이 강제되는 상황이 만들어지고 있어요.

재미있는 점은 Anthropic이 여전히 Google Cloud도 쓴다는 거예요. Google도 Anthropic에 투자했거든요. 멀티 클라우드 전략을 유지하면서도, 이번 딜로 AWS 쪽에 훨씬 더 기운 모양새가 됐습니다.

한국 개발자에게는 어떤 의미인가

당장 피부에 와닿는 건 Bedrock의 위상 강화입니다. AWS Bedrock에서 Claude를 쓰는 게 앞으로 더 매끄러워질 가능성이 커요. 새 모델이 나오면 Bedrock에 가장 먼저 올라올 거고, 리전별 가용성도 빠르게 확대될 겁니다. 한국 개발자들이 많이 쓰는 서울 리전에서 최신 Claude를 안정적으로 쓸 수 있는 환경이 더 빨리 마련되겠죠.

반면 AI 독립성 측면에서는 경각심이 필요합니다. "우리 회사는 클라우드 독립적으로 가자"라고 아무리 외쳐봐도, 결국 최신 AI 모델은 특정 클라우드에 묶여 있는 게 현실이에요. 멀티 클라우드 아키텍처를 설계할 때 AI 레이어는 별도 추상화를 두는 게 점점 더 중요해지고 있어요. LiteLLM이나 LangChain 같은 프로바이더 중립 라이브러리를 공부해둘 가치가 있습니다.

정리하며

핵심 한 줄: AI는 이제 클라우드 전쟁의 연장선이고, 돈은 생태계를 묶는 접착제 역할을 한다. 순수한 기술 경쟁은 진작에 끝났고, 지금은 누가 더 큰 생태계를 묶어내느냐의 싸움이 된 거죠.

여러분은 이런 순환 투자 구조가 AI 발전에 도움이 된다고 보시나요, 아니면 과열의 신호라고 보시나요? 그리고 우리는 Claude 같은 모델을 쓸 때 특정 클라우드에 종속되지 않으려면 어떤 전략을 써야 할까요?


🔗 출처: Hacker News

이 뉴스가 유용했나요?

이 기술을 직접 배워보세요

AI 도구, 직접 활용해보세요

AI 시대, 코딩으로 수익을 만드는 방법을 배울 수 있습니다.

AI 활용 강의 보기

"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"

실제 수강생 후기
  • 비전공자도 6개월이면 첫 수익
  • 20년 경력 개발자 직강
  • 자동화 프로그램 + 소스코드 제공

매일 AI·개발 뉴스를 받아보세요

주요 테크 뉴스를 매일 아침 이메일로 전해드립니다.

스팸 없이, 언제든 구독 취소 가능합니다.