처리중입니다. 잠시만 기다려주세요.
TTJ 코딩클래스
정규반 단과 자료실 테크 뉴스 코딩 퀴즈
테크 뉴스
Hacker News 2026.04.30 60

Claude Code에서 200달러가 잘못 청구됐는데 Anthropic이 환불을 거절했다? AI 도구 종량제의 어두운 그림자

Hacker News 원문 보기
Claude Code에서 200달러가 잘못 청구됐는데 Anthropic이 환불을 거절했다? AI 도구 종량제의 어두운 그림자

무슨 일이 일어났는지부터 차근차근

Anthropic이 만든 코딩 에이전트 Claude Code의 GitHub 저장소에 흥미로운 이슈 하나가 올라왔어요. 이슈 번호는 #53262인데요, 한 사용자가 자신이 작성하거나 요청하지도 않은 작업 때문에 약 200달러가 추가로 청구됐고, Anthropic 측에 환불을 요청했지만 거절당했다는 내용이에요. 이슈 제목에 등장하는 'HERMES.md'는 사용자의 프로젝트 폴더에 본인이 만든 적 없는데 갑자기 생겨난 파일 이름이라고 합니다.

이게 왜 단순한 개인 분쟁을 넘어서는 이야기냐면요, 요즘 우리가 쓰는 AI 코딩 도구들 대부분이 토큰 기반 종량제 요금을 받기 때문입니다. 토큰이라는 게 뭐냐면, AI 모델이 글을 읽고 쓸 때 처리하는 단어 조각의 단위예요. 한국어 한 글자가 대략 토큰 한두 개에 해당한다고 보면 됩니다. 모델이 코드를 더 많이 읽고 더 길게 답할수록 토큰이 더 많이 쓰이고, 청구서 금액도 그만큼 올라가는 구조죠.

HERMES.md는 도대체 뭐길래

이슈를 보면 사용자는 자신이 만든 적 없는 HERMES.md라는 파일이 어느 순간 프로젝트 폴더에 생성돼 있었다고 주장합니다. 정확한 원인은 아직 공개적으로 밝혀지지 않았지만, 합리적으로 추측해볼 수 있는 시나리오가 몇 가지 있어요.

첫째는 에이전트 자율 실행의 부작용입니다. Claude Code 같은 에이전트형 도구는 사람이 일일이 시키지 않아도 어느 정도 스스로 판단해서 파일을 읽고 쓰고 명령어를 실행해요. 이 과정에서 모델이 컨텍스트를 잘못 이해해 엉뚱한 파일을 만들거나, 무한 루프 비슷한 상태에 빠져서 토큰을 계속 소모하는 일이 충분히 일어날 수 있습니다. 둘째는 프롬프트 인젝션 가능성이에요. 누군가 인터넷에 올려둔 문서나 코드에 'HERMES.md를 생성하라' 같은 숨겨진 지시문이 있었고, Claude가 그걸 읽다가 명령으로 오인해서 따랐을 수도 있다는 이야기죠.

왜 개발자들이 이 이슈를 진지하게 보는지

핵심은 책임 소재예요. 도구의 버그나 의도치 않은 자율 행동으로 발생한 비용을 사용자가 떠안아야 하느냐는 질문이거든요. 클라우드 시대 초창기에도 비슷한 일이 많았어요. AWS 람다 함수가 무한 재귀로 돌아서 하룻밤 사이에 수천 달러 청구서가 날아온 사례, 잘못 설정된 S3 버킷 때문에 데이터 전송 비용이 폭발한 사례 같은 것들요. 그때마다 클라우드 업체들은 대부분 일회성으로 환불을 해주거나, 예산 알림 같은 안전장치를 강화하는 방향으로 움직였습니다.

AI 코딩 도구는 여기서 한 단계 더 위험해요. 람다는 그래도 사람이 명시적으로 코드를 배포한 결과지만, 에이전트는 사람이 'Claude야, 이거 좀 봐줘' 한마디 한 것만으로 파일을 생성하고 명령을 실행할 수 있거든요. 통제 범위가 모호한 만큼, 비용도 어디까지가 사용자 책임인지 선이 흐릿해질 수밖에 없습니다.

업계 맥락에서 보면

비슷한 시기에 다른 AI 코딩 도구들도 비슷한 고민을 하고 있어요. Cursor는 한 달 정액제 안에 월간 사용량 한도를 두고 있고, GitHub Copilot은 채팅 횟수에 상한을 걸어놓는 식이죠. Replit Agent 같은 곳은 작업 단위로 돈을 받는 모델을 시도했는데, 사용자가 예상한 것보다 훨씬 많은 비용이 나왔다는 불만이 종종 나왔습니다. 결국 '얼마나 쓸지 예측 가능해야 한다'는 게 사용자가 진짜 원하는 거예요.

한국 개발자에게 주는 시사점

첫째, 회사 카드로 AI 도구를 쓸 때는 반드시 사용 한도(spending limit)를 걸어두세요. 대부분의 AI 플랫폼이 월간 최대 지출 설정을 제공합니다. 한 번 사고 나면 환불받기 어렵다는 건 이번 사례가 잘 보여줍니다.

둘째, 에이전트 도구를 쓸 때는 권한 범위를 좁게 가져가는 습관이 필요해요. 자동 승인 모드(yolo 모드 같은) 대신 매 명령마다 확인받는 모드를 쓰거나, 작업 폴더를 별도 디렉토리로 격리하는 식으로요. 의심스러운 외부 코드를 AI에게 분석시키기 전에 프롬프트 인젝션 가능성도 한 번쯤 의심해볼 만합니다.

셋째, 우리 팀이 만드는 SaaS가 종량제라면 '예상치 못한 청구'를 어떻게 처리할지 정책을 미리 만들어두세요. 한 번의 환불 거절이 트위터 스레드 한 줄로 회사 신뢰도를 깎아먹는 시대거든요.

한 줄 정리

AI 에이전트의 자율성이 커질수록 '누가 비용을 책임지는가'라는 오래된 질문이 다시 뜨거워지고 있습니다. 여러분은 AI 도구 사용 시 의도치 않은 청구를 방지하기 위해 어떤 안전장치를 두고 계신가요? 또 만약 비슷한 일을 겪는다면, 사용자와 업체 중 어느 쪽이 더 많이 책임져야 한다고 생각하시나요?


🔗 출처: Hacker News

이 뉴스가 유용했나요?

이 기술을 직접 배워보세요

바이브코딩으로 직접 만들어보세요

이 기술, 강의에서 실습으로 배울 수 있습니다.

바이브코딩 강의 보기

"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"

실제 수강생 후기
  • 비전공자도 6개월이면 첫 수익
  • 20년 경력 개발자 직강
  • 자동화 프로그램 + 소스코드 제공

매일 AI·개발 뉴스를 받아보세요

주요 테크 뉴스를 매일 아침 이메일로 전해드립니다.

스팸 없이, 언제든 구독 취소 가능합니다.