
'AI한테 코드 리뷰 시키기'를 한 단계 업그레이드
Claude Code 쓰시는 분들이라면 한 번쯤 'AI한테 내 PR을 리뷰시켜볼까?' 하는 생각 해보셨을 거예요. 그냥 claude 명령으로 '이 diff 봐줘'라고 하면 되긴 하는데, 막상 해보면 결과가 좀 평이해요. 보안 이슈, 성능, 코드 스타일, 테스트 누락 같은 걸 다 한꺼번에 보다 보니까 어느 것도 깊이 못 파고드는 거죠. GitHub의 adamjgmiller가 만든 adamsreview는 바로 이 문제를 해결하려는 오픈소스 도구예요. 한 명의 AI한테 다 시키는 대신, 여러 명의 전문가 AI를 동시에 띄워서 각자 다른 관점으로 리뷰하게 만들어요.
쉽게 비유하면 이래요. 회사에서 PR 리뷰할 때 '이거 보안 쪽 잘 아는 김 시니어가 봐주세요', '성능은 박 책임이 봐주세요', '테스트 커버리지는 이 매니저가 확인해주세요' 하고 따로 부탁하잖아요. adamsreview는 그걸 자동으로 해줘요. 여러 'sub-agent(서브 에이전트)'를 병렬로 띄워서 각자 자기 영역만 깊이 보고, 마지막에 결과를 종합해서 사람에게 전달해주는 구조예요.
어떻게 동작하나
조금 더 들어가 볼게요. adamsreview는 Claude Code의 공식 기능인 Sub-agents를 활용해요. Claude Code는 작년 말부터 메인 에이전트가 작업 도중에 별도의 서브 에이전트를 띄울 수 있게 됐어요. 서브 에이전트는 자기만의 컨텍스트 윈도우(=대화 기억 공간)를 갖고, 메인 에이전트의 기억을 오염시키지 않은 채로 특정 작업을 처리한 다음 결과만 돌려줘요. 컨텍스트가 분리되니까 각자 깊이 파고들기 좋아요.
adamsreview는 이걸 활용해서 여러 개의 전문 리뷰어 에이전트를 정의해놨어요. 각 에이전트는 마크다운 파일 형태로 자기 역할이 명세돼 있는데, 예를 들면 보안 리뷰어는 'SQL 인젝션, XSS, 인증/인가 누락, 비밀키 하드코딩 같은 패턴을 찾아라'는 식이고, 성능 리뷰어는 'N+1 쿼리, 메모리 누수, 비효율적인 알고리즘을 찾아라'는 식이에요. 사용자는 PR 브랜치에서 adamsreview 같은 슬래시 명령을 한 번 치면, 메인 에이전트가 PR의 diff를 분석해서 어떤 전문가들이 필요한지 결정하고, 그들을 병렬로 띄워요. 각자 결과가 나오면 메인 에이전트가 우선순위를 매겨서 'Critical / Important / Minor'로 정리해 보여줘요.
기술적으로 흥미로운 포인트는 병렬 실행이에요. Claude Code의 서브 에이전트는 비동기로 실행할 수 있어서, 5명의 리뷰어를 한 명씩 순차로 부르는 게 아니라 동시에 부를 수 있어요. 결과적으로 리뷰 시간이 1/5로 줄어드는 효과가 있죠. 단, 그만큼 토큰을 더 쓰니까 비용은 비례해서 올라가요. Claude API 직접 호출이 아니라 Claude Code 구독 플랜으로 쓰는 거라면 정액제 안에서 처리되니 부담이 덜해요.
비슷한 도구와 비교
AI 코드 리뷰 도구는 이미 시장이 꽤 형성돼 있어요. CodeRabbit은 GitHub에 봇으로 붙어서 PR마다 자동 리뷰를 남겨주는 SaaS인데, 깔끔하긴 하지만 커스터마이징이 제한적이에요. Greptile은 코드베이스 전체를 인덱싱해서 맥락 있는 리뷰를 해주는 게 강점이고, Cursor의 Bugbot은 IDE 통합이 잘 돼 있어요. 이런 도구들은 다 '클라우드 서비스 형태'로, 외부에 코드를 보내야 해요.
adamsreview의 차별점은 로컬에서 Claude Code로 돌아간다는 거예요. 회사 정책상 외부 SaaS에 코드 못 보내는 환경에서도 쓸 수 있고, 본인 환경의 컨텍스트(예: CLAUDE.md에 적어둔 코딩 컨벤션, 내부 라이브러리 사용법)를 그대로 반영해서 리뷰해요. 또 오픈소스니까 회사 특성에 맞는 새 리뷰어 에이전트를 추가하기도 쉬워요. 예를 들어 '한국어 주석 톤 검사', '접근성(a11y) 검사' 같은 특화 리뷰어를 직접 추가할 수 있죠.
비슷한 구조의 오픈소스로는 Anthropic이 공식으로 운영하는 awesome-claude-code-subagents 컬렉션이나, OpenAI 진영에서는 Aider, Continue.dev의 멀티 에이전트 모드 같은 게 있어요. 큰 흐름은 '한 명의 만능 AI'에서 '역할 분담된 AI 팀'으로 옮겨가는 중이라고 보면 돼요.
한국 개발자가 실무에서 어떻게 쓸 수 있을까
가장 현실적인 활용 시나리오 몇 가지를 추천드릴게요.
첫째, 혼자 일하는 프로젝트의 셀프 리뷰. 사이드 프로젝트나 1인 회사 환경에서는 PR 리뷰 해줄 사람이 없잖아요. 머지 전에 adamsreview를 한 번 돌리는 걸 습관으로 만들면, 사람 시니어 한 명한테 가벼운 검수받는 정도의 효과는 충분히 나와요.
둘째, 신입 교육 보조. 신입이 올린 PR을 시니어가 보기 전에 먼저 AI 리뷰를 거치게 하면, 흔한 실수(에러 처리 누락, 매직 넘버, 테스트 없음 등)는 자동으로 걸러져요. 시니어는 '진짜 설계 이슈'에만 집중할 수 있게 되죠.
셋째, 레거시 코드 점검. 새 PR뿐 아니라 기존 코드베이스의 특정 폴더에 대고 '이 모듈을 보안 관점에서 리뷰해줘' 식으로도 활용할 수 있어요. 한국 회사들 중에 10년 넘은 Java 모놀리스 안고 있는 곳이 많은데, 이런 곳에 한 번 돌려보면 의외의 발견이 많을 거예요.
주의할 점도 있어요. AI 리뷰는 '의견'이지 '진실'이 아니에요. 특히 보안 관련 리뷰는 거짓양성(false positive)이 종종 나와요. AI가 '여기 XSS 취약점 있어'라고 하는 게 알고 보면 이미 다른 레이어에서 이스케이프 처리되고 있는 경우도 흔하거든요. 그래서 모든 지적을 그대로 받아들이지 말고, 사람이 한 번 더 판단하는 단계가 꼭 필요해요.
GitHub 저장소(adamjgmiller/adamsreview)에서 README 읽고 5분이면 설치할 수 있어요. Claude Code가 설치돼 있다면 추가 의존성도 거의 없고요. 여러분은 AI 코드 리뷰에 대해 어떻게 생각하세요? 도움이 된다고 느끼시나요, 아니면 오히려 잘못된 지적 거르느라 더 피곤하다고 느끼시나요?
🔗 출처: Hacker News
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공