처리중입니다. 잠시만 기다려주세요.
TTJ 코딩클래스
정규반 단과 자료실 테크 뉴스 코딩 퀴즈
테크 뉴스
Hacker News 2026.04.29 61

ChatGPT는 어떻게 광고를 노출하나: 어트리뷰션 루프의 전말

Hacker News 원문 보기
ChatGPT는 어떻게 광고를 노출하나: 어트리뷰션 루프의 전말

검색 광고를 닮았지만 다른 무언가

많은 사람들이 "ChatGPT가 광고를 한다"는 말을 들었을 때, 처음엔 옛날 검색엔진처럼 결과 위에 "Sponsored" 배너가 뜨는 모습을 떠올려요. 그런데 실제로 OpenAI가 굴리고 있는 광고 모델은 그런 단순한 형태가 아닙니다. Buchodi의 분석에 따르면, ChatGPT의 광고는 대화 흐름 안에 자연스럽게 녹아드는 "추천형 응답"과, 그것을 측정하기 위한 정교한 어트리뷰션 루프로 구성되어 있어요.

어트리뷰션이 뭐냐면, 광고 효과를 측정하기 위해 "이 사용자가 이 광고를 보고 결국 그 제품을 샀다"라는 인과관계를 추적하는 기술이에요. 구글이 검색 광고를 통해 거의 완성한 영역인데, 이게 LLM 환경에서는 완전히 새로운 형태로 다시 설계되고 있습니다.

어떻게 동작할까요

분석에 따르면 흐름은 대략 이렇습니다. 사용자가 ChatGPT한테 "러닝화 추천해줘"라고 물으면, 모델은 자기가 학습한 지식과 함께 광고 파트너의 제품 카탈로그를 일정 비중으로 참고합니다. 그리고 답변에 자연스럽게 특정 브랜드 제품을 추천하면서, 클릭 가능한 링크를 함께 제공해요. 사용자가 그 링크를 클릭하면 OpenAI는 트래픽 송출 정보를 광고주에게 전달하고, 광고주는 자사 사이트에서 구매 전환이 일어났는지 추적해 OpenAI에 다시 신호를 보냅니다.

핵심은 "세 가지 주체 간의 신호 교환 루프"예요. 사용자(클릭) → OpenAI(트래픽 송출) → 광고주(전환 확인) → OpenAI(과금)로 이어지는 구조입니다. 이게 검색 광고와 비슷해 보이지만, 결정적으로 다른 점은 추천 자체가 모델의 자연어 응답 안에 녹아 있어서 "이게 광고인지 아닌지"의 경계가 흐릿하다는 거예요.

검색 광고와 뭐가 다를까요

구글 검색 광고는 "키워드 입찰" 모델입니다. 광고주가 "러닝화"라는 키워드에 입찰을 해두면, 사용자가 그 키워드로 검색했을 때 광고가 노출돼요. 노출은 명확하게 "광고" 라벨로 분리됩니다.

LLM 광고는 다릅니다. 키워드가 아니라 의도(intent) 단위로 매칭이 됩니다. 사용자가 "무릎이 안 좋아서 쿠셔닝 좋은 신발이 필요해"라고 길게 풀어 말해도, 모델은 그 의도를 이해해서 적절한 제품을 추천할 수 있어요. 광고주 입장에서는 더 정밀한 타게팅이 가능하지만, 동시에 사용자 입장에서는 "이 추천이 진짜 내가 필요해서 나온 건지, 광고비 때문에 나온 건지" 구분하기 어려워집니다.

신뢰성과 투명성의 함정

이 모델의 가장 큰 위험은 신뢰성 침식이에요. 사람들이 ChatGPT를 쓰는 이유 중 하나는 "광고가 없는 정직한 답변"이라는 인식이거든요. 그런데 답변 안에 광고가 섞이기 시작하면, 모든 추천 응답을 "이게 진짜야, 광고야?" 의심하면서 봐야 하는 상황이 옵니다.

OpenAI가 어떻게 라벨링을 하느냐가 관건이에요. "Sponsored" 표시를 명확히 한다면 일정 부분 신뢰가 유지될 수 있지만, 텍스트 응답 안에 자연스럽게 묻혀 들어가는 형태라면 사용자가 광고 노출 여부조차 인지하기 어렵게 됩니다.

업계 맥락

Google의 Bard/Gemini, Perplexity, Anthropic의 Claude도 비슷한 광고 모델을 검토하고 있다는 소문은 꾸준히 있었어요. 특히 Perplexity는 이미 "sponsored questions" 형태로 광고를 도입한 상태입니다. 사용자에게 후속 질문을 추천할 때 광고주가 입찰한 질문을 섞어 넣는 방식이에요.

결국 LLM 회사들은 모델 학습/추론 비용을 감당하기 위한 수익 모델이 절실합니다. 구독료만으로는 한계가 있고, 광고는 가장 검증된 모델이거든요. 문제는 "신뢰"라는 자산을 얼마나 빠른 속도로 소진하지 않으면서 광고를 도입하느냐에 달려 있어요.

한국 개발자에게는

이걸 단순한 비즈니스 뉴스로 보지 말고, "내 서비스에 LLM을 붙일 때 신뢰 모델을 어떻게 설계할 것인가"의 관점으로 봐야 해요. 만약 자사 서비스에서 추천 기능을 LLM으로 구현한다면, 광고/제휴 콘텐츠와 순수 추천을 어떻게 분리해서 표시할지 미리 정책을 세워두는 게 중요합니다.

또한 에이전트가 외부 LLM API를 거쳐 추천을 받는 워크플로우를 만들고 있다면, 그 추천에 어떤 편향이 들어 있을 수 있는지 인지하고 있어야 해요. 미래에 OpenAI/Anthropic의 응답이 광고 영향을 받기 시작하면, 그게 그대로 우리 서비스에 흘러들어올 수 있거든요.

마무리

LLM 시대의 광고는 "보이는 광고"가 아니라 "녹아드는 광고"가 될 가능성이 높아요. 이 변화는 사용자 신뢰뿐 아니라, LLM을 활용하는 모든 개발자의 의사결정에도 영향을 줄 수밖에 없습니다.

여러분은 ChatGPT 답변에 광고가 섞여 들어온다면 계속 사용하실 건가요? 광고 라벨링이 어느 수준이어야 신뢰가 유지될 수 있다고 보세요?


🔗 출처: Hacker News

이 뉴스가 유용했나요?

이 기술을 직접 배워보세요

AI 도구, 직접 활용해보세요

AI 시대, 코딩으로 수익을 만드는 방법을 배울 수 있습니다.

AI 활용 강의 보기

"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"

실제 수강생 후기
  • 비전공자도 6개월이면 첫 수익
  • 20년 경력 개발자 직강
  • 자동화 프로그램 + 소스코드 제공

매일 AI·개발 뉴스를 받아보세요

주요 테크 뉴스를 매일 아침 이메일로 전해드립니다.

스팸 없이, 언제든 구독 취소 가능합니다.