
미디어가 AI 사용 원칙을 공개하기 시작한 이유
생성형 AI가 본격적으로 퍼지기 시작한 지 이제 몇 년이 됐잖아요. 그 사이 해외 매체에서는 기사를 AI가 대충 쓰는 바람에 사실관계가 틀렸다거나, 실존하지 않는 사람을 인용한 사고가 여러 번 있었거든요. CNET이 AI로 쓴 금융 기사에서 오류가 무더기로 터져 기사를 회수한 사건이 대표적이에요. 독자들은 이제 기사를 읽을 때 "이거 혹시 AI가 쓴 거 아닌가?"라는 의심을 기본값으로 깔고 읽기 시작했어요.
그래서 최근 여러 매체가 자사의 AI 사용 원칙을 공개 문서로 정리하는 흐름이 생겼어요. 그중에서도 기술 매체 Ars Technica가 내놓은 정책은 개발자 독자 입장에서 꽤 참고할 만한 내용을 담고 있어요. 기자가 아닌 엔지니어가 왜 이걸 봐야 하냐면, 우리도 회사에서 AI로 코드를 짜고 문서를 쓰고 PR 설명을 붙이는 일이 많아졌잖아요? 같은 고민을 미디어가 먼저 정리해 놓은 문서라고 보면 돼요.
세 가지 축: 무엇을 허용하고, 무엇을 금지하는가
Ars Technica 정책을 크게 요약하면 세 개의 축으로 나뉘어요. 첫째, 사실에 영향을 주지 않는 도구로만 AI를 허용한다는 거예요. 예를 들어 인터뷰 녹취록을 AI로 변환(STT)하거나, 긴 영문 보도자료에서 핵심 문장을 뽑아내는 브레인스토밍 용도는 괜찮아요. 하지만 이 요약을 그대로 기사에 옮기는 건 허용하지 않아요. 사람 기자가 원문을 읽고 검증한 뒤 자기 문장으로 다시 써야 한다는 거죠.
둘째, AI가 만들어낸 이미지나 영상은 그 자체가 주제일 때만 쓴다는 원칙이에요. 예를 들어 "Midjourney 신버전이 나왔다"는 기사에서 예시로 Midjourney 이미지를 싣는 건 당연히 가능하지만, 일반 뉴스의 삽화를 AI로 뚝딱 만들어 넣지는 않겠다는 거예요. 독자가 그걸 실제 사진으로 착각할 수 있고, 원본이 없는 이미지는 저널리즘적으로 '사실'을 훼손하니까요.
셋째, 출처 검증과 인용은 전적으로 사람의 몫이에요. 챗봇이 '그럴듯한 논문 제목'을 만들어내는 환각(hallucination) 현상은 여전히 해결되지 않았고, 기자가 이걸 그대로 쓰면 존재하지 않는 연구를 인용하는 사고가 납니다. 그래서 모든 링크와 인용은 사람이 원문을 직접 확인한 뒤에만 기사에 들어가요.
다른 매체와 비교하면
비슷한 정책을 먼저 내놓은 곳으로는 Wired, The Verge, 뉴욕타임스가 있어요. 뉴욕타임스는 OpenAI를 저작권 침해로 고소한 당사자이기도 해서 자사 기자의 AI 도구 사용을 꽤 엄격하게 제한하고, Wired는 AI 이미지 사용 금지를 명시적으로 못 박았어요. 반대로 Bloomberg는 자체 금융 모델을 만들어 단신 뉴스 일부를 자동 생성하는 실험을 공개적으로 하고 있죠.
이 스펙트럼에서 보면 Ars Technica는 중도 실용파에 가까워요. "도구로는 쓰되, 판단은 사람이 한다"는 원칙을 비교적 쉬운 문장으로 밝혀서, 독자가 기사의 신뢰도를 판단할 때 기준을 제공한 거예요. 특히 기술 전문 매체가 AI를 덮어놓고 금지하는 대신 사용 범위를 구체적으로 구획한 건, 현장 작업 방식에 대한 이해가 깊다는 인상을 줘요.
한국 개발자가 여기서 얻을 힌트
이 정책을 뒤집어 보면 개발 조직의 AI 사용 가이드라인에도 그대로 적용할 수 있어요. 첫째, AI가 만든 결과물을 사람 검토 없이 최종 아웃풋으로 내지 말 것. 코드도 마찬가지예요. Copilot이나 Cursor가 뽑아준 코드를 사람이 리뷰 없이 머지하면 나중에 버그 원인조차 추적이 안 돼요. 둘째, AI가 만든 '사실 같은 것'을 믿지 말 것. GPT가 제시하는 API 이름, 라이브러리 메서드, 에러 코드 중에는 아예 존재하지 않는 것들이 꽤 있거든요. 셋째, 투명하게 밝힐 것. PR 설명이나 커밋 메시지에 AI 보조를 받았다는 걸 가볍게라도 남기면, 나중에 디버깅할 때 동료가 맥락을 이해하기 쉬워져요.
사내 AI 정책이 아직 없는 팀이라면, Ars Technica 문서는 한 페이지짜리 간결한 참고 자료로 딱이에요. "우리 팀은 AI를 이렇게 씁니다"를 2~3장 분량으로 정리해서 위키에 올려두기만 해도, 신규 입사자 온보딩이 훨씬 수월해져요.
마무리
AI를 전면 금지도, 전면 허용도 아닌 "투명하게, 사람이 책임지는 선에서" 라는 균형. 이게 앞으로 몇 년간 기술 조직의 표준 형태가 될 가능성이 높아 보여요. 여러분 회사는 AI로 짠 코드나 문서에 어떤 기준을 적용하고 있나요?
🔗 출처: Hacker News
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공