
무슨 일이 있었나
미국 테네시주에 사는 앤절라 립스(Angela Lipps)라는 여성이 노스다코타주에서 일어난 범죄의 용의자로 체포됐어요. 문제는, 그녀가 그 범죄와 아무런 관련이 없었다는 거예요. 경찰이 AI 얼굴인식 기술을 사용해서 용의자를 특정했는데, 그 결과가 완전히 틀렸던 거죠.
얼굴인식 기술이라고 하면 영화에서 나오는 것처럼 딱 찍으면 바로 범인을 찾아내는 정확한 시스템을 떠올리기 쉬운데요. 현실은 그렇지 않아요. 특히 이런 오인 체포 사례가 계속 보고되면서, AI 기반 얼굴인식 시스템의 정확도와 공정성에 대한 논란이 점점 커지고 있어요.
얼굴인식 기술, 어떻게 작동하길래 이런 일이?
AI 얼굴인식은 기본적으로 사진이나 영상에서 얼굴의 특징점(눈, 코, 입의 위치와 간격, 얼굴 윤곽 등)을 수치화해서 "얼굴 벡터"라는 것을 만들어요. 이게 뭐냐면, 사람의 얼굴을 숫자들의 조합으로 바꿔놓는 거예요. 그리고 데이터베이스에 저장된 다른 얼굴 벡터들과 비교해서 "이 사람과 가장 비슷한 얼굴"을 찾아내는 방식이에요.
여기서 핵심적인 문제가 있어요. 이 시스템은 "이 사람이 범인이다"라고 확정하는 게 아니라 "이 사람이 가장 비슷해 보인다"는 후보 목록을 제시하는 거거든요. 그런데 수사 현장에서는 이 후보 목록이 마치 확정적인 증거처럼 사용되는 경우가 많아요. 원래는 수사의 출발점일 뿐인데, 최종 결론처럼 쓰이는 거죠.
또 하나 중요한 건 학습 데이터의 편향 문제예요. 많은 얼굴인식 모델이 백인 남성 얼굴 데이터로 주로 학습되다 보니, 유색인종이나 여성의 얼굴을 인식할 때 오류율이 훨씬 높다는 연구 결과가 여러 차례 나왔어요. MIT 미디어랩의 조이 부올람위니(Joy Buolamwini) 연구가 대표적인데, 피부색이 어두운 여성의 경우 오류율이 최대 34%까지 나온 적도 있어요.
비슷한 사례가 계속 반복되고 있다
이번이 처음이 아니에요. 미국에서만 이미 여러 건의 AI 얼굴인식 오인 체포가 보고됐어요. 2020년 디트로이트에서 로버트 윌리엄스(Robert Williams)라는 남성이 시계 절도 혐의로 잘못 체포된 것이 대표적이에요. 그 역시 AI 얼굴인식의 잘못된 매칭 결과 때문이었죠. 이후로도 비슷한 사례가 최소 6건 이상 공개적으로 알려졌고, 보고되지 않은 사례는 더 많을 거라는 게 전문가들의 의견이에요.
유럽에서는 이런 문제를 심각하게 보고 AI Act(AI 규제법)를 통해 공공장소에서의 실시간 얼굴인식 사용을 원칙적으로 금지했어요. 반면 미국은 연방 차원의 규제가 없어서 각 주와 도시마다 대응이 다른 상황이에요. 샌프란시스코나 보스턴 같은 일부 도시는 경찰의 얼굴인식 사용을 금지했지만, 대부분의 지역에서는 여전히 아무런 제한 없이 쓰이고 있어요.
기술의 한계를 아는 게 왜 중요한가
이 사건은 단순히 "미국 경찰이 실수했다"는 이야기가 아니에요. AI 시스템을 실제 의사결정에 적용할 때 발생하는 근본적인 문제를 보여주고 있어요.
우선 정확도의 함정이 있어요. 얼굴인식 시스템 벤더들은 보통 "99% 이상의 정확도"를 홍보하거든요. 그런데 이게 실험실 조건에서의 수치예요. 실제 CCTV 영상은 화질이 낮고, 조명이 안 좋고, 각도가 비뚤어져 있는 경우가 대부분이에요. 이런 조건에서의 정확도는 크게 떨어져요. 게다가 데이터베이스에 수백만 명이 등록되어 있으면, 1%의 오류율이라도 수만 명의 잘못된 매칭을 만들어낼 수 있어요.
그리고 자동화 편향(automation bias)이라는 심리적 문제도 있어요. 사람은 컴퓨터가 내놓은 결과를 무의식적으로 더 신뢰하는 경향이 있거든요. "AI가 이 사람이라고 했으니까 맞겠지"라고 생각하게 되는 거예요. 수사관이 독립적으로 검증해야 하는데, AI 결과가 이미 판단에 강한 영향을 미치는 거죠.
한국 개발자에게 주는 시사점
한국에서도 AI 얼굴인식 기술은 이미 다양한 곳에 쓰이고 있어요. 공항 출입국 심사, 건물 출입 관리, 심지어 편의점 결제 시스템에도 적용되고 있죠. 개발자로서 이런 시스템을 만들거나 연동할 때, 몇 가지를 꼭 생각해봐야 해요.
첫째, AI 모델의 출력은 확률이지 사실이 아니라는 점을 사용자와 의사결정자에게 명확히 전달해야 해요. "이 사람일 확률이 높다"와 "이 사람이다"는 완전히 다른 말인데, 시스템 설계에서 이 차이가 묻히는 경우가 너무 많아요.
둘째, 편향 테스트는 선택이 아니라 필수예요. 한국인 얼굴 데이터로 충분히 학습되지 않은 해외 모델을 그대로 가져다 쓰면 예상치 못한 오류가 날 수 있어요. 성별, 연령대, 조명 조건 등 다양한 시나리오에서 테스트하는 게 중요해요.
셋째, AI 시스템이 사람의 권리에 영향을 미치는 결정에 사용될 때는 반드시 사람의 검토 단계가 포함되어야 해요. 이걸 "human-in-the-loop"라고 하는데요, AI가 후보를 제시하고 최종 판단은 사람이 하는 구조를 만드는 거예요.
마무리
기술이 강력할수록, 그 기술이 틀렸을 때의 피해도 커져요. AI 얼굴인식의 오인 체포는 "알고리즘이 실수할 수 있다"는 뻔한 교훈이 아니라, 시스템을 설계하는 개발자가 그 실수의 결과까지 책임져야 한다는 이야기예요.
여러분이 만드는 AI 시스템에 "이 결과가 틀릴 수 있다"는 전제가 설계에 얼마나 반영되어 있나요?
🔗 출처: Hacker News
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공