한 트윗이 던진 묵직한 질문
해시코프(HashiCorp) 창업자이자 유명 개발자인 미첼 하시모토(Mitchell Hashimoto)가 최근 짧은 트윗 하나를 올렸어요. 내용은 이래요. "나는 이제 통째로 'AI 정신증(AI psychosis)'에 빠진 회사들이 있다고 강하게 믿는다."
혹시 해시코프가 익숙하지 않으신 분들을 위해 잠깐 설명하면요, 해시코프는 Terraform, Vault, Consul, Nomad 같은 인프라 도구를 만든 회사예요. 클라우드 시대의 핵심 도구들을 만들어낸 곳이라 개발자들 사이에서 영향력이 큰 인물의 발언이라 가볍게 볼 게 아니에요. 미첼 본인은 AI에 대해 부정적인 사람도 아니에요. 오히려 적극적으로 AI 도구를 활용하고, Ghostty라는 터미널 에뮬레이터를 만들면서 AI 코딩 도구를 광범위하게 써본 사람이거든요.
그런 사람이 "AI 정신증"이라는 강한 표현을 쓴 게 흥미로워요. 정신증이라는 말은 원래 현실과 환상을 구분하지 못하는 정신 상태를 가리키는 의학 용어인데, 미첼은 이걸 비유적으로 가져와서 "회사가 AI에 대해 비현실적인 기대와 의사결정에 빠진 상태"를 묘사한 거예요.
AI 정신증, 구체적으로 어떤 모습일까
미첼이 트윗에서 구체적인 사례까지 나열하진 않았지만, 최근 업계에서 벌어지는 일들을 보면 그가 무슨 얘기를 하는지 짐작이 가요. 몇 가지 패턴을 풀어볼게요.
첫 번째 패턴은 "AI가 곧 모든 걸 자동화한다"는 전제로 한 대규모 해고예요. 2025년 들어 여러 빅테크와 중견 IT 회사들이 "AI로 생산성이 올라가니까"라는 이유로 엔지니어, 디자이너, 콘텐츠 인력을 정리하고 있어요. 하지만 실제로 AI가 그만큼 일을 해주고 있느냐고 물으면, 내부에서는 "아직 그 정도는 아니다"라는 목소리가 나오는 경우가 많아요. 의사결정이 현실보다 앞서 나가버린 상황이죠.
두 번째 패턴은 무리한 "AI 우선" 제품 전환이에요. 기존에 잘 돌아가던 제품을 갑자기 "AI로 다시 짠다"고 선언하고, 핵심 기능들을 챗봇 인터페이스로 바꾸려는 시도들이 있어요. 사용자들은 "그냥 버튼 클릭으로 끝나던 일을 왜 AI한테 말로 시켜야 하지?" 하고 어리둥절해하는데, 회사 안에서는 "AI 네이티브 제품"이라는 슬로건이 의사결정을 지배하는 거예요.
세 번째 패턴은 검증 없는 결과물의 양산이에요. AI가 코드, 문서, 디자인을 빠르게 만들어내니까 그걸 "확인 없이 그대로 배포"하는 흐름이 생기고 있어요. 미첼이 평소 강조하는 게 "AI 코딩 도구는 강력하지만, 사람이 진지하게 리뷰해야 한다"는 거였거든요. 그런데 일부 조직에서는 그 리뷰 단계를 "속도 저하 요인"으로 보고 건너뛰기 시작했어요. 결과는 보안 취약점, 미묘한 버그, 일관성 없는 제품 경험으로 나타나죠.
네 번째 패턴은 AI에 대한 종교적 믿음이에요. 어떤 회사들에서는 AI 도입에 대해 의문을 제기하는 직원이 곧바로 "변화에 저항하는 사람"으로 낙인찍힌다고 해요. 이성적 토론이 사라지고, AI 도입 자체가 목적이 돼버린 상황이죠. 미첼이 "정신증"이라는 강한 단어를 쓴 데는 이런 측면도 있었을 거예요.
AI 도입의 "건강한 모습"은 어떤 걸까
그렇다고 AI를 안 써야 한다는 얘기는 절대 아니에요. 미첼 본인이 AI 코딩 도구의 적극적 사용자이기도 하고요. 핵심은 현실을 정확히 보고, 의사결정의 근거를 검증하면서 도입하는 거예요.
실제로 잘 도입된 사례들을 보면 몇 가지 공통점이 있어요. 우선 사람과 AI의 역할 분담이 명확해요. AI가 초안을 만들고, 사람이 검토하고 결정하는 식이죠. "AI가 다 한다"가 아니라 "AI가 80%를 빠르게 해주고, 사람이 마지막 20%를 책임진다"는 구조예요.
그리고 측정 가능한 지표로 검증해요. "AI 도입 후 코드 리뷰 시간이 얼마나 줄었는지", "버그 발생률은 어떻게 변했는지", "제품 출시 속도는 빨라졌는지" 같은 걸 추적해야 해요. 그냥 "AI 쓰니까 좋더라"가 아니라요. 또 단계적 도입도 중요해요. 작은 팀, 작은 프로젝트에서 시작해서 효과를 확인한 다음 확장하는 거죠.
한국 개발자에게 주는 시사점
한국 IT 업계에서도 비슷한 현상이 보이고 있어요. "AI 전환"이라는 슬로건 아래 제품 방향을 급선회하거나, AI 도입을 명분으로 인력 구조를 바꾸려는 움직임들이 있죠. 그래서 우리도 미첼의 경고를 한 번쯤 곱씹어볼 만해요.
개발자 개인 입장에서는 두 가지를 생각해볼 수 있어요. 첫째, AI 도구를 적극적으로 익혀서 생산성을 올리되, 결과물의 품질을 검증하는 능력을 함께 키우는 거예요. AI가 만든 코드를 그대로 커밋하는 게 아니라, 왜 이렇게 짰는지 이해하고 필요하면 고치는 능력. 이게 앞으로 더 가치 있어질 거예요. 둘째, 회사에서 "AI로 다 해결된다"는 무리한 기대가 보일 때 데이터로 반박할 수 있는 근거를 준비해두는 것도 중요해요. "이 기능은 AI가 잘 못하는 영역이다", "이 작업은 사람이 검토 안 하면 위험하다" 같은 구체적 사례들이요.
조직 의사결정자 입장에서는 "AI 도입을 결정하기 전에, 도입 후 무엇이 어떻게 달라질지 측정 가능한 형태로 정의했는가?"를 자문해볼 만해요. 그리고 직원들이 AI 도입에 대해 우려를 제기할 때, 그걸 "저항"이 아니라 "리스크 시그널"로 받아들이는 문화를 만드는 것도 중요해요. 가장 위험한 건 모두가 같은 방향을 보고 있는데 아무도 "이거 정말 맞나?"를 묻지 않는 상황이거든요.
마무리
AI는 분명 강력한 도구예요. 그리고 잘 활용하면 개발자 한 명이 예전에는 상상하기 어려웠던 양의 일을 해낼 수 있어요. 하지만 도구가 강력할수록 그걸 쓰는 사람과 조직의 판단력이 더 중요해져요. 망치가 강력하다고 모든 문제를 못으로 보면 안 되는 것처럼요. 미첼의 "AI 정신증" 발언은 결국 "AI를 쓰되, 현실을 잊지 말자"는 메시지로 읽혀요.
여러분은 어떻게 생각하세요? 주변에서 "AI 정신증"이라고 부를 만한 사례를 본 적 있으신가요? 그리고 여러분의 조직은 AI 도입에 있어서 건강한 균형을 잡고 있다고 느끼시나요, 아니면 어느 쪽으로 너무 기울어 있다고 느끼시나요?
🔗 출처: Hacker News
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공