처리중입니다. 잠시만 기다려주세요.
TTJ 코딩클래스
정규반 단과 자료실 테크 뉴스 코딩 퀴즈
테크 뉴스
Reddit 2026.04.09 24

[심층분석] OpenAI CEO 샘 올트먼은 정말 AI를 이해하고 있을까? — 뉴요커 폭로 기사가 던지는 질문

Reddit 원문 보기
[심층분석] OpenAI CEO 샘 올트먼은 정말 AI를 이해하고 있을까? — 뉴요커 폭로 기사가 던지는 질문

들어가며: "AI 시대의 얼굴"에 대한 불편한 질문

샘 올트먼(Sam Altman)이라는 이름을 들으면 어떤 이미지가 떠오르나요? ChatGPT를 만든 회사의 CEO, AI 시대를 이끄는 기술 리더, 백악관에까지 영향력을 행사하는 테크 비저너리... 대부분 이런 이미지를 떠올릴 거예요.

그런데 최근 미국의 유명 매체 뉴요커(The New Yorker)에서 꽤 충격적인 폭로 기사가 나왔어요. OpenAI 내부에서 실제로 올트먼과 함께 일했던 엔지니어들과 임원들이 인터뷰에 응했는데, 그들의 증언을 종합하면 이런 거예요: "올트먼은 코딩도 거의 못 하고, 기본적인 머신러닝 개념도 혼동한다."

이게 왜 중요한 이야기일까요? 단순히 "CEO가 코딩을 못 한다"는 가십거리가 아니에요. 지금 전 세계에서 가장 영향력 있는 AI 회사의 수장이, 자기 회사가 만드는 기술의 기본조차 제대로 이해하지 못한다는 건 완전히 다른 차원의 문제거든요. 특히 그가 AI 안전성, 규제 방향, 기술 전략에 대해 미국 정부와 의회에 조언하는 위치에 있다는 걸 생각하면요.

오늘은 이 뉴요커 기사의 핵심 내용을 짚어보고, 이 사건이 AI 업계 전체에 던지는 질문들을 함께 생각해보려고 해요.


뉴요커 폭로의 핵심: 무엇이 드러났나

"기본 AI 용어를 혼동한다"

뉴요커 기사에서 가장 눈에 띄는 부분은 OpenAI 내부 엔지니어들의 증언이에요. 여러 명의 엔지니어가 공통적으로 이야기한 건, 올트먼이 프로그래밍 경험도 부족하고 머신러닝에 대한 이해도 얕다는 거예요. 그리고 이게 기본적인 AI 용어를 혼동하는 데서 드러난다고 해요.

이게 뭐가 문제인지 비유를 들어볼게요. 여러분이 병원에 갔는데, 원장 선생님이 "MRI"와 "X-ray"를 구분 못 하고 섞어서 이야기한다면 어떨까요? 물론 병원 경영을 잘 할 수는 있겠죠. 하지만 그 병원이 첨단 의료 기술의 최전선에 있다고 주장하면서 정부 의료 정책에 조언까지 한다면? 좀 불안하지 않을까요?

AI 분야에서 기본 용어를 혼동한다는 건 비슷한 맥락이에요. 예를 들어 머신러닝에서 "파인튜닝(fine-tuning)"과 "프롬프트 엔지니어링(prompt engineering)"은 완전히 다른 개념이거든요. 파인튜닝이라는 건, 쉽게 말해서 이미 학습된 AI 모델에 추가 데이터를 먹여서 특정 분야에 더 잘하도록 모델 자체를 변형하는 거예요. 반면 프롬프트 엔지니어링은 모델은 그대로 두고, 질문하는 방식을 잘 다듬어서 더 좋은 답을 이끌어내는 거죠. 하나는 모델을 바꾸는 거고, 하나는 질문을 바꾸는 건데, 이런 수준의 구분을 혼동한다면 기술 전략을 세울 때 큰 문제가 될 수 있어요.

올트먼의 배경: 스탠포드 중퇴, 그리고 Y Combinator

올트먼은 스탠포드 대학교 컴퓨터과학과에 입학했지만 2년 만에 중퇴했어요. 기사에서도 "학력으로 사람을 평가하려는 게 아니다"라고 전제하면서도, 세계에서 가장 가치 있는 상장 기업이 될 수도 있는 회사의 CEO로서 그를 둘러싼 신화(myth)가 중요하다고 지적해요.

사실 테크 업계에서 대학 중퇴는 그 자체로 문제가 되지 않아요. 스티브 잡스, 빌 게이츠, 마크 저커버그 모두 중퇴했잖아요. 하지만 이들과 올트먼 사이에는 결정적인 차이가 있어요. 잡스는 제품 디자인과 사용자 경험에 대한 깊은 직관이 있었고, 게이츠는 직접 코드를 작성한 프로그래머였고, 저커버그는 페이스북의 초기 코드를 직접 짰어요. 즉, 중퇴했지만 자기 회사의 핵심 기술에 대한 직접적인 이해가 있었던 거죠.

올트먼의 경력은 좀 달라요. 그는 Y Combinator(와이 컴비네이터)라는 실리콘밸리의 유명 스타트업 액셀러레이터의 대표를 지냈어요. Y Combinator가 뭐냐면, 쉽게 말해서 초기 스타트업에 투자하고 멘토링해주는 곳이에요. 에어비앤비, 드롭박스 같은 회사들이 여기서 시작했죠. 올트먼은 이 조직을 잘 이끌면서 투자자이자 경영자로서의 명성을 쌓았어요. 기술자로서가 아니라요.

"제다이 마인드 트릭"이라 불리는 설득의 기술

기사에서 특히 인상적인 부분은, 올트먼과 함께 일한 테크 인사이더가 그의 능력을 "제다이 마인드 트릭(Jedi mind tricks)"이라고 표현한 거예요. 스타워즈에서 제다이가 손을 흔들면서 "이건 당신이 찾는 드로이드가 아닙니다"라고 하면 상대방이 홀린 듯 넘어가는 그 장면 아시죠? 올트먼이 기술적 부족함을 보드룸(회의실) 정치와 설득력으로 메워왔다는 거예요.

전 OpenAI 연구원 캐롤 웨인라이트(Carroll Wainwright)의 증언이 이걸 잘 보여줘요: "그는 서류상으로는 자신을 제약하는 구조를 만들어놓아요. 그런데 막상 그 제약이 적용되어야 할 시점이 오면, 그 구조를 없애버리죠." 이건 2023년 11월에 있었던 올트먼 해임과 복귀 사건을 떠올리면 더 잘 이해가 돼요. 당시 OpenAI 이사회가 올트먼을 해임했지만, 불과 며칠 만에 복귀하면서 오히려 이사회 구성원들이 교체됐었잖아요.


기술 리더의 기술 이해도는 얼마나 중요한가

CEO가 반드시 코딩을 해야 할까?

이 질문에 대해 먼저 공정하게 짚고 넘어갈게요. CEO가 코딩을 할 줄 알아야 한다는 건 아니에요. 회사가 커지면 CEO의 역할은 기술 구현이 아니라 비전 설정, 전략 수립, 자원 배분, 인재 확보로 바뀌거든요. 팀 쿡이 아이폰의 회로를 직접 설계하지 않는 것처럼요.

하지만 여기서 중요한 구분이 있어요. "코딩을 안 하는 것"과 "기술을 이해하지 못하는 것"은 완전히 다른 문제예요.

예를 들어볼게요. 여러분이 스타트업을 만들었다고 해요. CEO가 직접 React 코드를 짜지 않아도 괜찮아요. 하지만 CEO가 "프론트엔드"와 "백엔드"의 차이를 모르고, "API가 뭔지" 설명을 못 하고, 기술팀이 "이건 3개월 걸립니다"라고 하면 왜 그런지 이해 못 한다면? 그건 문제가 되겠죠. 잘못된 결정을 내릴 수 있으니까요.

AI 회사에서 이건 더 심각해요. AI 분야는 기술적 판단이 곧 제품 전략이고, 안전성 결정이고, 규제 대응이거든요. 모델을 더 크게 만들 건지, 더 효율적으로 만들 건지, 어떤 안전 장치를 넣을 건지, 어떤 데이터로 학습시킬 건지 — 이런 결정 하나하나가 기술에 대한 이해 없이는 제대로 내릴 수 없어요.

"스케일의 신"과 기술 전략의 관계

기사에서 올트먼을 "스케일의 신(god of scale)의 수석 사도"라고 묘사하는 부분이 있어요. 이건 AI 업계의 중요한 논쟁과 연결돼요.

AI 업계에는 크게 두 가지 철학이 있거든요:

1. 스케일링 가설(Scaling Hypothesis): 모델을 더 크게 만들고, 더 많은 데이터를 넣고, 더 많은 컴퓨팅 파워를 때려넣으면 AI가 알아서 더 똑똑해진다는 관점이에요.
2. 효율성/아키텍처 중심 접근: 모델의 구조를 더 똑똑하게 설계하고, 학습 방법을 개선하는 게 더 중요하다는 관점이에요.

올트먼과 OpenAI는 전통적으로 첫 번째 관점, 즉 "크면 클수록 좋다"는 입장을 취해왔어요. GPT-3에서 GPT-4로, 그리고 그 이후 모델로 갈수록 파라미터 수와 학습 데이터가 급격히 늘어난 것도 이 철학 때문이에요.

그런데 여기서 문제가 생겨요. 만약 CEO가 기술을 깊이 이해하지 못한다면, "그냥 더 크게 만들면 된다"는 단순한 전략에 매몰될 수 있거든요. 왜냐하면 이건 기술적 뉘앙스를 이해하지 못해도 내릴 수 있는 결정이니까요. "데이터센터 더 지어", "GPU 더 사", "모델 더 크게" — 이건 사실 경영 결정이지 기술 결정이 아니에요.

반면 "어떤 아키텍처를 채택할 건지", "어떤 학습 기법이 더 효율적인지", "어디에 안전 장치를 넣을 건지" 같은 진짜 기술 결정은 기술적 이해 없이는 판단이 어려워요. 그리고 기사에서 드러나는 건, 바로 이런 판단이 올트먼에게는 어렵다는 거예요.


업계 맥락: 이 폭로가 의미하는 것들

마이크로소프트 임원의 경고

기사에서 가장 강력한 발언은 마이크로소프트의 시니어 임원이 한 말이에요: "그가 결국 버니 매도프나 샘 뱅크먼-프리드 수준의 사기꾼으로 기억될 작지만 실질적인 가능성이 있다고 생각합니다."

이건 정말 무거운 발언이에요. 왜냐하면 마이크로소프트는 OpenAI에 수십조 원을 투자한 최대 투자자거든요. 투자자 측 임원이 자기가 투자한 회사의 CEO를 역사적인 사기꾼들과 비교한다는 건 보통 일이 아니에요.

버니 매도프는 월가 역사상 최대 규모의 폰지 사기(약 65조 원)를 벌인 인물이고, 샘 뱅크먼-프리드(SBF)는 암호화폐 거래소 FTX를 운영하면서 고객 자금을 빼돌린 인물이에요. 둘 다 "천재적인 금융인"이라는 이미지를 구축했다가, 실체가 드러나면서 몰락했다는 공통점이 있어요.

물론 이 발언이 올트먼이 실제로 사기를 치고 있다는 뜻은 아니에요. 하지만 "실체보다 이미지가 부풀려져 있다"는 우려를 마이크로소프트 내부에서도 느끼고 있다는 건 상당히 의미심장해요.

테크 리더의 "기술 신화" 패턴

사실 이런 현상은 올트먼만의 문제가 아니에요. 실리콘밸리에는 오래된 패턴이 있어요:

  • 엘리자베스 홈즈(Theranos): 혁신적인 혈액 검사 기술을 개발했다고 주장했지만, 기술 자체가 작동하지 않았어요. "기술 천재" 이미지를 십 수 년간 유지하면서 수조 원의 투자를 받았죠.
  • 애덤 노이만(WeWork): 부동산 임대업을 "테크 회사"로 포장해서 기업 가치를 수십조 원으로 부풀렸어요.
  • 트래비스 캘러닉(Uber): 카리스마적 리더십으로 회사를 키웠지만, 내부 문화 문제와 리더십 결함이 결국 드러났어요.
  • 이 패턴의 공통점은 카리스마와 스토리텔링이 기술적 실체를 대체하는 순간이에요. 투자자들은 스토리에 투자하고, 미디어는 영웅 서사를 만들고, 대중은 그 서사를 소비하죠. 그리고 실체가 드러나는 건 한참 뒤의 일이에요.

    OpenAI의 구조적 변화와 연결

    이 기사가 나온 타이밍도 중요해요. OpenAI는 최근 몇 가지 큰 변화를 겪고 있거든요:

  • 비영리에서 영리 기업으로의 전환: OpenAI는 원래 "인류의 이익을 위한 AI"를 만들겠다는 비영리 조직으로 시작했어요. 하지만 최근 영리 기업으로의 전환을 추진 중이에요.
  • 핵심 인력 이탈: 공동 창업자 일리야 수츠케버(Ilya Sutskever)를 비롯해 여러 핵심 연구원들이 회사를 떠났어요.
  • 대규모 자금 조달: 수조 원 단위의 투자 유치를 계속하고 있고, 기업 가치가 천문학적으로 올라가고 있어요.
  • 데이터센터 확장의 어려움: 기사 하단에도 언급되어 있듯이, OpenAI의 대규모 데이터센터 건설 계획이 난관에 부딪히고 있어요.
  • 이런 상황에서 "CEO가 기술을 제대로 이해하지 못한다"는 폭로는 단순한 가십이 아니라, 회사의 방향성 자체에 대한 의문을 제기하는 거예요. 비영리에서 영리로의 전환, 핵심 인력 이탈, 끝없는 자금 요구 — 이 모든 것이 올트먼의 "스토리텔링"에 의해 주도되고 있다면, 기술적 근거는 충분한 걸까요?


    한국 개발자에게 주는 시사점

    1. "AI를 안다"와 "AI 용어를 안다"는 다르다

    이 기사에서 한국의 개발자들이 가져갈 수 있는 첫 번째 교훈은, 기술에 대한 진짜 이해와 표면적 이해의 차이예요.

    요즘 AI 붐 때문에 많은 비기술직 분들도 AI 용어를 사용해요. "LLM이 어쩌고", "트랜스포머가 어쩌고" 이런 이야기를 하죠. 하지만 "트랜스포머가 뭔지 한 문장으로 설명해봐"라고 하면 말문이 막히는 경우가 많아요.

    개발자로서 여러분이 기억할 건 이거예요: 용어를 아는 것과 개념을 이해하는 것은 완전히 다르다는 거. 면접에서든, 회의에서든, 기술 블로그를 쓸 때든, "이걸 비전공자에게 설명할 수 있는가?"를 자기 이해도의 척도로 삼으면 좋아요.

    예를 들어 "파인튜닝을 한다"고 말하는 건 쉽지만, 실제로 이해하려면 이런 질문에 답할 수 있어야 해요:

  • 파인튜닝은 모델의 어떤 부분을 바꾸는 건지?
  • 전체 파라미터를 다 바꾸는 풀 파인튜닝과 일부만 바꾸는 LoRA의 차이는 뭔지?
  • 파인튜닝 데이터가 부족하면 어떤 문제가 생기는지?
  • RAG(검색 증강 생성)로 대체할 수 있는 상황은 언제인지?
  • 2. 기술 리더의 역할에 대한 재고

    두 번째 시사점은 조직에서 기술 리더의 역할에 대한 거예요. 한국 IT 업계에서도 비슷한 상황을 자주 볼 수 있거든요.

    CTO나 기술 임원이 실제 기술보다 관리와 정치에 더 능한 경우, 조직 전체의 기술적 판단이 흐려질 수 있어요. 특히 위험한 패턴은 이런 거예요:

  • 유행하는 기술을 무분별하게 도입하는 것: "AI 넣어야 해", "블록체인 해야 해" 같은 결정이 기술적 이해 없이 내려지는 경우
  • 기술 부채를 이해하지 못하는 것: "왜 이걸 다시 만들어야 하는데?"라는 질문에 기술적으로 답하지 못하는 리더
  • 엔지니어의 경고를 무시하는 것: "그건 가능해, 그냥 해"라고 밀어붙이는 경우
  • 여러분이 지금 주니어 개발자라면, 미래에 기술 리더가 됐을 때 이런 함정에 빠지지 않으려면 꾸준히 기술적 기반을 유지하는 게 중요해요. 직접 코딩을 하지 않더라도, 새로운 기술의 원리를 이해하고 팀원들과 기술적 대화를 할 수 있는 수준은 유지해야 하거든요.

    3. "스토리"와 "실체"를 구분하는 능력

    세 번째, 그리고 어쩌면 가장 실용적인 시사점은 기술 트렌드를 볼 때 스토리와 실체를 구분하는 눈을 기르라는 거예요.

    한국에서도 AI 관련 회사나 서비스가 우후죽순 생기고 있잖아요. 이때 이런 질문을 스스로에게 해보면 좋아요:

  • 이 회사(또는 서비스)가 말하는 "AI 기술"의 실체가 뭔지? 정말 자체 모델을 학습시킨 건지, 아니면 OpenAI API를 래핑(wrapping)한 건지?
  • 리더가 기술적 배경을 가지고 있는지? 아니면 마케팅/금융 배경인지?
  • 투자 규모와 실제 매출 사이의 괴리가 얼마나 큰지?
  • 기사에서도 언급된 것처럼, 올트먼은 "서류상으로는 제약을 만들어놓고, 막상 그 제약이 적용될 때가 되면 없애버린다"는 패턴을 보여왔어요. 이런 패턴은 한국 테크 업계에서도 볼 수 있어요. "개인정보 보호를 최우선으로 합니다"라고 해놓고 실제로는 데이터를 무분별하게 수집한다든지, "오픈소스를 지향합니다"라고 해놓고 핵심 기술은 절대 공개하지 않는다든지 하는 경우요.


    CEO의 기술 이해도: 글로벌 테크 기업들의 스펙트럼

    이 사안을 더 넓은 맥락에서 보기 위해, 다른 주요 AI 기업 리더들의 기술 배경을 비교해볼게요:

    | 리더 | 회사 | 기술 배경 |
    |------|------|----------|
    | 젠슨 황 | NVIDIA | 전기공학 석사, 칩 설계 엔지니어 출신 |
    | 다리오 아모데이 | Anthropic | 물리학 PhD, OpenAI 연구 VP 출신 |
    | 데미스 허사비스 | Google DeepMind | 인지신경과학 PhD, AI 연구자 |
    | 마크 저커버그 | Meta | 하버드 CS 중퇴, 직접 코딩 |
    | 샘 올트먼 | OpenAI | 스탠포드 CS 중퇴, 투자자/경영자 출신 |

    다른 AI 리더들과 비교하면 올트먼의 기술적 배경이 상대적으로 얇다는 게 눈에 보이죠. 특히 직접 경쟁 관계인 Anthropic의 다리오 아모데이는 물리학 박사이자 OpenAI에서 연구 부사장을 지낸 연구자 출신이에요. NVIDIA의 젠슨 황은 반도체 엔지니어 출신이고, DeepMind의 데미스 허사비스는 AI 연구로 노벨상까지 공동 수상했죠.

    물론 기술 배경이 곧 좋은 CEO를 만드는 건 아니에요. 하지만 AI처럼 기술이 곧 제품인 분야에서는, CEO의 기술 이해도가 회사의 전략적 판단의 질에 직접적인 영향을 미친다는 건 부정하기 어려워요.


    반론도 생각해보기: 올트먼의 진짜 능력

    공정하게 반대 측 논리도 짚어볼게요. 올트먼을 단순히 "사기꾼"이라고 단정하기엔 그가 이룬 것들도 분명히 있거든요:

  • ChatGPT를 세상에 내놓은 결정: ChatGPT를 일반 대중에게 공개하기로 한 건 기술적 결정이 아니라 전략적 결정이었고, 이건 결과적으로 AI 대중화의 분수령이 됐어요.
  • 인재 확보 능력: OpenAI가 세계 최고 수준의 AI 연구원들을 모을 수 있었던 건 올트먼의 비전과 설득력 덕분이기도 해요.
  • 투자 유치 능력: 기술이 아무리 좋아도 돈이 없으면 연구를 할 수 없어요. 올트먼은 마이크로소프트를 비롯한 거대 투자를 이끌어냈고, 이게 OpenAI의 연구를 가능하게 한 핵심 동력이에요.
  • 정치적 영향력: 미국 정부의 AI 정책에 영향을 미칠 수 있는 위치를 확보한 건, 회사의 생존과 성장에 분명히 기여했어요.
  • 이런 능력들이 가치 없는 건 절대 아니에요. 문제는 이런 능력이 기술적 이해를 대체할 수 있느냐는 거예요. 그리고 뉴요커 기사가 제기하는 핵심 질문도 바로 이거예요: 카리스마와 정치력이 기술적 판단까지 대체하고 있는 건 아닌가?


    마무리: 우리가 진짜 물어야 할 질문

    이 뉴요커 기사가 던지는 질문은 사실 올트먼 개인에 대한 것만이 아니에요. 더 큰 질문은 이런 거예요:

    "인류의 미래를 바꿀 수 있는 기술을 만드는 회사의 리더에게 우리는 어떤 수준의 기술적 이해를 요구해야 할까?"

    자동차 회사 CEO가 엔진의 기본 원리를 모르면 이상하다고 느끼잖아요. 제약 회사 CEO가 약물이 어떻게 작동하는지 전혀 모르면 불안하잖아요. 그런데 AI 회사 CEO가 머신러닝의 기본을 혼동하는 건... 괜찮은 걸까요?

    특히 AI는 다른 기술과는 다른 면이 있어요. AI의 결정은 사람들의 일자리, 정보 접근, 나아가 사회 구조 자체를 바꿀 수 있거든요. 그래서 이 기술을 이끄는 사람의 이해도는 단순한 경영 이슈가 아니라 사회적 이슈이기도 해요.

    여러분은 어떻게 생각하시나요?

  • AI 회사의 CEO에게 기술적 깊이가 반드시 필요하다고 보시나요, 아니면 뛰어난 경영 능력만으로도 충분하다고 보시나요?
  • 한국 테크 업계에서도 비슷하게 "기술 이미지"와 실제 기술력 사이의 괴리를 느낀 경험이 있으신가요?
  • 개발자로서, 기술적 이해가 부족한 리더 아래에서 일할 때 어떤 점이 가장 힘들었나요?
이런 이야기들을 댓글로 나눠주시면 좋겠어요. AI 시대에 "기술을 안다는 것"의 의미가 뭔지, 함께 고민해봐요.


🔗 출처: Reddit

이 뉴스가 유용했나요?

이 기술을 직접 배워보세요

파이썬으로 자동화를 시작해보세요

파이썬 기초부터 자동화까지 실전 강의.

파이썬 강의 보기

"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"

실제 수강생 후기
  • 비전공자도 6개월이면 첫 수익
  • 20년 경력 개발자 직강
  • 자동화 프로그램 + 소스코드 제공

매일 AI·개발 뉴스를 받아보세요

주요 테크 뉴스를 매일 아침 이메일로 전해드립니다.

스팸 없이, 언제든 구독 취소 가능합니다.