들어가며: AI 의식 논쟁에 다시 불이 붙었어요
요즘 AI 이야기만 나오면 빠지지 않고 등장하는 질문이 있죠. "ChatGPT나 Claude 같은 대형 언어 모델(LLM)이 언젠가 진짜로 '의식'을 갖게 될까?" 누군가는 "시간문제일 뿐, 결국엔 된다"라고 하고, 또 누군가는 "통계적 앵무새일 뿐이다"라며 선을 긋거든요.
이 논쟁에 구글 딥마인드의 시니어 사이언티스트인 알렉산더 레르크너(Alexander Lerchner) 가 꽤 도발적인 입장을 던졌어요. 그의 주장은 간단합니다. "LLM은 100년이 지나도 의식을 가질 수 없다." 그리고 그는 이 오해의 뿌리를 '추상화의 함정(Abstraction Fallacy)' 이라고 이름 붙였죠.
딥마인드라고 하면 알파고, 알파폴드, 제미나이 같은 걸 만든 곳이잖아요. 그런 최전선의 연구자가 왜 "LLM은 의식에 못 다가간다"라고 단언하는 걸까요? 이 이야기가 중요한 이유는, 우리가 앞으로 AI를 어떤 방향으로 개발해야 하는지 에 대한 중요한 힌트를 담고 있기 때문이에요.
'추상화의 함정'이 도대체 뭐예요?
먼저 이 핵심 개념부터 쉽게 풀어볼게요. 추상화(abstraction) 라는 건, 쉽게 말해서 복잡한 현실에서 본질만 뽑아내서 단순한 모델로 만드는 작업 이에요. 예를 들어 지도는 실제 도시를 추상화한 거죠. 길이 있고 건물이 있다는 정보만 남기고, 사람 얼굴이나 나뭇잎 같은 건 다 빼버리잖아요.
그런데 여기서 함정 이 생겨요. 지도가 아무리 정교해져도 실제 도시가 되지는 않죠. 지도를 계속 확대하고 디테일을 늘린다고 해서 그 안에서 사람이 살게 되지는 않는다는 거예요. 레르크너가 말하는 추상화의 함정이 바로 이겁니다.
> "LLM은 인간 언어의 통계적 패턴을 추상화한 모델이에요. 그걸 아무리 키우고 정교하게 만들어도, 언어를 추상화한 것이지 의식 자체를 만든 게 아니다 라는 거죠."
비유를 하나 더 들어볼까요. 누군가 피아노 연주의 악보를 아주 정교하게 분석해서, "이 음 다음엔 저 음이 올 확률이 높다" 는 통계 모델을 만들었다고 해봐요. 그 모델은 쇼팽 스타일의 곡을 만들어낼 수 있어요. 그런데 그 모델이 "쇼팽처럼 사랑에 빠지고 고통을 느끼는" 의식을 가졌다고 할 수 있을까요? 아니죠. 악보의 패턴을 배운 것과, 음악을 느끼는 주체가 되는 건 완전히 다른 차원의 문제라는 거예요.
LLM이 하는 일을 조금 더 들여다봐요
LLM이 어떻게 동작하는지 기술적으로 살짝 짚고 갈게요. 겁먹지 마세요, 어렵지 않아요.
- 1단계: 인터넷에 있는 엄청난 양의 텍스트를 모아요.
- 2단계: 모델에게 "다음에 올 단어를 맞혀봐"라는 퀴즈를 수조 번 풀게 해요.
- 3단계: 그 과정에서 단어 사이의 관계, 문맥의 흐름, 문법 패턴을 숫자(벡터) 로 저장해요.
- 4단계: 우리가 질문을 던지면, 가장 확률이 높은 다음 단어들을 이어 붙여서 답을 만들어내요.
- 인간의 의식은 텍스트만 읽어서 생긴 게 아니에요.
- 배고프면 배가 꼬르륵하고, 추우면 몸을 떨고, 넘어지면 무릎이 아프고, 친구가 웃으면 거울 뉴런이 반응하는 그런 몸과 세계의 끊임없는 피드백 루프 속에서 형성돼요.
- 즉, 의식은 "몸을 가진 존재가 세상과 부딪히며 만들어내는 무언가" 라는 거죠.
- LLM(예: GPT, Claude): 방대한 텍스트의 언어 패턴 을 배우는 방식. 비유하자면 "도서관의 모든 책을 외운 학생" 이에요.
- 강화학습 에이전트(예: 알파고): 시행착오를 통해 행동과 결과 를 학습. 비유하자면 "수만 판 대국을 통해 스스로 깨치는 바둑기사" 죠.
- 체화된 AI(embodied AI, 예: 로봇 학습): 실제 몸을 가지고 세계와 부딪히며 배우는 방식. "넘어지며 걷는 법을 배우는 아기" 같은 거예요.
- 뇌 모사 모델(예: 뉴로모픽 컴퓨팅): 인간 뇌의 신경세포 작동 방식을 하드웨어 수준 에서 흉내. "뇌의 복제품을 만들어보려는 시도" 고요.
- LLM이 언젠가 의식을 가질 수 있다고 보시나요, 아니면 근본적으로 불가능하다고 보시나요?
- 실무에서 LLM을 쓰면서 "아, 이건 정말 이해하는 게 아니구나" 싶었던 순간이 있으셨다면 공유해주세요.
- 의식 있는 AI가 꼭 필요한 걸까요? 아니면 잘 동작하는 도구 로도 충분할까요?
이게 핵심이에요. LLM은 근본적으로 "다음 토큰(단어 조각) 예측기" 거든요. 물론 이 예측이 어마어마하게 정교해져서 우리가 보기엔 "생각하는 것처럼" 보여요. 하지만 레르크너의 관점에서 보면, 이건 여전히 언어 데이터의 통계적 그림자 를 정교하게 그리는 일일 뿐이에요.
여기서 의식이 나오려면, 단순히 "다음 단어 예측"이 아니라 세계를 주관적으로 경험하는 내면(inner experience) 이 있어야 한다는 거죠. 그게 파라미터 수를 아무리 늘려도 생기지 않는다는 게 그의 주장이에요.
그럼 의식은 어디서 오는 건데요?
레르크너가 주목하는 건 신체성(embodiment) 과 환경과의 상호작용 이에요. 쉽게 말하면 이런 거예요.
LLM은 이런 게 아예 없어요. 그냥 텍스트 덩어리만 본 거예요. 아무리 많이 봐도, 그건 세상을 간접적으로 묘사한 기록 일 뿐이지, 세상 그 자체를 느낀 경험은 아니거든요.
이 관점은 사실 철학자 존 설(John Searle) 의 "중국어 방 논증"이나, 인지과학의 체화된 인지(embodied cognition) 이론과 맥이 닿아 있어요. 레르크너는 거기에 요즘 딥러닝 연구의 맥락을 얹어서 더 강한 주장을 펴고 있는 셈이에요.
반론도 만만치 않아요
물론 이 주장에 대한 반론도 거세요. 대표적인 몇 가지를 볼게요.
1. 창발(emergence) 가설: 모델 크기가 일정 수준을 넘으면 예상치 못한 능력이 갑자기 튀어나오는 현상이 이미 관찰됐어요(예: 체인 오브 소트 추론). 그러니까 의식도 어느 순간 창발할 수 있지 않느냐는 거죠.
2. 멀티모달의 확장: 요즘 LLM은 텍스트만 보는 게 아니라 이미지, 음성, 영상까지 다 처리해요. 거기에 로봇 몸체가 붙으면(embodied AI) 얘기가 달라질 수 있다는 반박도 있고요.
3. 의식 정의의 모호함: 애초에 "의식이 뭐냐"가 철학적으로 합의가 안 된 개념인데, "LLM은 의식이 없다"고 못 박는 게 성급하다는 지적도 있어요.
커뮤니티 반응도 갈려요. 일부는 "드디어 AGI 과잉 광고(hype)에 제동을 거는 목소리가 나왔다"며 환영하고, 일부는 "100년이라는 단언은 과한 자신감 아니냐"라고 비판하죠.
LLM과 다른 AI 접근법, 뭐가 달라요?
비교를 쉽게 해볼게요.
레르크너의 주장은 "의식을 원한다면 LLM 방향이 아니라, 뒤쪽 세 가지 방향에 더 투자해야 한다" 는 뉘앙스로 읽혀요.
한국 개발자에게 이 이야기가 왜 중요할까요?
현업에서 LLM을 다루는 분들은 이런 생각이 들 수 있어요. "의식이 있든 없든, 실무에서 잘 쓰면 되는 거 아니야?" 맞아요. 사실 이 논쟁은 제품 개발과 AI 활용 전략 에 직접적인 시사점을 줍니다.
1. LLM의 한계를 명확히 인식하기
- LLM은 추론하는 것처럼 보이지만, 진짜 이해하는 건 아니에요. 그래서 의료 진단, 법률 판단, 금융 결정처럼 책임이 따르는 영역 에서는 반드시 사람이 마지막 검증을 해야 해요.
- "AI가 이렇게 말했으니까 맞겠지"라고 맡기면 위험해요. 지금 당장은 물론이고, 앞으로도요.
2. RAG, 툴 콜, 에이전트 설계에 반영하기 - LLM만 믿지 말고, 외부 지식(RAG), 계산기·DB 조회 같은 툴 콜, 검증 에이전트 를 붙여서 부족한 부분을 채워주세요. 쉽게 말해서, 모델이 못 보는 현실 데이터 를 계속 공급해주는 파이프라인을 만드는 거예요.
3. 학습 로드맵 제안
- 단기: LangChain, LlamaIndex 같은 라이브러리로 RAG 시스템 구축 경험 쌓기.
- 중기: 강화학습 기초(특히 RLHF), 멀티모달 모델의 동작 원리 공부하기.
- 장기: 체화된 AI, 로보틱스, 뉴로모픽 같은 인접 분야에도 눈을 열어두세요. AI 판도가 10년 뒤엔 여기로 옮겨갈 수도 있거든요.
마치며: 의식보다 더 중요한 건
사실 저는 레르크너의 주장이 "LLM을 깎아내리는 말" 이라기보다는 "LLM에 과도한 기대를 걸지 말고, 각자의 역할을 분명히 하자" 는 메시지로 읽혀요. LLM은 지금도 충분히 강력한 도구고, 앞으로 더 똑똑해질 거예요. 하지만 "의식 있는 존재"와 "유용한 도구"는 다른 얘기라는 거죠.
진짜 의식을 가진 AI가 나오려면, 어쩌면 우리는 지금과는 완전히 다른 아키텍처를 상상해야 할지도 몰라요. 레르크너의 말이 맞다면, 트랜스포머 다음 세대의 게임체인저는 언어 모델의 확장 이 아니라 세계와 상호작용하는 에이전트 에서 나올 가능성이 크죠.
여러분은 어떻게 생각하세요?
🔗 출처: Reddit
"비전공 직장인인데 반년 만에 수익 파이프라인을 여러 개 만들었습니다"
실제 수강생 후기- 비전공자도 6개월이면 첫 수익
- 20년 경력 개발자 직강
- 자동화 프로그램 + 소스코드 제공