구글이 공개한 시계열 파운데이션 모델 TimesFM — 2억 파라미터로 16K 컨텍스트 지원
## 시계열 예측에도 파운데이션 모델 시대가 왔어요 구글 리서치에서 **TimesFM**이라는 시계열(Time-Series) 전용 파운데이션 모델을 공개했어요. 2억(200M) 파라미터 규모에 **16,000 토큰 길이의 컨텍스트 윈도우**를 지원하...
검색 엔진에 NSFW 필터를 직접 만든 이야기 — Marginalia의 실용적 접근법
## 독립 검색 엔진이 마주한 현실적인 문제 Marginalia라는 검색 엔진을 들어보신 적 있나요? 구글이나 빙 같은 대형 검색 엔진과는 완전히 다른 방향을 추구하는 독립 검색 엔진인데요. 광고 없이, 개인 블로그나 소규모 웹사이트 같은 "인터넷의...
1976년산 미니컴퓨터에서 트랜스포머를 학습시킨 사람이 있다
## 종이 테이프만 있으면 됩니다(?) "Attention Is All You Need"라는 2017년 논문이 현대 AI의 판도를 바꿨다는 건 다들 아실 거예요. 트랜스포머 아키텍처를 소개한 그 유명한 논문이죠. 그런데 누군가가 이걸 극한까지 밀...
[심층분석] 사진 한 장이면 실시간 얼굴 교체가 된다고? Deep-Live-Cam이 던지는 기술적 질문과 윤리적 숙제
## 사진 딱 한 장으로 실시간 얼굴 교체 — 이게 진짜 가능해졌어요 불과 2~3년 전만 해도 딥페이크(Deepfake)라고 하면, 고성능 GPU를 며칠씩 돌려서 겨우 몇 분짜리 영상을 만드는 수준이었어요. 학습 데이터로 수백 장의 사진이 필요했고,...
테크 뉴스를 읽는 당신,
직접 만들어볼 준비 되셨나요?
17가지 수익 모델 실습 · 144+ 강의 · 자동화 소스코드 제공
ARC-AGI-3 첫날부터 36% 달성 — AI 추론 벤치마크의 새로운 도전이 시작됐어요
## ARC-AGI가 뭔데요? 인공지능이 정말 "생각"을 할 수 있는지 테스트하는 벤치마크가 있어요. ARC-AGI(Abstraction and Reasoning Corpus for Artificial General Intelligence)라는 ...
양자화(Quantization), 바닥부터 제대로 이해하기
## AI 모델을 가볍게 만드는 마법, 양자화란? 요즘 로컬에서 LLM을 돌려보신 분이라면 "4bit 양자화", "GPTQ", "GGUF" 같은 단어를 한번쯤 보셨을 거예요. 모델 다운로드 페이지에 가면 같은 모델인데 용량이 70GB짜리도 있고 ...
트랜스포머는 사실 베이지안 네트워크였다? — AI 모델의 수학적 본질을 파헤치는 새 연구
## 트랜스포머, 우리가 아는 것과 모르는 것 요즘 AI 하면 트랜스포머(Transformer) 아키텍처를 빼놓을 수가 없죠. GPT, Claude, Gemini 같은 대규모 언어 모델(LLM)이 전부 트랜스포머 기반이고, 이미지 생성 모델이나 ...
[심층분석] 소프트웨어 개발자 채용 공고, 2025년 중반 이후 15% 증가 — AI 시대에도 개발자는 필요하다
## 들어가며: "개발자 시대는 끝났다"는 말, 정말이었을까? 2023년부터 2025년 초까지, 개발자 커뮤니티에서 가장 많이 들었던 말이 있어요. "AI가 코딩을 대체한다", "개발자 채용이 얼어붙었다", "테크 버블이 꺼졌다." 실제로 그 기간 ...
[심층분석] AI 트레이더 군단이 회의를 한다? TradingAgents가 보여주는 멀티에이전트 금융 트레이딩의 현재
## 진짜 트레이딩 회사처럼 AI를 조직한다면? 요즘 AI 업계에서 가장 뜨거운 키워드 중 하나가 바로 **멀티에이전트(Multi-Agent)** 시스템이에요. 하나의 거대한 AI가 모든 걸 다 하는 게 아니라, 여러 AI가 각자 전문 분야를 맡...
폰트 인식 모델을 밑바닥부터 학습시키며 배운 것들
## 이미지 속 폰트를 알아내는 문제 디자인 작업을 하다 보면 한 번쯤은 이런 경험이 있을 겁니다. 어떤 웹사이트나 포스터에서 마음에 드는 글꼴을 발견했는데, 그 폰트가 뭔지 알 수 없는 상황. WhatTheFont 같은 서비스를 써보기도 하지만...
tinybox: 오프라인에서 1200억 파라미터 AI를 돌리는 데스크탑 장비의 등장
## 클라우드 없이 초거대 모델을 돌린다고? tinygrad의 창업자 George Hotz가 만든 하드웨어 프로젝트 tinybox가 본격적으로 모습을 드러내고 있다. tinybox는 이름 그대로 '작은 상자'지만, 그 안에 담긴 성능은 전혀 작지 않...
2025 튜링상, 양자 정보 과학의 선구자 베넷과 브라사르에게 돌아가다
## 컴퓨터 과학계의 노벨상, 올해의 주인공은 ACM(미국컴퓨터학회)이 수여하는 튜링상(Turing Award)은 컴퓨터 과학 분야의 노벨상으로 불립니다. 올해 그 영예의 주인공은 **찰스 베넷(Charles H. Bennett)**과 **질 브라사...
2,000개의 혼합 정밀도 커널을 한 번에 — NumKong이 고성능 수치 연산의 판을 바꾸려 한다
## 혼합 정밀도 연산, 왜 지금 중요한가 딥러닝 모델이 거대해지면서 연산 효율성은 더 이상 "있으면 좋은 것"이 아니라 경제적 생존의 문제가 되었습니다. GPU 한 시간당 수 달러를 지불하는 클라우드 환경에서, 같은 결과를 절반의 연산으로 얻을 수...
MoonshotAI의 Attention Residuals: 트랜스포머 어텐션 메커니즘을 개선하는 새로운 접근
## 트랜스포머의 심장, 어텐션 메커니즘에 잔차 연결을 더하다 MoonshotAI가 GitHub에 공개한 'Attention Residuals' 프로젝트는 현대 AI 모델의 핵심인 트랜스포머 아키텍처의 어텐션 메커니즘을 개선하려는 연구입니다. 이름에...
[심층분석] 2021년 이후, 우리는 'A.I. 도미니' 시대를 살고 있다 — AI가 재정의한 기술 연대기
## 서기(A.D.)에서 AI기(A.I. Domini)로: 농담이 아닌 현실 서양 달력의 기준이 되는 **A.D.(Anno Domini, '주의 해')**라는 표현은 2천 년 넘게 인류의 시간을 구분해왔습니다. 그런데 최근 개발자 커뮤니티에서 흥미로...
Flash-KMeans: K-Means 클러스터링을 메모리 절반으로, 속도는 수십 배 빠르게
## 들어가며 클러스터링은 머신러닝에서 가장 기본적이면서도 가장 널리 쓰이는 비지도 학습 기법입니다. 그중에서도 K-Means는 1950년대에 제안된 이래 70년이 넘도록 실무에서 살아남은 알고리즘입니다. 추천 시스템에서 사용자 그룹을 나누거나, 이...
[심층분석] 잠자는 동안 GPU 커널이 최적화된다 — AutoKernel이 보여주는 자율 AI 에이전트의 미래
## 도입: AI가 AI 인프라를 최적화하는 시대 GPU 커널 최적화는 딥러닝 성능의 핵심이지만, 전통적으로 소수의 CUDA 전문가만이 다룰 수 있는 영역이었다. Triton의 등장으로 진입 장벽이 낮아졌음에도, 실제로 프로덕션 수준의 커널을 작성하...