처리중입니다. 잠시만 기다려주세요.
TTJ 코딩클래스
정규반 단과 자료실 테크 뉴스 코딩 퀴즈

Tech News

트렌드를 한눈에 보는 테크 뉴스

HN · GitHub · Reddit 외 13개 소스에서 매일 큐레이션

'머신러닝' 검색 결과 21 초기화
오늘
HN 원문

Ollama가 Apple Silicon에서 MLX 엔진으로 전환 — 맥에서 로컬 LLM 성능이 확 달라집니다

## 맥에서 로컬 LLM 돌리는 분들 주목하세요 Ollama가 Apple Silicon(M1, M2, M3, M4 칩) 환경에서 **MLX 기반 추론 엔진**을 프리뷰로 지원하기 시작했어요. 지금까지 Ollama는 내부적으로 llama.cpp를 ...

어제
HN 원문

소프트웨어 엔지니어를 위한 ML 입문서 'There is No Spoon' — 마법이 아니라 수학이에요

## 머신러닝, 어렵다고 느끼는 건 당연해요 머신러닝(ML)이라는 단어를 들으면 어떤 느낌이 드시나요? "나는 백엔드 개발자니까 그건 데이터 사이언티스트 영역이지"라고 생각하시는 분들 꽤 많을 거예요. 사실 ML 분야는 용어부터가 벽처럼 느껴지거...

이번 주
HN 원문

CERN이 AI를 실리콘에 태워 넣은 이유 – 초당 10억 번의 충돌을 실시간으로 걸러내는 법

## 10억 번의 충돌, 그 중 의미 있는 건 극소수 CERN(유럽입자물리연구소)에는 LHC(Large Hadron Collider, 대형 강입자 충돌기)라는 거대한 장치가 있어요. 둘레가 27km에 달하는 지하 터널에서 양성자를 거의 빛의 속도...

HN 원문

메모리 최적화, 옛날 기법이 다시 뜨는 이유

## 메모리가 남아돌던 시대는 끝났다? 한동안 개발자들 사이에서 "메모리는 싸니까 신경 쓰지 마"라는 분위기가 있었어요. RAM 가격이 계속 떨어지고, 클라우드에서 서버 스펙을 올리기도 쉬우니까, 메모리 최적화에 공들이는 게 시간 낭비처럼 느껴지...

TTJ 코딩클래스 정규반

테크 뉴스를 읽는 당신,
직접 만들어볼 준비 되셨나요?

17가지 수익 모델 실습 · 144+ 강의 · 자동화 소스코드 제공

정규반 보기
HN 원문

하드웨어를 쉽게 버리지 마세요 — 오래 쓰는 것이 왜 중요한가

## 새 제품이 나올 때마다 바꿔야 할까? 매년 새 노트북, 새 스마트폰, 새 태블릿이 쏟아져 나오죠. 제조사들은 "이번 건 진짜 다르다"고 말하고, 벤치마크 숫자는 해마다 올라가고, 우리는 자연스럽게 "이제 슬슬 바꿔야 하나" 하는 생각이 들어...

HN 원문

애플, Mac Pro 단종 — 프로급 데스크톱의 시대가 저무는 걸까요

## 무슨 일이 있었나요 애플이 Mac Pro를 단종했어요. 그것도 후속 하드웨어 계획 없이요. Mac Pro라고 하면 애플 제품 라인업에서 가장 강력한 데스크톱 컴퓨터였는데요, 영상 편집, 3D 렌더링, 머신러닝 학습 같은 무거운 작업을 하는 ...

HN 원문

컴파일러 최적화의 두 가지 사례: 우리가 쓰는 코드가 실제로 어떻게 바뀌는지

## 컴파일러가 내 코드를 고쳐준다고? 우리가 C나 C++, Rust 같은 언어로 코드를 작성하면, 컴파일러가 이걸 기계어로 번역해주잖아요. 그런데 컴파일러는 단순히 번역만 하는 게 아니에요. 코드를 분석해서 "이거 이렇게 바꾸면 더 빠르게 돌아...

HN 원문

트랜스포머는 사실 베이지안 네트워크였다? — AI 모델의 수학적 본질을 파헤치는 새 연구

## 트랜스포머, 우리가 아는 것과 모르는 것 요즘 AI 하면 트랜스포머(Transformer) 아키텍처를 빼놓을 수가 없죠. GPT, Claude, Gemini 같은 대규모 언어 모델(LLM)이 전부 트랜스포머 기반이고, 이미지 생성 모델이나 ...

GitHub 원문

[심층분석] AI 트레이더 군단이 회의를 한다? TradingAgents가 보여주는 멀티에이전트 금융 트레이딩의 현재

## 진짜 트레이딩 회사처럼 AI를 조직한다면? 요즘 AI 업계에서 가장 뜨거운 키워드 중 하나가 바로 **멀티에이전트(Multi-Agent)** 시스템이에요. 하나의 거대한 AI가 모든 걸 다 하는 게 아니라, 여러 AI가 각자 전문 분야를 맡...

HN 원문

DSPy, 왜 아직도 현장에서 안 쓰일까? — LLM 프로그래밍 프레임워크의 이상과 현실

## 프롬프트 엔지니어링의 한계를 넘으려는 시도 LLM 기반 애플리케이션을 만들어본 분이라면 한 번쯤 느꼈을 겁니다. 프롬프트를 한 글자 바꿨더니 출력이 완전히 달라지고, 모델을 GPT-4에서 Claude로 교체하면 기존 프롬프트가 제대로 동작하...

3월 23일
HN 원문

LLM으로 내 커피 취향을 예측할 수 있을까? — 실험과 그 교훈

## 일상의 질문에서 시작된 실험 기술 블로그에서 가장 재미있는 글은 종종 거창한 프로젝트가 아니라 소소한 궁금증에서 출발한 실험입니다. "오늘 내가 어떤 커피를 마실지 LLM이 예측할 수 있을까?"라는 질문도 그런 종류입니다. 언뜻 보면 장난 ...

HN 원문

바이브 코딩으로 스팸을 만드는 시대가 왔다

## AI 코딩 도구의 어두운 이면 최근 개발자 커뮤니티에서 "바이브 코딩(Vibe Coding)"이라는 용어가 빠르게 퍼지고 있습니다. 명확한 설계 없이 AI에게 대략적인 의도만 전달하고, AI가 생성한 코드를 거의 검토하지 않은 채 그대로 사...

HN 원문

폰트 인식 모델을 밑바닥부터 학습시키며 배운 것들

## 이미지 속 폰트를 알아내는 문제 디자인 작업을 하다 보면 한 번쯤은 이런 경험이 있을 겁니다. 어떤 웹사이트나 포스터에서 마음에 드는 글꼴을 발견했는데, 그 폰트가 뭔지 알 수 없는 상황. WhatTheFont 같은 서비스를 써보기도 하지만...

HN 원문

Mac 한 대로 3970억 파라미터 AI 모델을 돌린다? Flash-MoE가 보여주는 로컬 LLM의 새 지평

## 로컬 AI 추론의 한계를 다시 쓰다 최근 AI 모델의 크기는 기하급수적으로 커지고 있지만, 대부분의 개발자가 실제로 이런 거대 모델을 로컬에서 돌려볼 기회는 거의 없었습니다. 수천억 개의 파라미터를 가진 모델을 실행하려면 수백 GB의 VRA...

3월 22일
HN 원문

인비절라인은 어쩌다 세계 최대의 3D 프린팅 기업이 되었나

## 치과 교정 회사가 3D 프린팅의 판을 바꾸고 있다 3D 프린팅이라 하면 보통 제조업 프로토타이핑이나 취미용 피규어 제작을 먼저 떠올리기 마련이다. 그런데 현재 세계에서 3D 프린터를 가장 많이 가동하는 기업은 자동차 회사도, 항공우주 기업도...

3월 21일
HN 원문

2,000개의 혼합 정밀도 커널을 한 번에 — NumKong이 고성능 수치 연산의 판을 바꾸려 한다

## 혼합 정밀도 연산, 왜 지금 중요한가 딥러닝 모델이 거대해지면서 연산 효율성은 더 이상 "있으면 좋은 것"이 아니라 경제적 생존의 문제가 되었습니다. GPU 한 시간당 수 달러를 지불하는 클라우드 환경에서, 같은 결과를 절반의 연산으로 얻을 수...

HN 원문

Flash-KMeans: K-Means 클러스터링을 메모리 절반으로, 속도는 수십 배 빠르게

## 들어가며 클러스터링은 머신러닝에서 가장 기본적이면서도 가장 널리 쓰이는 비지도 학습 기법입니다. 그중에서도 K-Means는 1950년대에 제안된 이래 70년이 넘도록 실무에서 살아남은 알고리즘입니다. 추천 시스템에서 사용자 그룹을 나누거나, 이...

3월 19일
HN 원문

ML 벤치마크의 과학: 우리가 모델을 평가하는 방식은 정말 올바른가

머신러닝 벤치마크의 설계, 한계, 그리고 올바른 활용법을 체계적으로 다루는 온라인 서적 **"The Emerging Science of Machine Learning Benchmarks"**가 공개되었습니다. ## 핵심 내용 이 책은 ML 벤치마크...

HN 원문

2025 튜링상, 양자 정보 과학 분야에 수여 — 컴퓨터 과학 최고 권위상의 새 이정표

ACM이 2025년 튜링상 수상자를 양자 정보 과학(Quantum Information Science) 분야에서 선정했습니다. 컴퓨터 과학의 노벨상으로 불리는 튜링상이 양자 컴퓨팅 관련 연구에 수여된 것은 이 분야의 학문적 성숙도를 공식적으로 인정한 ...

3월 16일
HN 원문

LLM 아키텍처 갤러리 — 주요 모델 구조를 한눈에 비교하는 시각 자료

머신러닝 분야의 저명한 교육자 Sebastian Raschka가 **LLM Architecture Gallery**를 공개했습니다. GPT, LLaMA, Mistral 등 주요 LLM들의 아키텍처를 시각적으로 비교할 수 있는 레퍼런스 자료입니다. #...

1 2 »