처리중입니다. 잠시만 기다려주세요.
TTJ 코딩클래스
정규반 단과 자료실 테크 뉴스 코딩 퀴즈

Tech News

트렌드를 한눈에 보는 테크 뉴스

HN · GitHub · Reddit 외 13개 소스에서 매일 큐레이션

'LLM' 검색 결과 78 초기화
3월 24일
HN 원문

트랜스포머 회로를 직관적으로 이해하기: 블랙박스 안을 들여다보는 법

## 트랜스포머, 왜 회로 수준에서 이해해야 할까 GPT, Claude, Gemini 같은 대형 언어모델의 핵심 아키텍처인 트랜스포머(Transformer)는 놀라운 성능을 보여주고 있지만, 정작 "왜 이렇게 동작하는지"에 대한 이해는 여전히 부...

3월 23일
HN 원문

LLM으로 내 커피 취향을 예측할 수 있을까? — 실험과 그 교훈

## 일상의 질문에서 시작된 실험 기술 블로그에서 가장 재미있는 글은 종종 거창한 프로젝트가 아니라 소소한 궁금증에서 출발한 실험입니다. "오늘 내가 어떤 커피를 마실지 LLM이 예측할 수 있을까?"라는 질문도 그런 종류입니다. 언뜻 보면 장난 ...

HN 원문

Claude에게 모바일 앱 QA를 가르치다 — AI 기반 E2E 테스트 자동화의 현주소

## 모바일 QA, 여전히 고통스러운 영역 모바일 앱 개발을 해본 사람이라면 QA가 얼마나 손이 많이 가는 작업인지 잘 알고 있을 것입니다. 웹 애플리케이션은 Selenium이나 Playwright 같은 도구로 비교적 안정적인 E2E 테스트 파이...

HN 원문

OpenClaw, AI 에이전트 프레임워크의 보안 취약점이 드러나다

## AI 에이전트 시대, 보안은 준비되었나 AI 에이전트 프레임워크가 빠르게 확산되고 있습니다. LLM에 도구 사용 능력을 부여해서 코드를 실행하고, 파일을 읽고, API를 호출하는 자율적 에이전트를 만드는 것이 최근의 가장 뜨거운 트렌드입니다...

TTJ 코딩클래스 정규반

테크 뉴스를 읽는 당신,
직접 만들어볼 준비 되셨나요?

17가지 수익 모델 실습 · 144+ 강의 · 자동화 소스코드 제공

정규반 보기
HN 원문

AI 시대에도 코드는 죽지 않는다 — '정밀도'라는 관점에서 본 프로그래밍의 미래

## 코드의 종말이라는 예언 최근 몇 년간 "코드를 직접 작성하는 시대는 끝났다"는 주장이 끊임없이 등장하고 있습니다. LLM이 자연어만으로 소프트웨어를 만들어주는 시대가 오면 개발자가 필요 없어질 것이라는 논리입니다. GitHub Copilot...

HN 원문

LLM으로 알고리즘 무식하게 밀어붙이기: 7일 만에 구글 면접 준비한 이야기

## 알고리즘 공부, 이제 LLM과 함께 하는 시대인가 알고리즘 면접 준비. 개발자라면 누구나 한 번쯤 이 고통을 겪어봤을 것입니다. LeetCode를 펼쳐놓고, 문제를 읽고, 30분간 멍하니 화면을 바라보다가, 결국 솔루션 탭을 열어보는 경험 말입...

HN 원문

Mac 한 대로 3970억 파라미터 AI 모델을 돌린다? Flash-MoE가 보여주는 로컬 LLM의 새 지평

## 로컬 AI 추론의 한계를 다시 쓰다 최근 AI 모델의 크기는 기하급수적으로 커지고 있지만, 대부분의 개발자가 실제로 이런 거대 모델을 로컬에서 돌려볼 기회는 거의 없었습니다. 수천억 개의 파라미터를 가진 모델을 실행하려면 수백 GB의 VRA...

HN 원문

AI가 리눅스 커널 코드를 리뷰한다: Sashiko 프로젝트의 도전

## 커널 코드 리뷰, AI 에이전트에게 맡길 수 있을까 리눅스 커널은 현존하는 가장 크고 복잡한 오픈소스 프로젝트 중 하나다. 수천만 줄의 코드베이스에 전 세계 수천 명의 개발자가 기여하며, 매 릴리스마다 수만 개의 패치가 제출된다. 이 방대한...

3월 22일
HN 원문

LLM 시대, 장인정신을 잃어가는 개발자들에 대한 경고

## 도구가 편해질수록 잃어버리는 것들 "craft-lovers are losing their craft" — 직역하면 "장인정신을 사랑하는 사람들이 정작 자신의 장인정신을 잃고 있다"는 의미입니다. 이 글은 LLM(대형 언어모델) 도구가 일상화된 ...

HN 원문

tinybox: 오프라인에서 1200억 파라미터 AI를 돌리는 데스크탑 장비의 등장

## 클라우드 없이 초거대 모델을 돌린다고? tinygrad의 창업자 George Hotz가 만든 하드웨어 프로젝트 tinybox가 본격적으로 모습을 드러내고 있다. tinybox는 이름 그대로 '작은 상자'지만, 그 안에 담긴 성능은 전혀 작지 않...

HN 원문

Grafeo: Rust로 만든 초경량 임베디드 그래프 데이터베이스가 등장했다

## 그래프 데이터베이스, 왜 다시 주목받나 새로운 그래프 데이터베이스 프로젝트 Grafeo가 공개되었다. Rust로 작성되었고, "빠르고, 가볍고, 임베딩 가능한(embeddable)" 그래프 데이터베이스를 표방한다. 그래프 데이터베이스가 뭔지부터...

HN 원문

유럽 언론사 기자, AI로 인터뷰 발언을 '만들어' 기사 작성하다 정직 — 저널리즘과 AI의 경계선

## 무슨 일이 있었나 유럽 최대 미디어 그룹 중 하나인 Mediahuis 소속의 시니어 기자가 AI를 사용해 인터뷰 인용문(quotes)을 생성하고 이를 실제 인터뷰인 것처럼 기사에 삽입한 사실이 드러나 정직 처분을 받았습니다. Mediahui...

HN 원문

Mamba-3 공개 — Transformer 없이도 대규모 언어 모델이 가능할까

## Transformer의 대안을 찾아서 2017년 "Attention Is All You Need" 논문 이후, Transformer 아키텍처는 AI의 사실상 표준이 되었습니다. GPT, Claude, Gemini, LLaMA 등 우리가 아는 거...

3월 21일
HN 원문

강화학습 환경의 현주소 — Epoch AI가 정리한 RL 환경 FAQ 깊이 읽기

## 왜 지금 강화학습 환경이 중요한가 AI 연구 분석 기관 Epoch AI가 강화학습(Reinforcement Learning, RL) 환경에 대한 포괄적인 FAQ 문서를 공개했습니다. 최근 AI 업계에서 강화학습이 다시 뜨거운 키워드로 떠오르고 ...

HN 원문

OpenCode: 터미널에서 동작하는 오픈소스 AI 코딩 에이전트가 등장했다

## 또 하나의 AI 코딩 도구? 이번엔 좀 다르다 AI 코딩 도구 시장이 빠르게 성장하고 있는 가운데, OpenCode라는 새로운 오픈소스 프로젝트가 등장했습니다. OpenCode는 터미널 기반의 AI 코딩 에이전트로, Claude Code나 Cu...

HN 원문

MoonshotAI의 Attention Residuals: 트랜스포머 어텐션 메커니즘을 개선하는 새로운 접근

## 트랜스포머의 심장, 어텐션 메커니즘에 잔차 연결을 더하다 MoonshotAI가 GitHub에 공개한 'Attention Residuals' 프로젝트는 현대 AI 모델의 핵심인 트랜스포머 아키텍처의 어텐션 메커니즘을 개선하려는 연구입니다. 이름에...

HN 원문

Cursor Composer 2의 정체: Kimi K2.5에 강화학습을 적용한 모델이었다?

## AI 코딩 도구의 뒤에 있는 모델은 무엇인가 최근 AI 코딩 에디터 Cursor의 새로운 기능인 Composer 2가 공개되면서, 그 내부에서 사용하는 모델의 정체에 대한 논의가 이어지고 있습니다. 한 연구자의 분석에 따르면, Cursor Co...

3월 20일
HN 원문

FSF, Anthropic에 저작권 침해 합의 요구 — LLM 학습 데이터와 GPL 라이선스의 충돌

## 무슨 일이 있었나 자유소프트웨어재단(FSF)이 Anthropic을 상대로 GPL 라이선스 코드의 LLM 학습 데이터 사용에 대한 **저작권 침해 합의**를 요구했습니다. FSF는 Anthropic의 모델이 GPL 라이선스 코드를 학습에 활용했다...

HN 원문

난해한 프로그래밍 언어로 LLM의 '진짜 추론 능력'을 테스트하다 — EsoLang-Bench

LLM이 정말로 코드를 "이해"하고 추론하는 걸까요? **EsoLang-Bench**는 Brainfuck, Befunge 같은 난해한 프로그래밍 언어(esoteric language)를 활용해 LLM의 순수 추론 능력을 평가하는 벤치마크입니다. ##...

HN 원문

NanoGPT Slowrun: 컴퓨팅은 무한히, 데이터는 10분의 1만으로 GPT를 훈련한다면?

## 데이터 효율성에 초점을 맞춘 새로운 LLM 훈련 실험 일반적인 LLM 훈련이 "더 많은 데이터, 더 많은 컴퓨팅"을 추구한다면, 이 프로젝트는 정반대 질문을 던집니다. **컴퓨팅 자원이 무한하다고 가정할 때, 데이터를 10분의 1만 사용하고도 ...

« 1 2 3 4 »