JAX로 WebGL 위에 레이마칭 렌더러를 만든다고? 머신러닝 프레임워크의 의외의 활용법
## 머신러닝 프레임워크로 3D 그래픽을 렌더링한다? JAX라고 하면 보통 딥러닝이나 수치 계산을 떠올리잖아요. Google이 만든 고성능 수치 연산 라이브러리로, NumPy와 비슷한 인터페이스를 제공하면서도 GPU/TPU 가속과 자동 미분을 지원하...
아이폰과 맥북에서 대형 AI 모델을 돌린다? SwiftLM의 TurboQuant 압축 기술 살펴보기
## 로컬 AI, 점점 현실이 되고 있어요 요즘 AI 모델을 클라우드 API 없이 내 기기에서 직접 돌리는 "로컬 AI" 흐름이 점점 거세지고 있어요. 프라이버시 걱정 없이, 인터넷 연결 없이도, API 비용 없이 AI를 쓸 수 있다는 건 정말 매력...
Cerno — LLM의 추론 능력을 역이용한 새로운 CAPTCHA가 등장했어요
## CAPTCHA, 이제 사람이 아니라 AI를 걸러야 하는 시대 인터넷을 쓰다 보면 "로봇이 아닙니다"를 클릭하거나, 흐릿한 사진에서 신호등을 찾아 클릭하는 경험을 해보셨을 거예요. 이게 바로 CAPTCHA(캡차)인데요, 원래 목적은 봇과 사람...
[심층분석] 마이크로소프트가 음성 AI를 통째로 오픈소스로 풀었다 — VibeVoice가 바꿀 음성 기술의 판도
## 음성 AI, 드디어 누구나 쓸 수 있는 시대가 열리다 음성 인식(STT)이나 음성 합성(TTS)이라고 하면, 많은 분들이 시리나 구글 어시스턴트 같은 서비스를 떠올리실 거예요. 그런데 이런 기술을 직접 만들거나 커스터마이징하려면 어마어마한 ...
테크 뉴스를 읽는 당신,
직접 만들어볼 준비 되셨나요?
17가지 수익 모델 실습 · 144+ 강의 · 자동화 소스코드 제공
Ollama가 Apple Silicon에서 MLX 엔진으로 전환 — 맥에서 로컬 LLM 성능이 확 달라집니다
## 맥에서 로컬 LLM 돌리는 분들 주목하세요 Ollama가 Apple Silicon(M1, M2, M3, M4 칩) 환경에서 **MLX 기반 추론 엔진**을 프리뷰로 지원하기 시작했어요. 지금까지 Ollama는 내부적으로 llama.cpp를 ...
소프트웨어 엔지니어를 위한 ML 입문서 'There is No Spoon' — 마법이 아니라 수학이에요
## 머신러닝, 어렵다고 느끼는 건 당연해요 머신러닝(ML)이라는 단어를 들으면 어떤 느낌이 드시나요? "나는 백엔드 개발자니까 그건 데이터 사이언티스트 영역이지"라고 생각하시는 분들 꽤 많을 거예요. 사실 ML 분야는 용어부터가 벽처럼 느껴지거...
CERN이 AI를 실리콘에 태워 넣은 이유 – 초당 10억 번의 충돌을 실시간으로 걸러내는 법
## 10억 번의 충돌, 그 중 의미 있는 건 극소수 CERN(유럽입자물리연구소)에는 LHC(Large Hadron Collider, 대형 강입자 충돌기)라는 거대한 장치가 있어요. 둘레가 27km에 달하는 지하 터널에서 양성자를 거의 빛의 속도...
메모리 최적화, 옛날 기법이 다시 뜨는 이유
## 메모리가 남아돌던 시대는 끝났다? 한동안 개발자들 사이에서 "메모리는 싸니까 신경 쓰지 마"라는 분위기가 있었어요. RAM 가격이 계속 떨어지고, 클라우드에서 서버 스펙을 올리기도 쉬우니까, 메모리 최적화에 공들이는 게 시간 낭비처럼 느껴지...
하드웨어를 쉽게 버리지 마세요 — 오래 쓰는 것이 왜 중요한가
## 새 제품이 나올 때마다 바꿔야 할까? 매년 새 노트북, 새 스마트폰, 새 태블릿이 쏟아져 나오죠. 제조사들은 "이번 건 진짜 다르다"고 말하고, 벤치마크 숫자는 해마다 올라가고, 우리는 자연스럽게 "이제 슬슬 바꿔야 하나" 하는 생각이 들어...
애플, Mac Pro 단종 — 프로급 데스크톱의 시대가 저무는 걸까요
## 무슨 일이 있었나요 애플이 Mac Pro를 단종했어요. 그것도 후속 하드웨어 계획 없이요. Mac Pro라고 하면 애플 제품 라인업에서 가장 강력한 데스크톱 컴퓨터였는데요, 영상 편집, 3D 렌더링, 머신러닝 학습 같은 무거운 작업을 하는 ...
컴파일러 최적화의 두 가지 사례: 우리가 쓰는 코드가 실제로 어떻게 바뀌는지
## 컴파일러가 내 코드를 고쳐준다고? 우리가 C나 C++, Rust 같은 언어로 코드를 작성하면, 컴파일러가 이걸 기계어로 번역해주잖아요. 그런데 컴파일러는 단순히 번역만 하는 게 아니에요. 코드를 분석해서 "이거 이렇게 바꾸면 더 빠르게 돌아...
트랜스포머는 사실 베이지안 네트워크였다? — AI 모델의 수학적 본질을 파헤치는 새 연구
## 트랜스포머, 우리가 아는 것과 모르는 것 요즘 AI 하면 트랜스포머(Transformer) 아키텍처를 빼놓을 수가 없죠. GPT, Claude, Gemini 같은 대규모 언어 모델(LLM)이 전부 트랜스포머 기반이고, 이미지 생성 모델이나 ...
[심층분석] AI 트레이더 군단이 회의를 한다? TradingAgents가 보여주는 멀티에이전트 금융 트레이딩의 현재
## 진짜 트레이딩 회사처럼 AI를 조직한다면? 요즘 AI 업계에서 가장 뜨거운 키워드 중 하나가 바로 **멀티에이전트(Multi-Agent)** 시스템이에요. 하나의 거대한 AI가 모든 걸 다 하는 게 아니라, 여러 AI가 각자 전문 분야를 맡...
DSPy, 왜 아직도 현장에서 안 쓰일까? — LLM 프로그래밍 프레임워크의 이상과 현실
## 프롬프트 엔지니어링의 한계를 넘으려는 시도 LLM 기반 애플리케이션을 만들어본 분이라면 한 번쯤 느꼈을 겁니다. 프롬프트를 한 글자 바꿨더니 출력이 완전히 달라지고, 모델을 GPT-4에서 Claude로 교체하면 기존 프롬프트가 제대로 동작하...
LLM으로 내 커피 취향을 예측할 수 있을까? — 실험과 그 교훈
## 일상의 질문에서 시작된 실험 기술 블로그에서 가장 재미있는 글은 종종 거창한 프로젝트가 아니라 소소한 궁금증에서 출발한 실험입니다. "오늘 내가 어떤 커피를 마실지 LLM이 예측할 수 있을까?"라는 질문도 그런 종류입니다. 언뜻 보면 장난 ...
바이브 코딩으로 스팸을 만드는 시대가 왔다
## AI 코딩 도구의 어두운 이면 최근 개발자 커뮤니티에서 "바이브 코딩(Vibe Coding)"이라는 용어가 빠르게 퍼지고 있습니다. 명확한 설계 없이 AI에게 대략적인 의도만 전달하고, AI가 생성한 코드를 거의 검토하지 않은 채 그대로 사...
폰트 인식 모델을 밑바닥부터 학습시키며 배운 것들
## 이미지 속 폰트를 알아내는 문제 디자인 작업을 하다 보면 한 번쯤은 이런 경험이 있을 겁니다. 어떤 웹사이트나 포스터에서 마음에 드는 글꼴을 발견했는데, 그 폰트가 뭔지 알 수 없는 상황. WhatTheFont 같은 서비스를 써보기도 하지만...
Mac 한 대로 3970억 파라미터 AI 모델을 돌린다? Flash-MoE가 보여주는 로컬 LLM의 새 지평
## 로컬 AI 추론의 한계를 다시 쓰다 최근 AI 모델의 크기는 기하급수적으로 커지고 있지만, 대부분의 개발자가 실제로 이런 거대 모델을 로컬에서 돌려볼 기회는 거의 없었습니다. 수천억 개의 파라미터를 가진 모델을 실행하려면 수백 GB의 VRA...
인비절라인은 어쩌다 세계 최대의 3D 프린팅 기업이 되었나
## 치과 교정 회사가 3D 프린팅의 판을 바꾸고 있다 3D 프린팅이라 하면 보통 제조업 프로토타이핑이나 취미용 피규어 제작을 먼저 떠올리기 마련이다. 그런데 현재 세계에서 3D 프린터를 가장 많이 가동하는 기업은 자동차 회사도, 항공우주 기업도...
2,000개의 혼합 정밀도 커널을 한 번에 — NumKong이 고성능 수치 연산의 판을 바꾸려 한다
## 혼합 정밀도 연산, 왜 지금 중요한가 딥러닝 모델이 거대해지면서 연산 효율성은 더 이상 "있으면 좋은 것"이 아니라 경제적 생존의 문제가 되었습니다. GPU 한 시간당 수 달러를 지불하는 클라우드 환경에서, 같은 결과를 절반의 연산으로 얻을 수...