하나의 연산자로 모든 수학 함수를 만들 수 있다? — 단일 이항 연산자의 놀라운 가능성
## 수학과 컴퓨터 과학의 경계에서 발견된 흥미로운 결과 우리가 프로그래밍할 때 아무렇지 않게 쓰는 `sin()`, `cos()`, `exp()`, `log()` 같은 함수들이 있잖아요. 이런 함수들을 수학에서는 "초등 함수(elementary ...
AMD ROCm, CUDA의 아성에 도전하다 — 지금 어디까지 왔을까?
## GPU 컴퓨팅의 절대 강자, CUDA AI와 딥러닝이 폭발적으로 성장하면서, GPU를 활용한 병렬 컴퓨팅은 이제 선택이 아니라 필수가 됐어요. 그런데 이 분야에서 NVIDIA의 CUDA는 거의 독점적인 위치를 차지하고 있거든요. CUDA가 뭐냐...
커넥트4(사목 게임)의 완벽한 전략, 알고리즘으로 풀어보기
## 어릴 때 한 번쯤 해봤을 그 게임, 수학적으로 풀면 어떻게 될까? 커넥트4, 혹시 아시나요? 세로로 세운 격자판에 빨간색과 노란색 원판을 번갈아 떨어뜨려서, 가로·세로·대각선 중 하나로 4개를 먼저 연결하면 이기는 게임이에요. 영어로는 Conn...
칼만 필터, 레이더 예제로 직관적으로 이해해보기
## 칼만 필터, 이름은 들어봤는데 뭔지 모르겠다면 칼만 필터(Kalman Filter)라는 이름, 한 번쯤은 들어보셨을 거예요. 자율주행, 로봇공학, GPS, 드론 제어 등에서 핵심적으로 사용되는 알고리즘인데요, 막상 수학 공식을 보면 행렬과 ...
테크 뉴스를 읽는 당신,
직접 만들어볼 준비 되셨나요?
17가지 수익 모델 실습 · 144+ 강의 · 자동화 소스코드 제공
2019년 "GPT-2는 너무 위험해서 공개 못 한다"던 OpenAI, 그 후 7년이 지났다
## 되돌아보는 AI 역사의 한 장면 2019년 2월, OpenAI가 흥미로운 발표를 했어요. 자신들이 만든 텍스트 생성 AI 모델 **GPT-2**가 "너무 위험해서" 전체 모델을 공개할 수 없다는 거였죠. 당시 GPT-2는 15억 개의 파라미...
GPU의 역사를 한눈에: 성능을 바꿔온 그래픽카드들을 데이터로 살펴보기
## 왜 지금 GPU 역사를 돌아봐야 할까요? 요즘 개발자라면 GPU라는 단어를 매일 접하게 되죠. AI 모델 훈련, 추론, 심지어 데이터베이스 가속까지 — GPU가 안 쓰이는 곳을 찾기가 더 어려운 시대예요. 그런데 이 GPU라는 물건이 어떻게...
AI 가수가 아이튠즈 싱글 차트 11곳을 점령하다 — 음악 산업에 무슨 일이 벌어지고 있나
## 존재하지 않는 가수가 차트를 장악했다 아이튠즈 싱글 차트에 한 가수의 곡이 무려 11곳이나 올라갔어요. 그런데 이 가수는 실존하지 않는 사람이에요. "에디 달튼(Eddie Dalton)"이라는 이름의 AI 생성 가수가 아이튠즈 차트를 점령한...
부동소수점 계산이 맨날 미세하게 틀리죠? Herbie가 수식을 자동으로 고쳐줍니다
## 0.1 + 0.2가 0.3이 아닌 세계에서 살고 있잖아요 개발을 좀 해보신 분이라면 한 번쯤 겪어봤을 거예요. JavaScript 콘솔에 `0.1 + 0.2`를 치면 `0.30000000000000004`가 나오는 그 당황스러운 순간이요. 이건...
JAX로 WebGL 위에 레이마칭 렌더러를 만든다고? 머신러닝 프레임워크의 의외의 활용법
## 머신러닝 프레임워크로 3D 그래픽을 렌더링한다? JAX라고 하면 보통 딥러닝이나 수치 계산을 떠올리잖아요. Google이 만든 고성능 수치 연산 라이브러리로, NumPy와 비슷한 인터페이스를 제공하면서도 GPU/TPU 가속과 자동 미분을 지원하...
구글이 공개한 시계열 파운데이션 모델 TimesFM — 2억 파라미터로 16K 컨텍스트 지원
## 시계열 예측에도 파운데이션 모델 시대가 왔어요 구글 리서치에서 **TimesFM**이라는 시계열(Time-Series) 전용 파운데이션 모델을 공개했어요. 2억(200M) 파라미터 규모에 **16,000 토큰 길이의 컨텍스트 윈도우**를 지원하...
검색 엔진에 NSFW 필터를 직접 만든 이야기 — Marginalia의 실용적 접근법
## 독립 검색 엔진이 마주한 현실적인 문제 Marginalia라는 검색 엔진을 들어보신 적 있나요? 구글이나 빙 같은 대형 검색 엔진과는 완전히 다른 방향을 추구하는 독립 검색 엔진인데요. 광고 없이, 개인 블로그나 소규모 웹사이트 같은 "인터넷의...
1976년산 미니컴퓨터에서 트랜스포머를 학습시킨 사람이 있다
## 종이 테이프만 있으면 됩니다(?) "Attention Is All You Need"라는 2017년 논문이 현대 AI의 판도를 바꿨다는 건 다들 아실 거예요. 트랜스포머 아키텍처를 소개한 그 유명한 논문이죠. 그런데 누군가가 이걸 극한까지 밀...
ARC-AGI-3 첫날부터 36% 달성 — AI 추론 벤치마크의 새로운 도전이 시작됐어요
## ARC-AGI가 뭔데요? 인공지능이 정말 "생각"을 할 수 있는지 테스트하는 벤치마크가 있어요. ARC-AGI(Abstraction and Reasoning Corpus for Artificial General Intelligence)라는 ...
양자화(Quantization), 바닥부터 제대로 이해하기
## AI 모델을 가볍게 만드는 마법, 양자화란? 요즘 로컬에서 LLM을 돌려보신 분이라면 "4bit 양자화", "GPTQ", "GGUF" 같은 단어를 한번쯤 보셨을 거예요. 모델 다운로드 페이지에 가면 같은 모델인데 용량이 70GB짜리도 있고 ...
트랜스포머는 사실 베이지안 네트워크였다? — AI 모델의 수학적 본질을 파헤치는 새 연구
## 트랜스포머, 우리가 아는 것과 모르는 것 요즘 AI 하면 트랜스포머(Transformer) 아키텍처를 빼놓을 수가 없죠. GPT, Claude, Gemini 같은 대규모 언어 모델(LLM)이 전부 트랜스포머 기반이고, 이미지 생성 모델이나 ...
폰트 인식 모델을 밑바닥부터 학습시키며 배운 것들
## 이미지 속 폰트를 알아내는 문제 디자인 작업을 하다 보면 한 번쯤은 이런 경험이 있을 겁니다. 어떤 웹사이트나 포스터에서 마음에 드는 글꼴을 발견했는데, 그 폰트가 뭔지 알 수 없는 상황. WhatTheFont 같은 서비스를 써보기도 하지만...
tinybox: 오프라인에서 1200억 파라미터 AI를 돌리는 데스크탑 장비의 등장
## 클라우드 없이 초거대 모델을 돌린다고? tinygrad의 창업자 George Hotz가 만든 하드웨어 프로젝트 tinybox가 본격적으로 모습을 드러내고 있다. tinybox는 이름 그대로 '작은 상자'지만, 그 안에 담긴 성능은 전혀 작지 않...
2025 튜링상, 양자 정보 과학의 선구자 베넷과 브라사르에게 돌아가다
## 컴퓨터 과학계의 노벨상, 올해의 주인공은 ACM(미국컴퓨터학회)이 수여하는 튜링상(Turing Award)은 컴퓨터 과학 분야의 노벨상으로 불립니다. 올해 그 영예의 주인공은 **찰스 베넷(Charles H. Bennett)**과 **질 브라사...
2,000개의 혼합 정밀도 커널을 한 번에 — NumKong이 고성능 수치 연산의 판을 바꾸려 한다
## 혼합 정밀도 연산, 왜 지금 중요한가 딥러닝 모델이 거대해지면서 연산 효율성은 더 이상 "있으면 좋은 것"이 아니라 경제적 생존의 문제가 되었습니다. GPU 한 시간당 수 달러를 지불하는 클라우드 환경에서, 같은 결과를 절반의 연산으로 얻을 수...
MoonshotAI의 Attention Residuals: 트랜스포머 어텐션 메커니즘을 개선하는 새로운 접근
## 트랜스포머의 심장, 어텐션 메커니즘에 잔차 연결을 더하다 MoonshotAI가 GitHub에 공개한 'Attention Residuals' 프로젝트는 현대 AI 모델의 핵심인 트랜스포머 아키텍처의 어텐션 메커니즘을 개선하려는 연구입니다. 이름에...