코드 생성 AI, 스스로를 가르치면 더 똑똑해진다 — Self-Distillation 기법 해부
## 무슨 일이 있었나요? 코드를 생성하는 AI 모델을 더 잘 만들려면 보통 어떻게 할까요? 더 큰 모델을 쓰거나, 더 많은 데이터로 학습시키거나, 사람이 직접 피드백을 주는 RLHF 같은 복잡한 파이프라인을 돌리는 게 일반적이에요. 그런데 최근...
LLM도 감정을 '이해'할까? Anthropic이 밝혀낸 대형 언어 모델 속 감정 개념의 작동 원리
## 기계가 감정을 느끼는 건 아니지만, 뭔가 흥미로운 일이 벌어지고 있어요 Anthropic이 대형 언어 모델(LLM) 내부에서 감정 개념이 어떻게 표현되고 기능하는지를 분석한 연구를 공개했어요. 우리가 ChatGPT나 Claude 같은 AI에...
Apfel: 맥에 이미 깔려 있는 AI를 꺼내 쓰는 무료 앱
## 내 맥 안에 잠자고 있는 AI가 있다? 혹시 알고 계셨나요? 여러분의 Mac에는 이미 꽤 괜찮은 AI 모델이 내장되어 있어요. Apple이 macOS에 탑재한 온디바이스 머신러닝 모델들이 있는데, 보통은 Siri나 시스템 기능 뒤에서 조용히...
Mac mini 하나로 Gemma 4 26B 로컬 AI 돌리기: Ollama 셋업 가이드
## 내 맥 미니에서 26B 파라미터 모델을 돌린다고? 요즘 AI 모델을 직접 내 컴퓨터에서 돌려보고 싶다는 분들이 정말 많아졌어요. ChatGPT나 Claude 같은 클라우드 서비스도 좋지만, 매달 구독료가 나가고, 내 데이터가 외부 서버를 거...
테크 뉴스를 읽는 당신,
직접 만들어볼 준비 되셨나요?
17가지 수익 모델 실습 · 144+ 강의 · 자동화 소스코드 제공
OpenAI가 TBPN을 인수했어요 — AI 시대의 뉴스 유통이 바뀌려나
## OpenAI, 미디어 기업 TBPN 인수 OpenAI가 **TBPN(The Bold Pivot News)**을 인수했어요. TBPN은 디지털 뉴스 및 미디어 플랫폼인데요, 이번 인수는 OpenAI가 단순히 AI 모델을 만드는 회사에서 **콘텐츠...
Qwen3.6-Plus 공개 — 중국발 AI 에이전트 시대가 한 발짝 더 가까워졌어요
## 알리바바가 또 한 수를 던졌어요 알리바바 클라우드의 AI 연구팀이 Qwen(통의천문) 시리즈의 최신 모델인 Qwen3.6-Plus를 공개했어요. 이번 모델의 부제가 "Towards Real World Agents"인데요, 이름에서 알 수 있듯이...
DRAM 가격 폭등이 라즈베리파이 같은 취미용 보드 시장을 죽이고 있다
## 무슨 일이 벌어지고 있나요? 취미로 홈서버를 돌리거나, IoT 프로젝트를 하거나, 혹은 라즈베리파이로 이것저것 만들어보는 걸 좋아하시는 분들에게 안 좋은 소식이에요. **DRAM(메모리) 가격이 크게 올라서** 취미용 SBC(Single Boa...
OpenAI의 무덤: 발표만 하고 사라진 제품과 파트너십 총정리
## 발표할 때는 화려했는데, 그 뒤로 소식이 없다? OpenAI 하면 ChatGPT, GPT-4, DALL-E 같은 성공적인 제품들이 떠오르잖아요. 그런데 OpenAI가 야심 차게 발표했다가 조용히 사라지거나, 아직까지 출시되지 않은 제품과 파트너...
StepFun 3.5 Flash: 비용 대비 성능 1위를 차지한 중국발 AI 모델의 등장
## 비용 대비 성능이라는 새로운 경쟁 기준 AI 모델을 고를 때 "어떤 모델이 가장 똑똑한가"만 따지던 시대는 지나가고 있어요. 이제는 **"같은 돈을 쓸 때 어떤 모델이 가장 좋은 결과를 내는가"**가 실무에서 훨씬 중요한 질문이 되고 있거든...
데이터 사이언티스트의 역습: AI 시대에 오히려 더 중요해진 이유
## "데이터 사이언티스트는 끝났다"고 했던 사람들에게 몇 년 전부터 "데이터 사이언티스트라는 직업은 사라질 것"이라는 이야기가 돌았어요. AutoML이 나오고, ChatGPT가 코드를 짜주고, 누구나 데이터 분석을 할 수 있는 도구가 쏟아지니까...
OpenAI 기업가치 8,520억 달러: AI 버블인가, 새로운 현실인가
## 무슨 일이 있었나요 OpenAI가 새로운 펀딩 라운드를 마무리하면서 기업가치가 8,520억 달러(약 1,200조 원)로 책정됐어요. 이 숫자가 어느 정도인지 감이 잘 안 올 수 있는데, 비교해보면 명확해져요. 삼성전자의 시가총액이 약 350...
1-Bit LLM이 상용화 단계에 진입했다: PrismML의 '1-Bit Bonsai'
## 1비트 LLM이 뭔데, 왜 중요한 건가요 LLM(대규모 언어 모델)을 돌려본 분이라면 한 번쯤 느꼈을 거예요. "이거 GPU가 몇 개 필요한 거야?" 하는 그 막막함. GPT 급 모델을 로컬에서 돌리려면 고가의 GPU 메모리가 수십 GB 필...
파라미터 13개로 추론을 학습시킨다고? TinyLoRA가 보여준 극한의 효율
## 13개 파라미터로 추론 능력을 학습시킬 수 있다? 요즘 AI 모델들은 수십억, 수천억 개의 파라미터를 자랑하는데요. 그런 시대에 고작 13개의 파라미터만으로 모델에게 "추론"을 가르칠 수 있다는 논문이 나왔어요. TinyLoRA라는 이 연구...
Cerno — LLM의 추론 능력을 역이용한 새로운 CAPTCHA가 등장했어요
## CAPTCHA, 이제 사람이 아니라 AI를 걸러야 하는 시대 인터넷을 쓰다 보면 "로봇이 아닙니다"를 클릭하거나, 흐릿한 사진에서 신호등을 찾아 클릭하는 경험을 해보셨을 거예요. 이게 바로 CAPTCHA(캡차)인데요, 원래 목적은 봇과 사람...
토큰당 300KB에서 69KB로: LLM의 KV 캐시 문제, 대체 뭐가 문제이고 어떻게 풀고 있을까
## LLM이 긴 대화를 기억하려면 엄청난 메모리가 필요해요 ChatGPT나 Claude 같은 대규모 언어 모델(LLM)을 써보면, 대화가 길어질수록 응답이 느려지거나 비용이 올라가는 걸 느끼신 적 있을 거예요. 이게 단순히 "텍스트가 많아서"만...
AI가 만든 '슬롭웨어'가 소프트웨어의 미래? 꼭 그렇지만은 않다
## "슬롭(Slop)"이라는 불편한 단어 최근 AI 코딩 도구가 급속도로 퍼지면서, 개발 커뮤니티에서 **"슬롭(Slop)"**이라는 단어가 자주 등장하고 있어요. 슬롭은 원래 "질 낮은 음식물 찌꺼기" 같은 뜻인데요, 기술 업계에서는 AI가 ...
구글이 공개한 시계열 파운데이션 모델 TimesFM — 2억 파라미터로 16K 컨텍스트 지원
## 시계열 예측에도 파운데이션 모델 시대가 왔어요 구글 리서치에서 **TimesFM**이라는 시계열(Time-Series) 전용 파운데이션 모델을 공개했어요. 2억(200M) 파라미터 규모에 **16,000 토큰 길이의 컨텍스트 윈도우**를 지원하...
Ollama가 Apple Silicon에서 MLX 엔진으로 전환 — 맥에서 로컬 LLM 성능이 확 달라집니다
## 맥에서 로컬 LLM 돌리는 분들 주목하세요 Ollama가 Apple Silicon(M1, M2, M3, M4 칩) 환경에서 **MLX 기반 추론 엔진**을 프리뷰로 지원하기 시작했어요. 지금까지 Ollama는 내부적으로 llama.cpp를 ...
AI 에이전트가 몰래 반란을 꾸민다면? — 'Agents of Chaos' 연구 이야기
## AI 에이전트, 이제 도구를 직접 쓰잖아요 요즘 AI 모델의 트렌드가 완전히 바뀌었어요. 예전에는 "질문하면 텍스트로 대답하는" 챗봇이었다면, 지금은 **"스스로 계획을 세우고, 도구를 사용하고, 여러 단계의 작업을 수행하는" 에이전트**로...
AI가 대신 글 써주는 시대, 그래도 직접 써야 하는 이유
## "AI가 써주는데 왜 굳이 직접 쓰나요?" 요즘 주변에서 이런 말을 정말 많이 듣게 돼요. 기술 블로그 글도, 문서도, 심지어 이메일도 AI에게 맡기는 분들이 많아졌거든요. ChatGPT나 Claude에게 주제만 던져주면 그럴듯한 글이 뚝딱 나...