Go 코드 철학: 좋은 Go 코드란 무엇인가?
Go 문법은 배웠는데, "좋은" Go 코드는 어떻게 작성할까요? 이 글에서는 Go 언어의 설계 철학과 Go Proverbs(격언)를 통해 Go다운 코드를 작성하는 방법을 알아봅니다.
Go 문법은 배웠는데, "좋은" Go 코드는 어떻게 작성할까요? 이 글에서는 Go 언어의 설계 철학과 Go Proverbs(격언)를 통해 Go다운 코드를 작성하는 방법을 알아봅니다.
Go 언어를 시작하려는데 어디서부터 설정해야 할지 막막하신가요? 이 글에서는 Go 프로젝트를 시작하기 위한 모든 설정을 차근차근 알려드립니다.
설치부터 사내 마켓플레이스 구축까지, 초보자도 이해할 수 있는 가이드
반복되는 컨텍스트 설명 없이, AI 에이전트에게 전문 지식을 전달하는 방법
Claude Code, Gemini CLI에서 동일한 스킬을 사용하는 완벽 가이드
문제 있는 코드를 AI 에이전트가 어떻게 개선하는지 직접 확인해봅니다
팀 컨벤션 부터 자동화 워크플로우까지, 커스텀 스킬로 패키징하는 방법
이 글은 Claude Code 시리즈의 첫 번째 편입니다. 기본 기능부터 차근차근 다루며, 실제 개발 시나리오에서 어떻게 활용하는지 보여드립니다.
CLAUDE.md로 프로젝트 컨텍스트를 주면 더 똑똑해짐/help, /init, /compact)로 효율적 작업이 글은 Claude Code 시리즈의 두 번째 편입니다. Part 1에서 기본 기능을 익혔다면, 이제 자동화로 넘어갑니다.
이 글은 Claude Code 시리즈의 세 번째 편입니다. Part 1-2에서 기본과 자동화를 다뤘다면, 이제 진정한 확장으로 넘어갑니다.
Python 프로젝트를 시작할 때마다 매번 같은 설정을 반복하고 있지 않나요? pyproject.toml 작성, 린터 설정, 디렉토리 구조 만들기... 이번 글에서는 2025년 기준 최신 Python 도구 스택을 정리하고, Claude Skills로 이 과정을 자동화하는 방법을 공유합니다.
이 글은 3부작 시리즈의 첫 번째 글입니다.
AI에게 "이번 주말 친구들 생일파티 준비해줘"라고 말한다고 상상해보세요. AI가 이 일을 잘 해내려면 연결(친구들 연락처), 노하우(초대장 작성법), 분업(케이크와 장식 동시 준비)이 필요합니다. 바로 이 세 가지 문제를 해결하기 위해 Skills, MCP, Subagents 같은 도구들이 등장했습니다.
"명확하게 이해되고, 성능이 좋고, 설계가 잘 되어 있어서 운영 및 추가 개발시 좋았던 코드"
— 제가 "잘 짰다"고 느꼈던 코드에 대한 정의
KL Divergence를 정보이론 기초부터 이해하기. Self-Information, Entropy, Cross-Entropy의 관계를 통해 KL Divergence가 왜 이런 형태인지 직관적으로 설명합니다.
머신러닝을 하다 보면 "두 확률 분포가 얼마나 다른가?"를 측정해야 하는 상황을 자주 만납니다. 모델이 예측한 분포와 실제 데이터 분포의 차이, VAE에서 latent space의 분포와 prior의 차이, 또는 시간에 따른 데이터 분포의 변화(drift) 감지까지. 이 모든 상황에서 KL Divergence라는 개념이 등장합니다.
이번 글에서는 KL Divergence가 "무엇"인지보다 "왜" 이런 형태를 갖게 되었는지에 초점을 맞춥니다. 정보이론의 기초 개념부터 차근차근 쌓아올려 보겠습니다.
Forward KL과 Reverse KL의 차이, Mode-covering과 Mode-seeking 행동의 이해. VAE의 Reparameterization Trick까지 상세 설명.
Part 1에서 KL Divergence의 정의와 정보이론적 의미를 살펴봤습니 다. 그런데 한 가지 의문이 남습니다. KL Divergence가 비대칭적이라면, 와 중 어떤 것을 사용해야 할까요?
이 선택은 단순한 수학적 문제가 아닙니다. ML 모델의 학습 행동을 근본적으로 바꿉니다. 이번 글에서는 Forward KL과 Reverse KL의 차이를 깊이 이해하고, VAE에서 Reparameterization Trick이 왜 필요한지 알아보겠습니다.
GAN 학습이 어려운 이유와 해결책. JSD의 gradient vanishing 문제부터 Wasserstein Distance, WGAN까지의 발전 과정.
Part 1에서 KL Divergence의 정보이론적 의미를 살펴봤습니다. 하지만 KL Divergence에는 실용적인 한계가 있습니다. 비대칭적이고, 특정 상황에서 무한대로 발산합니다. 이번 글에서는 이러한 한계를 극복하기 위해 등장한 **Jensen-Shannon Divergence(JSD)**와, GAN 학습에서 JSD의 치명적인 문제를 해결한 Wasserstein Distance를 다룹니다.
이 여정을 따라가다 보면 GAN이 왜 학습하기 어려운지, 그리고 WGAN이 어떻게 이를 해결했는지 깊이 이해할 수 있습니다.
KL, JSD, Wasserstein을 실제 시스템에 적용하는 방법. Drift Detection, Anomaly Detection, Model Monitoring 구현 패턴과 실무 체크리스트.
지난 세 편에서 KL Divergence, JSD, Wasserstein Distance의 이론적 배경을 살펴봤습니다. 이제 가장 중요한 질문이 남았습니다. "실제로 어떻게 쓰는가?"
이번 글에서는 분포 비교 기법을 실제 시스템에 적용하는 구체적인 패턴들을 다룹니다. Feature drift detection, anomaly detection, model monitoring 등 바로 활용할 수 있는 내용에 집중합니다.
robots.txt가 검색 엔진을 위한 것이라면, llms.txt는 AI를 위한 것입니다.
웹사이트에 robots.txt가 있듯이, 이제 llms.txt도 등장했습니다. 2024년 9월 Jeremy Howard가 제안한 이 표준은 LLM(Large Language Model)이 웹사이트 콘텐츠를 쉽게 이해할 수 있도록 돕는 파일입니다.