나만의 Python 프로젝트 표준 만들기: Claude Skills로 자동화하기
Python 프로젝트를 시작할 때마다 매번 같은 설정을 반복하고 있지 않나요? pyproject.toml 작성, 린터 설정, 디렉토리 구조 만들기... 이번 글에서는 2025년 기준 최신 Python 도구 스택을 정리하고, Claude Skills로 이 과정을 자동화하는 방법을 공유합니다.
Python 프로젝트를 시작할 때마다 매번 같은 설정을 반복하고 있지 않나요? pyproject.toml 작성, 린터 설정, 디렉토리 구조 만들기... 이번 글에서는 2025년 기준 최신 Python 도구 스택을 정리하고, Claude Skills로 이 과정을 자동화하는 방법을 공유합니다.
이 글은 3부작 시리즈의 첫 번째 글입니다.
AI에게 "이번 주말 친구들 생일파티 준비해줘"라고 말한다고 상상해보세요. AI가 이 일을 잘 해내려면 연결(친구들 연락처), 노하우(초대장 작성법), 분업(케이크와 장식 동시 준비)이 필요합니다. 바로 이 세 가지 문제를 해결하기 위해 Skills, MCP, Subagents 같은 도구들이 등장했습니다.
"명확하게 이해되고, 성능이 좋고, 설계가 잘 되어 있어서 운영 및 추가 개발시 좋았던 코드"
— 제가 "잘 짰다"고 느꼈던 코드에 대한 정의
KL Divergence를 정보이론 기초부터 이해하기. Self-Information, Entropy, Cross-Entropy의 관계를 통해 KL Divergence가 왜 이런 형태인지 직관적으로 설명합니다.
머신러닝을 하다 보면 "두 확률 분포가 얼마나 다른가?"를 측정해야 하는 상황을 자주 만납니다. 모델이 예측한 분포와 실제 데이터 분포의 차이, VAE에서 latent space의 분포와 prior의 차이, 또는 시간에 따른 데이터 분포의 변화(drift) 감지까지. 이 모든 상황에서 KL Divergence라는 개념이 등장합니다.
이번 글에서는 KL Divergence가 "무엇"인지보다 "왜" 이런 형태를 갖게 되었는지에 초점을 맞춥니다. 정보이론의 기초 개념부터 차근차근 쌓아올려 보겠습니다.