베이즈, 비트, 그리고 뇌: 확률과 정보 이론의 모험

2025-09-01

이 웹사이트는 확률론과 정보 이론을 심도 있게 파고들어, 그것들이 머신러닝과 우리 주변의 세상을 어떻게 밝히는지 설명합니다. 위키피디아 조각에서 다음 글자를 예측하거나, 신경망과 성능을 비교하는 등 흥미로운 수수께끼를 통해 정보량, KL 다이버전스, 엔트로피, 교차 엔트로피 등을 탐구합니다. 코스에서는 최대 우도 추정, 최대 엔트로피 원리, 로짓, 소프트맥스, 가우스 함수, 손실 함수 설정을 다루고, 궁극적으로 압축 알고리즘과 대규모 언어 모델 간의 관계를 밝힙니다. 토끼굴에 뛰어들 준비가 되셨나요?