Bayes, Bits y Cerebros: Una Aventura en Probabilidad y Teoría de la Información

2025-09-01

Este sitio web profundiza en la probabilidad y la teoría de la información, explicando cómo iluminan el aprendizaje automático y el mundo que nos rodea. Acertijos intrigantes, como predecir la siguiente letra en fragmentos de Wikipedia y comparar tu rendimiento con redes neuronales, llevan a exploraciones del contenido de información, divergencia de KL, entropía, entropía cruzada y mucho más. El curso cubrirá la estimación de máxima verosimilitud, el principio de máxima entropía, logits, softmax, funciones gaussianas y la configuración de funciones de pérdida, revelando finalmente las conexiones entre algoritmos de compresión y modelos de lenguaje grandes. ¿Listo para sumergirte en la madriguera del conejo?

IA