Bayes, Bits & Gehirne: Ein Abenteuer in Wahrscheinlichkeit und Informationstheorie

2025-09-01

Diese Website befasst sich eingehend mit Wahrscheinlichkeit und Informationstheorie und erklärt, wie sie uns helfen, maschinelles Lernen und die Welt um uns herum zu verstehen. Faszinierende Rätsel, wie das Vorhersagen des nächsten Buchstabens in Wikipedia-Ausschnitten und der Vergleich Ihrer Leistung mit neuronalen Netzen, führen zu Erkundungen von Informationsgehalt, KL-Divergenz, Entropie, Kreuzentropie und mehr. Der Kurs behandelt Maximum-Likelihood-Schätzung, das Prinzip der maximalen Entropie, Logits, Softmax, Gauß-Funktionen und das Einrichten von Verlustfunktionen und enthüllt schließlich die Zusammenhänge zwischen Kompressionsalgorithmen und großen Sprachmodellen. Bereit, in das Kaninchenloch einzutauchen?

KI