Eine 2-stufige Pipeline-Unlimited-Registermaschine im Conway's Game of Life

2025-08-10

Dieser Artikel, der vierte einer Serie, beschreibt den Bau einer 2-stufigen Pipeline-Unlimited-Registermaschine (URM) in Conway's Game of Life. Die URM, eine Turing-vollständige CPU mit vier Instruktionen, faktorisiert die Zahl 15. Der Autor beschreibt das Design der URM, einschließlich ALU, Registerdatei, ROM und Befehlsausführung. Der Schwerpunkt liegt auf effizientem Schaltungsentwurf im Game of Life, wobei die Schaltungslänge Priorität vor der Transistoranzahl hat. Eine 2-stufige Pipeline wird implementiert, um die Geschwindigkeit zu erhöhen. Der Autor schließt mit der Ankündigung eines zukünftigen Redesigns für höhere Effizienz.

Mehr lesen
Entwicklung Digitale Logikgatter

Schachengine in 84.688 regulären Ausdrücken

2025-01-07

Nicholas Carlini hat als Urlaubsprojekt eine 2-schichtige Minimax-Schachengine mit erstaunlichen 84.688 regulären Ausdrücken gebaut. Er entwarf eine regex-basierte virtuelle Maschine mit einem branchfreien, bedingten Ausführungs- und SIMD-Befehlssatz. Ein Compiler für symbolische Ausführung übersetzt Python-Code in Regex-Sequenzen und ermöglicht parallele Berechnungen. Die Engine nutzt SIMD, um Züge für mehrere Figuren gleichzeitig zu berechnen, mit cleveren Regex-Optimierungen für Geschwindigkeit. Obwohl sie in der Tiefe begrenzt ist, zeigt sie die überraschende Rechenleistung regulärer Ausdrücke.

Mehr lesen

Von KI generierte Webseite: Ein Experiment zu Fähigkeiten vs. Wissen

2024-12-31

Der Sicherheitsforscher Nicholas Carlini führte ein zwölftägiges Experiment durch: Er schrieb täglich seine Webseite und seine Biografie mit einem anderen Sprachmodell neu. Er stellte fest, dass die Modelle zwar hervorragende visuell beeindruckende Webseiten generieren konnten, aber in Bezug auf die Genauigkeit der Fakten deutlich versagten. Beispielsweise enthielt die von dem Modell o1-mini generierte Webseite 43 Aussagen; 32 waren völlig falsch, 9 enthielten schwerwiegende Fehler und nur 2 waren faktisch korrekt. Dies unterstreicht die große Diskrepanz zwischen "Fähigkeiten" (Webseite-Generierung) und "Wissen" (faktische Genauigkeit) in LLMs und betont die Notwendigkeit von Vorsicht beim Vertrauen auf KI-generierte Inhalte.

Mehr lesen

ChatGPT-Klon in 3000 Byte C-Code

2024-12-12

Der Entwickler Nicholas Carlini hat einen ChatGPT-Klon mit nur 3000 Byte C-Code erstellt, angetrieben vom GPT-2-Modell. Diese abhängigefreie Implementierung lädt die Gewichtsmatrix und die BPE-Datei von GPT-2 und führt dann Tokenisierung, Matrixoperationen, Transformer-Inferenz und Detokenisierung durch. Obwohl die Ausgabequalität nicht hoch ist, ist die Effizienz bemerkenswert und erzeugt mehrere Antworten pro Sekunde auf moderner Hardware. Dies zeigt das Potenzial von kompaktem Code bei der Implementierung komplexer KI-Modelle.

Mehr lesen
KI KI