ChatGPT halluziniert nicht existierende Rails-Syntax
2025-03-01
Ein Programmierer suchte Hilfe bei ChatGPT, um Assoziationen in Rails dynamisch vorzuladen. ChatGPT schlug selbstbewusst eine ungültige Syntax vor – eine Syntax, die der Programmierer selbst zwei Jahre zuvor in einem Rails-Forum vorgeschlagen (und verworfen) hatte. Dieser lustige Vorfall zeigt, wie selbst leistungsstarke LLMs „halluzinieren“ können, wenn sie mit Nischen-Themen und unzureichendem Kontext konfrontiert werden, und sich wie ein Junior-Entwickler verhalten, der blind Code kopiert und einfügt.
Entwicklung