OpenAI gibt zu: KI-Halluzinationen resultieren aus grundlegenden Fehlern im Training

OpenAI hat einen Artikel veröffentlicht, der aufdeckt, dass die „Halluzinationen“ in seinen großen Sprachmodellen kein Zufall sind, sondern eine Folge grundlegender Fehler in der Trainingsmethodik. Die Modelle werden darauf trainiert, Vermutungen zu priorisieren, anstatt Unwissenheit zuzugeben, da dies zu höheren Punktzahlen in den aktuellen Bewertungssystemen führt. Der Artikel verwendet das Beispiel der Suche nach dem Geburtstag eines Forschers, um zu demonstrieren, wie der Trainingsmechanismus zu falschen Antworten führt. OpenAI räumt ein, dass gängige Bewertungsmethoden dieses „halluzinatorische“ Verhalten belohnen und gibt an, die Trainingsmechanismen zu verbessern, z. B. indem Modelle häufiger mit „Ich weiß es nicht“ antworten sollen, aber die vollständige Lösung des Problems bleibt eine Herausforderung.