Knappe Anweisungen führen zu Halluzinationen bei KI

2025-05-13
Knappe Anweisungen führen zu Halluzinationen bei KI

Eine neue Studie von Giskard zeigt, dass die Anweisung an KI-Chatbots, prägnant zu sein, paradoxerweise Halluzinationen verstärken kann, insbesondere bei mehrdeutigen Themen. Die Forscher fanden heraus, dass knappe Anweisungen die Fähigkeit des Modells einschränken, Fehler zu identifizieren und zu korrigieren, wobei Kürze gegenüber Genauigkeit priorisiert wird. Selbst fortschrittliche Modelle wie GPT-4 sind betroffen. Dies unterstreicht die Spannung zwischen Benutzererfahrung und faktischer Genauigkeit und fordert Entwickler auf, Systemanweisungen sorgfältig zu gestalten.