LLMs und Menschen zeigen Bias: Ein Experiment zur Bewertung der Attraktivität von TTS-Stimmen

2025-03-10

Im vergangenen Jahr verwendete der Autor LLMs, um Hacker-News-Benutzer zu bewerten, und stellte dabei einen Bias fest: Die Modelle bevorzugten durchweg den zuerst im Prompt genannten Benutzer. In diesem Jahr ergab ein neues Experiment zur Bewertung der Attraktivität von TTS-Stimmen einen ähnlichen Bias bei menschlichen Teilnehmern, die Stimmen bevorzugten, die auf der rechten Seite des Bildschirms angezeigt wurden. Dies bestätigt die vorherigen Ergebnisse des Autors und unterstreicht die Bedeutung von großen Stichproben und Randomisierung bei der Verwendung von sowohl KI- als auch menschlichen Bewertungen, um Bias zu reduzieren.