KI-basierte Voice-Cloning-Betrug deckt Mängel in Beweisregeln auf

2025-03-11

Ein Betrugsfall mit KI-basiertem Voice-Cloning zeigt die Herausforderungen auf, die sich aus der rasanten Entwicklung der Sprachsynthese-Technologie ergeben. Ein Vater wäre fast Opfer eines Betrügers geworden, der die Stimme seines Sohnes überzeugend nachahmte. Dieser Fall offenbart Schwächen in den geltenden Regeln für Beweismittel, die die Authentifizierung von Sprachaufnahmen allein auf die Identifizierung durch Zeugen stützen – ein Verfahren, das angesichts der hochentwickelten KI-basierten Voice-Cloning-Technologie nicht mehr zuverlässig ist. Studien zeigen, dass Menschen Schwierigkeiten haben, zwischen echten Stimmen und KI-generierten Klonen zu unterscheiden, was die hohe Realitätsnähe der aktuellen Technologie belegt. Der Artikel plädiert für eine Änderung der Beweisregeln, um Richtern mehr Ermessensspielraum bei der Zulassung oder Ablehnung potenziell gefälschter Audiobeweise zu geben und sich an die sich verändernde Landschaft der KI anzupassen.