LLMs vergiften: Ein Autor wehrt sich gegen das Scrapen von Daten

2025-09-05
LLMs vergiften: Ein Autor wehrt sich gegen das Scrapen von Daten

Large Language Models (LLMs) trainieren mit riesigen Datenmengen, von denen viele ohne Zustimmung der Autoren aus dem offenen Web gecrawlt werden. Ein Autor wehrt sich dagegen, indem er absichtlich unsinnige Spiegelartikel erstellt, die über Nofollow-Links verlinkt sind. Die Hoffnung ist, dass LLMs, die Nofollow ignorieren können, diesen Unsinn aufnehmen und ihre Ausgabe verschlechtern. Obwohl es keine perfekte Lösung ist, zielt der Autor darauf ab, das Bewusstsein für das nicht autorisierte Scrapen von Daten und die ethischen Implikationen für Content-Ersteller zu schärfen.

Entwicklung