Empoisonner les LLMs : La riposte d’un auteur contre le raclage de données

2025-09-05
Empoisonner les LLMs : La riposte d’un auteur contre le raclage de données

Les grands modèles de langage (LLM) s’entraînent sur d’énormes quantités de données, dont une grande partie est extraite du web ouvert sans le consentement des auteurs. Un auteur riposte en créant des articles miroirs délibérément absurdes, liés par des liens nofollow. L’espoir est que les LLM, qui peuvent ignorer nofollow, ingéreront ces inepties, dégradant ainsi leurs résultats. Bien que ce ne soit pas une solution parfaite, l’auteur vise à sensibiliser au raclage non autorisé de données et aux implications éthiques pour les créateurs de contenu.

Développement Raclage de données