Mécanisme anti-scraping de site web : l’histoire derrière Anubis

2025-04-12
Mécanisme anti-scraping de site web : l’histoire derrière Anubis

Pour lutter contre le scraping agressif des sites web par les entreprises d’IA, un système anti-scraping appelé Anubis a été mis en place. Anubis utilise un mécanisme de preuve de travail (PoW) similaire à Hashcash, ajoutant une surcharge minimale pour les utilisateurs individuels, mais augmentant considérablement le coût pour les scrapers à grande échelle. Il s’agit d’une solution temporaire ; l’objectif final est d’identifier et de bloquer les navigateurs headless, évitant ainsi le recours à la PoW pour les utilisateurs légitimes. Veuillez noter qu’Anubis nécessite des fonctionnalités JavaScript modernes ; veuillez désactiver les plugins tels que JShelter pour ce domaine.

Divers