Sitios web están implementando una nueva herramienta llamada 'Anubis' para combatir el scraping masivo de datos por parte de empresas de inteligencia artificial. La medida, que ya se está viendo en varios sitios, busca proteger los servidores de la sobrecarga que causan estos 'scrapers', lo que puede provocar interrupciones del servicio para todos los usuarios. Anubis funciona bajo un sistema de 'Proof-of-Work', similar al utilizado para combatir el spam en correos electrónicos, que impone una carga adicional a los solicitantes, haciéndolo más costoso para los programas automatizados. Aunque se considera una solución temporal, permite a los administradores de sitios web invertir en métodos más sofisticados, como el rastreo de huellas digitales de navegadores, para identificar y diferenciar a los usuarios legítimos de los bots. La herramienta requiere JavaScript moderno, lo que puede generar incompatibilidad con ciertos plugins de navegador como JShelter.
