El Sistema FARO, implementado por el Observatorio Español del Racismo y la Xenofobia (OBERAXE) a partir de marzo de 2025, representa una evolución significativa en la monitorización del discurso de odio en redes sociales. Su objetivo principal es identificar, analizar y reportar contenido con motivación racista, xenófoba, islamófoba, antisemita y antigitana en plataformas como Facebook, Instagram, TikTok, YouTube y X (anteriormente Twitter). Este sistema no es una iniciativa nueva; se basa en metodologías previas establecidas por el Código de Conducta para la lucha contra la incitación al odio en Internet (y su versión actualizada, el Código de Conducta +), así como en la Ley de Servicios Digitales (DSA). La experiencia previa con el análisis del discurso de odio contra personas asiáticas durante la pandemia de COVID-19 impulsó la expansión del análisis a una gama más amplia de prejuicios.
El Sistema FARO se distingue por integrar la herramienta MOOD, originalmente desarrollada para monitorizar el discurso de odio en el deporte por LALIGA, y adaptarla a las necesidades específicas del OBERAXE. Esta adaptación incorpora inteligencia artificial (IA) para un análisis más rápido y preciso. La IA permite procesar un volumen mucho mayor de contenido en tiempo real, categorizándolo según variables predefinidas que definen el discurso de odio. El sistema opera en dos fases principales: primero, el 'Monitor FARO' utiliza IA para identificar y clasificar el contenido; segundo, la herramienta 'ALERTODIO' se emplea para registrar los contenidos identificados y realizar un seguimiento de las acciones tomadas por las plataformas de redes sociales en respuesta a las notificaciones de discurso de odio (por ejemplo, si el contenido es eliminado, limitado o no se toma ninguna acción). El sistema genera informes periódicos (bimestrales, mensuales y trimestrales) que documentan los hallazgos y evalúan la respuesta de las plataformas.
El Sistema FARO es útil para varios actores. El OBERAXE lo utiliza para obtener una imagen precisa de la situación del racismo y la xenofobia en España, informando el desarrollo de políticas públicas inclusivas. Las plataformas de redes sociales pueden utilizar la información para mejorar sus políticas de moderación de contenido y responder a las notificaciones de discurso de odio. Investigadores y organizaciones de derechos humanos pueden utilizar los datos para comprender mejor las tendencias del discurso de odio y su impacto.
Algunas consideraciones importantes incluyen la dependencia de la precisión de los algoritmos de IA, que pueden generar falsos positivos o negativos. Además, la eficacia del sistema depende de la voluntad de las plataformas de redes sociales para tomar medidas contra el discurso de odio notificado. Alternativas podrían incluir el uso de análisis manuales, aunque esto sería mucho más lento y menos exhaustivo. El sistema también se centra en las cinco plataformas mencionadas, dejando fuera otras redes sociales.
