Meta y TikTok: denuncias por contenido dañino

Fuentes: Meta and TikTok let harmful content rise after evidence outrage drove engagement - whistleblowersT1state_media

Una investigación de la BBC revela que Meta (Facebook e Instagram) y TikTok priorizaron el crecimiento y la rentabilidad sobre la seguridad de los usuarios, permitiendo la proliferación de contenido dañino en sus plataformas. Varios denunciantes, incluyendo ingenieros de ambas compañías, proporcionaron información interna que detalla cómo los algoritmos fueron manipulados para aumentar la participación, incluso a expensas de la seguridad. En Meta, se instruyó a los ingenieros a permitir contenido “borderline” dañino para competir con TikTok, priorizando el precio de las acciones. En TikTok, se priorizaron casos relacionados con políticos sobre denuncias de abuso infantil y ciberacoso, buscando evitar regulaciones. Investigaciones internas de Meta revelaron que el algoritmo ofrecía un “camino que maximiza las ganancias a expensas del bienestar” de los usuarios. Un ex empleado de TikTok, bajo el seudónimo de Nick, mostró cómo casos de políticos eran priorizados sobre denuncias de abuso a menores. Los denunciantes afirman que la empresa valora más una “relación sólida” con políticos que la seguridad de los usuarios. La investigación también destaca cómo la radicalización algorítmica ha afectado a jóvenes y cómo la normalización de contenido violento y extremista ha sido observada por las autoridades policiales.