IA Humanitaria: Barreras de Seguridad en Múltiples Idiomas

Fuentes: Evaluating Multilingual Guardrails in Humanitarian AI

Este artículo técnico explora una evaluación crítica de las 'barreras de seguridad' (guardrails) multilingües y sensibles al contexto en modelos de lenguaje grandes (LLMs), específicamente en el contexto humanitario. Los LLMs, impulsados por la inteligencia artificial, están siendo utilizados cada vez más para asistir a solicitantes de asilo y personal de organizaciones humanitarias, pero su efectividad depende de la capacidad de garantizar respuestas seguras, precisas y culturalmente apropiadas. El problema central es que los LLMs a menudo producen resultados diferentes, de calidad variable e incluso contradictorios, dependiendo del idioma de la consulta. Estos resultados inconsistentes pueden ser amplificados si las 'barreras de seguridad', que son herramientas diseñadas para controlar la salida de los LLMs, también son susceptibles a estos sesgos lingüísticos.

Mozilla.ai combinó dos proyectos para abordar este problema: las 'Evaluaciones de Seguridad de la IA Multilingüe' de Roya Pakzad y e