OpenAI ha lanzado Privacy Filter, un modelo de código abierto diseñado para detectar y ocultar información de identificación personal (PII) en texto. Este modelo, de pequeño tamaño pero con capacidades avanzadas, permite a los desarrolladores integrar protecciones de privacidad directamente en sus sistemas, mejorando la seguridad y la resiliencia de los flujos de trabajo con IA. A diferencia de las herramientas tradicionales que se basan en reglas predefinidas, Privacy Filter utiliza un lenguaje y un contexto más amplios para identificar una gama más amplia de PII, incluso en situaciones ambiguas. Puede ejecutarse localmente, lo que evita la necesidad de enviar datos a servidores externos para su anonimización y ofrece una mayor seguridad. El modelo, con 1.5 mil millones de parámetros, clasifica el texto en ocho categorías (como nombres, direcciones, números de cuenta y contraseñas) y ha demostrado un rendimiento superior en pruebas de referencia, superando incluso versiones corregidas del benchmark PII-Masking-300k. OpenAI enfatiza que Privacy Filter es una herramienta para mejorar la privacidad, no una solución completa ni una certificación de cumplimiento, y requiere una evaluación y ajuste adicionales según las necesidades específicas de cada organización.
OpenAI lanza filtro de privacidad de código abierto
Fuentes:
Introducing OpenAI Privacy Filter
