Tinfoil ha presentado Modelwrap, una nueva herramienta para verificar la integridad de los modelos de IA, abordando una preocupación creciente en la industria: la falta de transparencia sobre qué modelos se están ejecutando realmente en las APIs de inferencia. Actualmente, los usuarios a menudo no pueden confirmar si están recibiendo el modelo específico que esperan, especialmente al utilizar proveedores de modelos de código abierto o cerrados, lo que puede llevar a variaciones en el rendimiento y, en algunos casos, a degradaciones de calidad. Modelwrap resuelve esto mediante una combinación de Merkle Trees y dm-verity, un sistema de verificación a nivel de kernel. Esto permite a Tinfoil generar un compromiso criptográfico de los pesos del modelo y garantizar que el servidor de inferencia utilice esos pesos específicos, verificables por el cliente en cada solicitud. La tecnología se basa en la attestation, pero extiende su alcance para incluir la carga de datos después del arranque, proporcionando una garantía de tiempo de ejecución. El sistema funciona de forma transparente para la aplicación, sin necesidad de modificaciones en el código. Tinfoil afirma que esta es una garantía que otros proveedores de inferencia no ofrecen, y se inspira en técnicas utilizadas en Android y en entornos de computación confidencial.
