Un nuevo protocolo llamado Nobulex busca hacer que los agentes de inteligencia artificial sean responsables de sus acciones. Desarrollado como un proyecto de código abierto (licencia MIT), Nobulex permite a los agentes declarar sus intenciones y obligaciones, verificar que las cumplieron y enfrentar consecuencias económicas si no lo hicieron. La iniciativa se compara con cómo HTTPS hizo que el comercio electrónico fuera confiable al garantizar la seguridad de las conexiones, ahora buscando lograr lo mismo para la economía de los agentes de IA.
El sistema funciona a través de un lenguaje específico de dominio (DSL) que define 'covenants' o acuerdos que rigen el comportamiento del agente. Estos covenants se pueden verificar de forma determinista y eficiente, auditando las acciones contra las declaraciones realizadas. Nobulex ofrece diferentes niveles de seguridad, desde middleware basado en Trusted Execution Environments (TEE) para acciones de alto riesgo hasta staking y slashing en cadenas de bloques para casos de uso más generales. El proyecto incluye componentes como gestión de identidades digitales (DIDs), registro de acciones, verificación y contratos inteligentes desplegados en la red Ethereum (Sepolia testnet). El código fuente y documentación están disponibles en GitHub, y el proyecto busca establecer un estándar para la confianza en agentes de IA.
