Una nueva aproximación a la seguridad de agentes de IA, llamada NanoClaw, ha sido desarrollada para abordar las vulnerabilidades inherentes a confiar en estos sistemas. Según Gavriel Cohen, creador de NanoClaw, la estrategia correcta no reside en mejorar los permisos o listas de acceso, sino en aislar completamente a los agentes en contenedores Docker o similares. Esto implica que cada agente opera en su propio entorno, con acceso limitado a directorios y un perfil de usuario no privilegiado, previniendo que un agente malicioso o comprometido cause daños significativos. La arquitectura de NanoClaw también separa los agentes entre sí, evitando fugas de información entre asistentes personales y herramientas de trabajo. El proyecto busca mitigar riesgos derivados de la complejidad del código base de OpenClaw (casi 500.000 líneas), que dificulta su revisión exhaustiva. NanoClaw prioriza la simplicidad, la auditabilidad y la incorporación de nuevas funcionalidades a través de 'skills' (implementaciones de referencia), en lugar de añadir complejidad al núcleo del sistema. En esencia, NanoClaw promueve un diseño basado en la desconfianza, construyendo 'muros' alrededor de los agentes para contener cualquier posible brecha de seguridad.
