Una nueva herramienta llamada Agent Safehouse ha sido lanzada para mejorar la seguridad de los agentes de modelos de lenguaje grandes (LLMs) en sistemas macOS. Desarrollada por Eugene Guliaev, la herramienta ofrece sandboxing nativo de macOS, permitiendo a los usuarios ejecutar agentes de forma segura sin comprometer el resto del sistema. La necesidad surge de la naturaleza probabilística de los LLMs, donde existe un riesgo, aunque pequeño, de fallos catastróficos (como un comando rm -rf ~).
Safehouse funciona mediante un sencillo script de shell que se descarga y se ejecuta. A diferencia de los agentes que heredan los permisos completos del usuario, Safehouse restringe el acceso a los recursos del sistema, bloqueando el acceso a archivos sensibles como claves SSH y otros repositorios, a menos que se otorgue explícitamente. La herramienta concede acceso de lectura/escritura al directorio de trabajo seleccionado y a las herramientas instaladas, pero niega el acceso a la mayor parte del directorio de inicio del usuario. Los usuarios pueden integrar Safehouse en su configuración de shell para ejecutar automáticamente los agentes dentro del entorno sandbox, o saltarse la protección para un acceso sin restricciones. La herramienta busca facilitar el desarrollo y la experimentación con LLMs, mitigando los riesgos asociados a su ejecución.
