IA: Control, no prompts, para agentes más eficientes

Fuentes: agents need control flow, not more prompts

El artículo "agents need control flow, not more prompts" plantea una crítica fundamental a la forma en que actualmente se construyen los agentes inteligentes (AI agents) basados en modelos de lenguaje grandes (LLMs). La tesis central es que la dependencia excesiva en cadenas de prompts (prompt chains) para controlar el comportamiento de estos agentes es una limitación que impide la creación de sistemas realmente fiables y capaces de resolver tareas complejas.

¿Por qué es importante esto? Los agentes inteligentes, especialmente aquellos que automatizan procesos o toman decisiones, necesitan ser predecibles y confiables. Simplemente pedirle a un LLM que haga algo con instrucciones cada vez más largas y detalladas (como usar frases "MANDATORY" o "DO NOT SKIP") es una solución temporal que se desmorona al aumentar la complejidad. Imaginemos un lenguaje de programación donde las instrucciones fueran sugerencias y las funciones devolvieran resultados aleatorios; sería imposible depurar o confiar en el programa.

¿Cómo funciona el problema? El artículo compara la construcción de agentes con la programación de software. El software se basa en la composición recursiva: sistemas complejos construidos a partir de módulos, funciones y bibliotecas, todo ello definido en código. Este código proporciona un comportamiento predecible y permite el razonamiento local (entender cómo una pequeña parte del código afecta al resultado general). Las cadenas de prompts, por el contrario, son inherentemente no deterministas, mal definidas y difíciles de verificar. Cada prompt es una sugerencia, y la respuesta del LLM puede variar incluso con la misma entrada, lo que dificulta la depuración y la garantía de resultados correctos.

La solución propuesta: El artículo aboga por “scaffolds deterministas”. Esto implica extraer la lógica de control de las instrucciones en lenguaje natural y codificarla directamente en el software. Esto significa definir explícitamente los estados del agente, las transiciones entre ellos y los puntos de validación para asegurar que el LLM se utiliza como un componente dentro de un sistema más estructurado, y no como el sistema en sí mismo. En esencia, se trata de tratar al LLM como una función que recibe una entrada y produce una salida, en lugar de un oráculo al que se le pide que resuelva problemas complejos mediante indicaciones.

¿Quién se beneficia? Desarrolladores de agentes inteligentes, automatización de procesos, sistemas de toma de decisiones basados en IA, y cualquier persona que busque construir agentes fiables y escalables. El enfoque es especialmente útil para tareas que requieren precisión y consistencia, como la gestión de finanzas, la atención médica o la ingeniería.

Consideraciones: Implementar scaffolds deterministas requiere más esfuerzo inicial de desarrollo. Además, el artículo señala que la detección agresiva de errores es crucial. Sin ella, un agente con un flujo de control determinista pero sin mecanismos de verificación puede simplemente llegar a conclusiones incorrectas más rápidamente. Las alternativas a un control de flujo determinista incluyen la supervisión humana constante (un “babysitter”), la auditoría exhaustiva post-ejecución o, lo que el artículo describe como una opción inaceptable, simplemente “rezar” para que todo salga bien.