El ensayo de Guy Freeman, "La Lección Amarga No Tiene Función de Utilidad", aborda una desconexión importante en la comunidad de Inteligencia Artificial (IA). La "Lección Amarga" de Rich Sutton, popularizada en 2019, argumenta que los métodos generales que aprovechan la computación superan consistentemente a los métodos basados en el conocimiento humano experto. Esto se ha visto en áreas como ajedrez, Go, reconocimiento de voz y visión por computadora. Aunque Freeman está de acuerdo con esta observación histórica, señala que la aplicación de esta lección se ha malinterpretado, llevando a una categorización errónea de herramientas y enfoques.
El punto central del ensayo es que la teoría de la decisión, un marco matemático que precede a las redes neuronales, no compite directamente con el aprendizaje profundo en tareas de percepción (como la clasificación de imágenes). En cambio, la teoría de la decisión se centra en la toma de decisiones bajo incertidumbre y con recursos limitados: ¿debería realizarse una llamada a la API, qué experimento ejecutar a continuación, o es mejor recopilar más información? Estas son cuestiones de asignación de recursos, no de reconocimiento de patrones.
Freeman argumenta que la comunidad de IA ha caído en una dicotomía simplista: por un lado, el conocimiento experto manual (IA simbólica); por otro, los métodos generales impulsados por la computación (aprendizaje profundo). La teoría de la decisión no encaja en ninguno de estos campos. La analogía del coche es útil: Sutton explica cómo construir un coche más rápido, mientras que la teoría de la decisión se pregunta a dónde debe ir ese coche. La Lección Amarga se centra en la capacidad (qué método es mejor), pero ignora el propósito (hacia dónde se dirige esa capacidad) y la optimización de recursos.
Además, el ensayo destaca que la aplicación indiscriminada de más computación no es la solución a todos los problemas, y que la falta de una función de utilidad explícita (una definición clara de lo que se está optimizando) puede llevar a que los valores humanos se incorporen de forma implícita y potencialmente no deseada en los sistemas de IA. Finalmente, el hecho de que personas con conocimientos técnicos avanzados no puedan distinguir la teoría de la decisión de la IA simbólica ilustra una erosión de la memoria institucional, donde ideas valiosas se olvidan y potencialmente deben redescubrirse. Freeman concluye que la colaboración entre humanos (con la función de utilidad) y máquinas (con la computación) es esencial para el progreso.
