Ciencia frente a la complejidad: ¿basta con las ecuaciones?

Fuentes: Billion-Parameter Theories

Durante la mayor parte de la historia humana, los fenómenos complejos se atribuían a lo místico. Con el tiempo, la ciencia, con sus concisas ecuaciones (F=ma, E=mc², PV=nRT), logró comprimir vastas cantidades de información en modelos manejables, diseñados para ser comprendidos y aplicados por la mente humana. Esta tradición favoreció teorías 'pequeñas', elegantes y fáciles de internalizar. Sin embargo, esta aproximación resultó ineficaz al abordar sistemas 'complejos' como la pobreza, el cambio climático o la salud mental, donde las interacciones son dinámicas, los efectos son impredecibles y el estudio mismo puede alterar el sistema.

La Santa Fe Institute (SFI), fundada en 1984, intentó desarrollar un marco para comprender estos sistemas complejos, identificando patrones como la distribución de leyes de potencias y la sensibilidad a las condiciones iniciales. No obstante, sus modelos descriptivos carecían de la capacidad prescriptiva necesaria para intervenir de manera efectiva. Se observó un paralelismo con la lingüística: aunque se descubrieron principios universales del lenguaje, estos eran demasiado generales para ser útiles en la modelización del lenguaje.

Intentos de aplicar modelos simplificados a la economía y la farmacología resultaron en éxitos parciales y frustraciones, evidenciando una limitación fundamental: la necesidad de teorías más complejas de lo que la mente humana podía procesar. Ahora, con el auge de la inteligencia artificial y, en particular, de las redes neuronales profundas y las arquitecturas Transformer, se ha abierto una nueva era. Estas herramientas permiten construir modelos de sistemas complejos que funcionan, aunque su funcionamiento interno no se comprenda completamente. Estamos, en esencia, en una fase similar a la de los herreros que trabajaban el metal antes de la invención de la metalurgia.

La clave del cambio radica en la capacidad de manejar modelos de gran escala, con miles de millones de parámetros, que superan la capacidad de la mente humana. Los modelos de lenguaje grandes (LLMs) son ejemplos de esto: representan de forma comprimida la complejidad del lenguaje humano, la cultura y el pensamiento. Aunque estos modelos no se ajustan a la definición tradicional de una 'buena teoría' (compacta y generalizable), su utilidad práctica es innegable. La capacidad de crear modelos que pueden hacer predicciones y experimentos mentales abre nuevas posibilidades para comprender y abordar sistemas complejos, aunque la teoría subyacente siga siendo opaca.