El artículo “Los sigmoides no te salvarán” de Scott Alexander aborda un argumento frecuente en debates sobre IA: que el crecimiento exponencial de las capacidades de la inteligencia artificial eventualmente se frenará, convirtiéndose en una curva sigmoidea (en forma de S). Aunque esto es técnicamente cierto—ningún proceso puede crecer eternamente—, el autor señala un error común: asumir que ese frenado ocurrirá justo cuando we're analyze the trend. El texto presenta el “Sigmoid Misidentification Hall Of Fame": predicciones fallidas de tasas de natalidad (la ONU esperaba que se aplanaran antes), energía solar (predicciones subestimaron consistentemente el crecimiento), y el gráfico METR de capacidades de IA en 2026, donde un equipo predijo que la tendencia se、平躺 pero la realidad demostró lo contrario. La lección es que, para predecir cuándo una exponencial se convierte en sigmoidea, hace falta comprender el proceso subyacente: en epidemias se puede calcular la velocidad de replicación y el tamaño de la población susceptible; en velocidad aérea, los ingenieros sabían que los ramjets llegaban a ~3500 km/h. En IA, however, hay tres tipos de incertidumbre: sabemos algunas cosas (centros de datos, costos), pero hay elementos opacos (¿por qué funcionan las leyes de escalamiento? ¿podrían dejar de funcionar?). Ante esta ignorancia verdadera, el autor propone aplicar la Ley de Lindy: si no sabes cuánto durará un proceso, asume que durará aproximadamente lo que ha durado hasta ahora. Si la IA ha mejorado dramáticamente desde 2017, la predicción media sería continuar otros ~7 años. El article concludes saying que quienes aseguran que la IA nunca alcanzará cierto nivel tienen la carga de probar su modelo—si treat la IA como una caja negra, deberían apply la Ley de Lindy, no asumir que se frenará inmediatamente.
Por qué la curva en S no salvará a la inteligencia artificial
Fuentes:
The Sigmoids Won't Save You
