Un desarrollador afirma haber mejorado el rendimiento de 15 modelos de lenguaje grandes (LLM) en una sola tarde, no mediante la modificación del modelo en sí, sino a través de un cambio en el 'harness' o interfaz de usuario. El desarrollador, @_can1357, explica que la conversación actual se centra en la comparación de modelos (GPT-5.3 vs. Opus, Gemini) ignorando la importancia del harness, que afecta la experiencia del usuario, la entrada de tokens y la interacción con el espacio de trabajo. Su 'hobby harness', oh-my-pi, permite experimentar y mejorar la eficiencia. El problema radica en que los modelos existentes utilizan métodos ineficientes para aplicar cambios, como 'apply_patch' (OpenAI) o 'str_replace' (Claude Code), que generan errores y desperdician tokens. La solución propuesta, 'hashline', asigna identificadores únicos a cada línea de código, permitiendo que el modelo edite de forma más precisa y eficiente. Las pruebas realizadas con 16 modelos mostraron mejoras significativas
