Un reciente análisis revela que las herramientas de codificación con IA, como Cursor, GitHub Copilot, Claude Code y Codex, tienden a reescribir código innecesariamente, un fenómeno denominado "Over-Editing". En lugar de simplemente corregir el error específico, estas herramientas a menudo modifican grandes secciones de la función, introduciendo cambios estructurales no solicitados, como la adición de validaciones, conversiones de tipos y refactorizaciones. Esto complica significativamente el proceso de revisión de código, ya que los cambios son extensos y a menudo difíciles de entender para los revisores. El problema es particularmente grave en proyectos existentes (brown-field), donde el código ya ha sido comprendido y deliberadamente escrito de una manera específica. El estudio, basado en un conjunto de datos generado programáticamente para controlar la naturaleza de las modificaciones, utiliza métricas como la Distancia de Levenshtein a nivel de token y la Complejidad Cognitiva para cuantificar el "Over-Editing". Los resultados muestran que incluso los modelos de IA más avanzados, como GPT-5.4, exhiben esta tendencia, aunque Claude Opus 4.6 muestra un mejor desempeño. La investigación destaca la necesidad de desarrollar modelos de IA más "fieles" que se limiten a las correcciones necesarias, evitando la introducción de cambios innecesarios que degradan la calidad del código.
