Usuarios de Claude-Code, la herramienta de programación basada en inteligencia artificial de Anthropic, están experimentando pérdida de datos y alucinaciones debido a una característica de compactación automática. Cuando la herramienta comprime el historial de conversación para gestionar el tamaño del contexto, elimina datos proporcionados por el usuario, como fragmentos de código o configuraciones, incluso si estos permanecen en el disco duro. Esto provoca que Claude olvide información crucial, genere respuestas incorrectas o solicite al usuario que vuelva a proporcionar datos previamente introducidos. El problema, que afecta a tareas que involucran grandes cantidades de información de entrada, ha sido reportado en al menos ocho incidencias abiertas en GitHub. La solución propuesta implica añadir referencias a las líneas específicas del historial original dentro de los resúmenes compactados, permitiendo a Claude recuperar la información perdida bajo demanda. Esta solución minimiza la sobrecarga, utiliza la infraestructura existente y podría extenderse a sesiones anteriores, mejorando significativamente la experiencia del usuario y la fiabilidad de la herramienta.
