1/ Nuevo artículo — *¡la recencia del orden de entrenamiento está codificada linealmente en las activaciones de LLM*! Ajustamos secuencialmente un modelo en 6 conjuntos de datos con entidades disjuntas. ¡Las activaciones promedio de los 6 conjuntos de prueba correspondientes se alinean en el orden de entrenamiento exacto! ¡Y las líneas para diferentes ejecuciones de entrenamiento son ~paralelas!