1/ Novo artigo — *a recência da ordem de treino é codificada linearmente nas ativações do LLM*! Nós ajustamos sequencialmente um modelo em 6 conjuntos de dados com entidades disjuntas. As ativações médias dos 6 conjuntos de teste correspondentes alinham-se na ordem exata de treino! E as linhas para diferentes execuções de treino são ~paralelas!