1/ Nieuw paper — *de recentie van trainingsbestellingen is lineair gecodeerd in LLM-activaties*! We hebben een model sequentieel gefinetuned op 6 datasets met niet-overlappende entiteiten. Gemiddelde activaties van de 6 bijbehorende testsets komen exact overeen met de trainingsvolgorde! EN de lijnen voor verschillende trainingsruns zijn ~parallel!