今天,我們發佈了 Power Retention,這是一種超越 Transformers 的新架構。 它使 LLM 能夠高效處理數百萬個標記,解鎖了之前成本過高的長上下文應用。