Förresten. Skrev nyligen en uppsats om detta! För transformatorer är siffran cirka 3,6 bitar per parameter så du skulle behöva 25 GB ÷ 3,6 bitar ≈ 56,9 miljarder parametrar för att exakt memorera Wikipedia Det är en ganska stor modell faktiskt