ところで。 最近これに関する論文を書きました! トランスフォーマーの場合、この数はパラメータあたり約 3.6 ビットです したがって、ウィキペディアを正確に記憶するには、25GB÷3.6ビット≈56.9Bパラメータが必要です 実際、かなり大きなモデルです