跳轉至主要內容
行情
掃鏈
追蹤
信號
牛人榜
兌換
資產
邀請計劃
更多
產品
DeFi
市場
洞察中心
Eco Hub
安全中心
開發者中心
DEX API
探索 DEX API
DEX API 文檔
API Key 管理
區塊鏈瀏覽器
X Layer
探索 X Layer
X Layer 瀏覽器
跨鏈橋
開發者文檔
測試網水龍頭
GitHub
DApp 連接錢包
Boost
X Launch
參與 X Launch,搶先賺新幣
Giveaway
完成指定任務,領取空投好禮
交易賽
交易熱門代幣,衝榜贏大獎
獎勵中心
領取獎勵和空投
預警
語言
貨幣
下載 OKX Wallet
Web3 指南
公告
返回
繁體中文
简体中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
返回
返回
使用教程
學院
幫助中心
發現功能使用指南
熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
Hosico
-3.06%
USELESS
-8.03%
IKUN
-10.4%
gib
-2.85%
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
Bonk
-2.53%
ALON
+1.95%
LAUNCHCOIN
+15.15%
GOONC
+9.59%
KLED
+75.06%
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
BOOP
-0.32%
Boopa
+3.58%
PORK
+0.47%
主頁
Jack Morris
研究@cornell // 語言模型、資訊論、人工智慧科學
查看原文
Jack Morris
9月26日 02:34
順便提一下。我最近寫了一篇關於這個的論文! 對於變壓器來說,這個數字大約是每個參數 3.6 位元 所以你需要 25GB ÷ 3.6 位元 ≈ 56.9B 參數來精確地記住維基百科 這其實是一個相當大的模型
prerat
9月17日 00:45
好的,所以所有維基百科的文本大約是25 GB(壓縮後) 一個25B參數的模型能否可靠地記住維基百科中的幾乎所有事實?如果不能,需要多少參數?2倍?10倍?有可能少於1倍嗎?
124.69K
1.5K
Jack Morris
9月25日 21:28
歐洲最大的科技公司終於推出了一個「主權 LLM」。這不過是運行在德國伺服器上的 chatGPT。 與此同時,中國的 DoorDash 從零開始預訓練了 560B LLM。
300.24K
5.26K
熱門
排行
收藏