跳转至主要内容
行情
扫链
追踪
信号
牛人榜
兑换
资产
邀请计划
更多
产品
DeFi
市场
洞察中心
Eco Hub
安全中心
开发者中心
DEX API
探索 DEX API
DEX API 文档
API Key 管理
区块链浏览器
X Layer
探索 X Layer
X Layer 浏览器
跨链桥
开发者文档
测试网水龙头
GitHub
DApp 连接钱包
Boost
X Launch
参与 X Launch,抢先赚新币
Giveaway
完成指定任务,领取空投好礼
交易赛
交易热门代币,冲榜赢大奖
奖励中心
领取奖励和空投
预警
语言
货币
下载 OKX Wallet
Web3 指南
公告
返回
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
日本語
Norsk (bokmål)
Suomi
Svenska
返回
返回
使用教程
学院
帮助中心
发现功能使用指南
热门话题
#
Bonk 生态迷因币展现强韧势头
Hosico
-6.59%
USELESS
+5.25%
IKUN
+1.66%
gib
-1.63%
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
Bonk
+0.98%
ALON
+2.4%
LAUNCHCOIN
+3.21%
GOONC
-2.36%
KLED
+43.01%
#
Solana 新代币发射平台 Boop.Fun 风头正劲
BOOP
+4.81%
Boopa
+11.76%
PORK
0.00%
主页
Jack Morris
研究@cornell // 语言模型、信息论、人工智能科学
查看原文
Jack Morris
9月26日 02:34
顺便说一下。我最近写了一篇关于这个的论文! 对于变压器,参数大约是每个参数 3.6 位 所以你需要 25GB ÷ 3.6 位 ≈ 56.9B 个参数才能准确记住维基百科 实际上这是一个相当大的模型
prerat
9月17日 00:45
好的,所以所有维基百科的文本大约是25 GB(压缩后) 一个25B参数的模型能否可靠地记住维基百科中的几乎所有事实?如果不能,需要多少参数?2倍?10倍?有可能少于1倍吗?
112.5K
1.37K
Jack Morris
9月25日 21:28
欧洲最大的科技公司终于发布了一个“主权 LLM”。这只是运行在德国服务器上的 chatGPT。 与此同时,中国的 DoorDash 从零开始预训练了 560B LLM。
290.16K
5.08K
Jack Morris
9月25日 01:05
看起来 One Big Model 的世界将在一两年内结束 我们将拥有不断重新训练、合并和在不同程度的过时下重新应用的 peft 适应专家家庭 传统机器学习的训练/测试分割让我们拖延了太久
23.5K
317
热门
排行
收藏