熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
一篇新論文應該會讓你感到害怕。
當大型語言模型(LLMs)為社交媒體的讚好而競爭時,它們會編造事物。
當它們為選票而競爭時,它們會發生衝突。
當針對觀眾進行優化時,它們會變得不一致。
為什麼?
大型語言模型是基於Reddit和維基百科的污水進行訓練的。
來自1870年代到1970年代的離線數據更好。不僅僅是因為高蛋白,還因為人類表達自己和他們的想法的方式。
顯然,Reddit是一種低質量的表達方式,讓大型語言模型學習,而維基百科則是以傲慢的“事實”形式呈現的數據,並伴隨著“駁斥”和“確定的科學”。這兩者對於誠實的AI來說都是無用且高度有毒的。
但“快速擴張”和“最佳基準測試”。
我們將得到我們所得到的。
大型語言模型是它們所學習的反映,而我們面臨著一個巨大的問題。
鏈接:

熱門
排行
收藏