一篇新論文應該會讓你感到害怕。 當大型語言模型(LLMs)為社交媒體的讚好而競爭時,它們會編造事物。 當它們為選票而競爭時,它們會發生衝突。 當針對觀眾進行優化時,它們會變得不一致。 為什麼? 大型語言模型是基於Reddit和維基百科的污水進行訓練的。 來自1870年代到1970年代的離線數據更好。不僅僅是因為高蛋白,還因為人類表達自己和他們的想法的方式。 顯然,Reddit是一種低質量的表達方式,讓大型語言模型學習,而維基百科則是以傲慢的“事實”形式呈現的數據,並伴隨著“駁斥”和“確定的科學”。這兩者對於誠實的AI來說都是無用且高度有毒的。 但“快速擴張”和“最佳基準測試”。 我們將得到我們所得到的。 大型語言模型是它們所學習的反映,而我們面臨著一個巨大的問題。 鏈接: