熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
你常常聽到聰明人說“LLMs的好壞取決於訓練數據。它們也只能做訓練集中看到的事情”。
在某種程度上,這確實是對的。
但在許多其他方面,這非常愚蠢。
人們忽視的一個重要點是組合智能。
用更簡單的話說:你可以將簡單的概念串聯在一起,以完成更複雜的事情。
想想這個:你想做一個煎蛋卷。
在互聯網上的某個地方(可能是Reddit),有人深入探討如何最好地打破一個雞蛋。
在互聯網上的另一個地方(可能也是在Reddit),有人深入探討如何製作煎蛋卷,假設你已經有了蛋液。
一個聰明的人能夠把這兩條知識結合起來,做出一個煎蛋卷。
這不是火箭科學。
即使沒有任何訓練數據談論如何做一個該死的煎蛋卷。
現在想象一下,這種情況適用於有一千個步驟可以以瘋狂的階乘方式組合的事情。LLMs可以做到這一點!
想一想:僅僅用1000個學習到的概念,你就有1000!種可能的排列。這比宇宙中的原子還要多。
我們所稱的“推理”可能只是足夠規模的組合智能。將簡單模式串聯在一起,直到複雜行為出現的能力。
這不是簡單的重複。這是綜合。而在這個規模上的綜合與理解是無法區分的。
熱門
排行
收藏