pensiero: la sycophancy negli LLM è un problema molto più profondo di quanto sembri, poiché è legato al generale "problema del grounding" l'assenza di qualsiasi "essere-nel-mondo" rende qualsiasi posizione sostenibile/riferibile dove non c'è una posizione nei confronti del mondo, non può esserci un'opinione reale
@bitcloud "La previsione del prossimo token non ha tale bias" sì, esattamente, ma è l'assenza di bias che è equivalente all'assenza di una posizione / fondamento
792