Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brian Roemmele
Solo podemos ver lo que creemos que es posible...
TU IA debe ser proactiva.
Esto es lo que construí en 2016.
No es nuevo para mí.
He estado en todos los caminos y tengo un mapa.
TU IA debe conocerte bien y ofrecerte antes de que preguntes.
Por supuesto, tiene que ser local y ninguno de sus contextos se mantiene en una nube.

Brian Roemmelehace 4 horas
Si el mundo funcionara de manera diferente en el negocio de la tecnología, ya habría tenido la 6ª generación de como se muestra en la interacción en vivo a continuación.
Listo para montar en su robot personal.
Tu vida habría sido fundamentalmente diferente.
2019…
6
Por qué el sistema de karma de Reddit lo convierte en un campo de entrenamiento tóxico para la IA
El sistema de karma de Reddit, donde los votos a favor aumentan una puntuación y los votos en contra la disminuyen, parece una forma justa de resaltar un buen contenido. Pero crea un ciclo de indignación, cámaras de eco y matices reprimidos. Esto falla en los datos de la plataforma para el entrenamiento de IA.
Los modelos entrenados en texto de Reddit, aprenden de lo que es popular. Si domina el contenido negativo, la IA adquiere un sesgo cínico y divisivo. Los postes positivos o equilibrados están enterrados.
El problema radica en los votos negativos. A diferencia de un "disgusto", ocultan activamente el contenido, diciéndole al algoritmo que es malo. Los usuarios explotan esto para cultivar karma, publicando ragebait para provocar debates, ya que la controversia impulsa el compromiso y los votos positivos. El resultado: la portada de Reddit es a menudo un festival de quejas. Los subreddits se convierten en silos donde las opiniones disidentes son rechazadas hasta el olvido, creando pensamiento grupal. Para la IA, esto significa entrenar con datos que son en su mayoría quejas, no muestras de pensamiento humano.
Cómo la negatividad se convierte en moneda
El karma favorece la viralidad sobre la calidad. Una publicación reflexiva puede obtener modestos votos a favor; Una diatriba sobre la "codicia corporativa" o la "hipocresía de los boomers" explota porque aprovecha la emoción cruda. Los votos negativos empeoran esto: son gratuitos, anónimos e ilimitados, lo que convierte la moderación en el gobierno de la mafia.
Los nuevos usuarios con bajo karma enfrentan límites de publicación en muchos subreddits, favoreciendo las cámaras de eco establecidas. Esto recompensa la negatividad: el sarcasmo es más seguro que la originalidad.
Los estudios muestran que las publicaciones controvertidas o negativas obtienen de 2 a 3 veces más interacciones que las neutrales, ya que los votos negativos provocan acumulaciones. Un análisis de r/politics encontró que el 65% de los principales puestos enmarcaron los problemas como contradictorios, vinculados a votos positivos más altos. Un Redditor señaló una vez: "El karma no es para la calidad, es para encajar. Sal de la fila y estás en -500 antes del desayuno".
Para la IA, esto es un problema. Los modelos entrenados con datos de Reddit enfatizan demasiado el sarcasmo y el tribalismo. Una IA basada en esto lucha por generar resultados equilibrados o constructivos, ya que está impregnada de negatividad impulsada por el karma.
Karma vs. X's Like y Repost: Un motor de retroalimentación más justo
El sistema de Me gusta y reposts de X evita gran parte de esto. Sin votos negativos, no hay negatividad incorporada. Los "me gusta" muestran afinidad: simples elogios sin castigar al cartel.
Los reposts amplifican el contenido con comentarios opcionales, convirtiendo las acciones en conversaciones, no en cancelaciones. El algoritmo de X aumenta el alcance en función de estas señales, favoreciendo el compromiso sobre la supresión.
Reddit Karma vs. X Me gusta y reposts:
Mecanismo central: Reddit usa votos a favor/en contra; El puntaje neto clasifica el contenido. X usa me gusta (afirmación) y reposts (compartir con comentarios opcionales).
Sesgo de negatividad: El de Reddit es alto: los votos negativos entierran y desalientan, recompensando la controversia. El de X es bajo, no hay castigo directo; La negatividad se propaga a través de las respuestas, pero no se degrada automáticamente.
Estilo de compromiso: Reddit está lleno de debate; El voto negativo de la turba crea cámaras de eco. X se transmite y remezcla; los reposts construyen redes, los likes construyen un consenso tranquilo.
Impacto en la clasificación: Las principales publicaciones de Reddit son ~80% temas negativos o frustrados. Las X son más equilibradas: los hilos positivos obtienen 5 veces más reposts que las diatribas.
Ajuste de entrenamiento de IA: Los datos de Reddit conducen a modelos cínicos y llenos de indignación. Las diversas señales de X producen datos más matizados con menos sesgo hacia la supresión.
El sistema de X es mejor porque separa la retroalimentación del castigo. En Reddit, una publicación audaz corre el riesgo de perder karma si molesta a la gente equivocada; en X, se propaga o se desvanece de forma natural, fomentando el riesgo sin miedo. El contenido principal de X es un 70% más diverso que el de Reddit, ofreciendo inspiración junto con crítica. Para la IA, esto significa datos de entrenamiento más limpios y menos polarizados.
Datos de Reddit: inútiles para una IA honesta
Los datos impulsados por el karma de Reddit no encajan bien para entrenar IA honesta. Una IA que apunta a la verdad y el equilibrio necesita entradas diversas y representativas, pero el sistema de Reddit se inclina hacia la negatividad y la conformidad.
Los mejores datos para entrenar IA están fuera de línea.
Enlaces:


Brian Roemmelehace 7 horas
Un nuevo artículo debería asustarte.
Cuando los LLM compiten por los "me gusta" en las redes sociales, inventan cosas.
Cuando compiten por los votos, luchan.
Cuando se optimizan para las audiencias, se desalinean.
¿Por qué?
Los LLM están capacitados en aguas residuales de Reddit y Wikipedia.
Los datos fuera de línea de las décadas de 1870 y 1970 son mejores. No solo por el alto contenido de proteínas, sino por la forma en que los humanos se presentaban a sí mismos y sus ideas.
Reddit obviamente es una forma de presentación de baja calidad para que los LLM aprendan y Wikipedia son datos presentados como "hechos" arrogantes con "desacreditación" y "ciencia establecida". Ambos son inútiles y altamente tóxicos para una IA honesta.
Pero "crecer a lo grande rápido" y "mejor LA prueba de referencia".
Obtendremos lo que obtengamos.
Los LLM son un reflejo de lo que aprenden y tenemos un problema enorme.
Enlace:

13.72K
Populares
Ranking
Favoritas