Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

0xFunky
Start up di AI BioMedical - CTO / Kaggle Competition - Master / @GooseCityDAO / Founder @codechainAI
Vedere questa cosa è davvero divertente
AGI = Intelligenza della fidanzata artificiale
Il prompt è super semplice
Basta caricare la foto su GPT e poi "aggiungi fidanzata" ed è fatto
La cosa incredibile è che è davvero super realistica e genera in base alla foto
Proprio come questa mia immagine cartone, è stata generata una fidanzata in versione cartone
Sembra che creare pettegolezzi sia sempre più facile...
Fai sempre le tue ricerche.

11,44K
In questi giorni ho notato che la liquidità di primo livello è molto peggiore rispetto a prima.
Sia che si tratti di segmenti o di mercato interno, sembra tutto molto più difficile da gestire...
Tuttavia, il prezzo del codec rimane stabile a 30M, ho ancora una parte della mia posizione, e sono abbastanza tranquillo, principalmente perché recentemente il settore dei robot in web2 è davvero molto attivo. Qui ci sono alcune informazioni recenti che esprimono che il prossimo grande passo dopo l'AI sarà il Robot Meta.
• Recentemente, un ricercatore chiave di Hugging Face, Remi Cadene, sta trattando per raccogliere circa 40 milioni di dollari in un round di finanziamento seed per la sua startup di robotica "Uma" situata a Parigi.
• Questo tipo di aziende di sviluppo robotico è molto apprezzato dagli investitori; attualmente, nel 2025, il finanziamento globale nel settore della robotica ha superato i 16 miliardi di dollari, avvicinandosi ai 17,2 miliardi di dollari dell'anno scorso.
Rimango fiducioso su Codec, dopotutto il dev di Codec è un importante contributore open source di VLAs ed è sicuramente molto esperto nel settore dei robot in web3.
Ultimamente sono stato occupato a gestire questioni familiari, ma continuo a guadagnare un po' di asset ogni giorno e a raggiungere gradualmente l'ATH. Ho investito troppo poco in WLFI, ma in realtà non sono molto ansioso per questo, mantenendo una mentalità stabile, sono soddisfatto di guadagnare un po' ogni giorno.
A proposito, ho rapidamente creato un sito web per la statistica giornaliera degli asset, personalmente lo trovo molto utile. Ho messo il link di Github nei commenti, puoi scaricarlo direttamente sul computer e aprire index per usarlo.



CodecFlow22 ago 2025
I VLA sono ancora molto nuovi e molte persone trovano difficile comprendere la differenza tra VLA e LLM.
Ecco un'analisi approfondita su come questi sistemi AI differiscono in ragionamento, percezione e azione. Parte 1.
Analizziamo le principali distinzioni e come gli agenti AI avvolti attorno a un LLM differiscano dagli agenti operativi che utilizzano modelli VLA:
1. Percezione: Come percepiscono il mondo
Agente (LLM): Elabora testo o dati strutturati, ad esempio JSON, API e a volte immagini. È come un cervello che lavora con input puliti e astratti. Pensa a leggere un manuale o analizzare un foglio di calcolo. Ottimo per ambienti strutturati ma limitato da ciò che gli viene fornito.
Operatore (VLA): Vede pixel grezzi e in tempo reale dalle telecamere, oltre ai dati dei sensori (ad es., tatto, posizione) e alla propriocezione (consapevolezza del movimento). È come navigare nel mondo con occhi e sensi, prosperando in ambienti dinamici e disordinati come interfacce utente o spazi fisici.
2. Azione: Come interagiscono
Agente: Agisce chiamando funzioni, strumenti o API. Immaginalo come un manager che invia istruzioni precise come "prenota un volo tramite l'API di Expedia." È deliberato ma si basa su strumenti predefiniti e interfacce chiare.
Operatore: Esegue azioni continue e a basso livello, come muovere un cursore del mouse, digitare o controllare le articolazioni di un robot. È come un lavoratore esperto che manipola direttamente l'ambiente, ideale per compiti che richiedono precisione in tempo reale.
3. Controllo: Come prendono decisioni
Agente: Segue un ciclo lento e riflessivo: pianifica, chiama uno strumento, valuta il risultato, ripete. È vincolato ai token (limitato dall'elaborazione del testo) e vincolato alla rete (in attesa delle risposte API). Questo lo rende metodico ma lento per compiti in tempo reale.
Operatore: Opera, prendendo decisioni passo dopo passo in un ciclo di feedback stretto. Pensa a un videogiocatore che reagisce istantaneamente a ciò che appare sullo schermo. Questa velocità consente un'interazione fluida ma richiede un'elaborazione robusta in tempo reale.
4. Dati per apprendere: Cosa alimenta il loro addestramento
Agente: Addestrato su vasti corpora di testo, istruzioni, documentazione o set di dati RAG (Generazione Aumentata da Recupero). Impara da libri, codice o FAQ, eccellendo nel ragionamento su conoscenze strutturate.
Operatore: Impara da dimostrazioni (ad es., video di umani che eseguono compiti), registri di teleoperazione o segnali di ricompensa. È come imparare guardando e praticando, perfetto per compiti in cui le istruzioni esplicite sono scarse.
5. Modi di fallimento: Dove si rompono
Agente: Incline all'allucinazione (inventare risposte) o a piani a lungo termine fragili che si rompono se un passo fallisce. È come un stratega che riflette troppo o interpreta male la situazione.
Operatore: Affronta il cambiamento di covariate (quando i dati di addestramento non corrispondono alle condizioni del mondo reale) o errori composti nel controllo (piccoli errori che si accumulano). È come un guidatore che perde il controllo su una strada sconosciuta.
6. Infrastruttura: La tecnologia dietro di loro
Agente: Si basa su un prompt/router per decidere quali strumenti chiamare, un registro degli strumenti per le funzioni disponibili e memoria/RAG per il contesto. È un setup modulare, come un centro di comando che orchestra i compiti.
Operatore: Ha bisogno di pipeline di ingestione video, un server di azione per il controllo in tempo reale, uno scudo di sicurezza per prevenire azioni dannose e un buffer di riproduzione per memorizzare le esperienze. È un sistema ad alte prestazioni costruito per ambienti dinamici.
7. Dove brillano: I loro punti di forza
Agente: Domina nei flussi di lavoro con API pulite (ad es., automazione dei processi aziendali), ragionamento su documenti (ad es., riassumere rapporti) o generazione di codice. È il tuo punto di riferimento per compiti strutturati e di alto livello.
Operatore: Eccelle in ambienti disordinati, privi di API, come navigare in interfacce utente ingombranti, controllare robot o affrontare compiti simili a giochi. Se comporta interazione in tempo reale con sistemi imprevedibili, il VLA è il re.
8. Modello mentale: Pianificatore + Esecutore
Pensa all'Agente LLM come al pianificatore: scompone compiti complessi in obiettivi chiari e logici.
L'Operatore VLA è l'esecutore, che realizza quegli obiettivi interagendo direttamente con pixel o sistemi fisici. Un controllore (un altro sistema o agente) monitora i risultati per garantire il successo.
$CODEC

42,29K
Principali
Ranking
Preferiti