Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Arron🐱
Å bygge 🤑 @degenzhanshi_ 🏝 @Buji_DAO Slow er raskt
Det første punktet er endelig nådd, og nå venter vi på det femte punktet, selv om denne runden gikk glipp av muligheten til å reinkarnere Trumps to mynter, savnet jeg heldigvis ikke Ethereum, og jeg fikk mye blod tilbake

Arron🐱9. juni 2025
有群友问我为什么这波看好以太坊,我的理由如下
1.eth这轮没ath
2.美股来了以太微策略
3.以太坊质押etf
4.基金会裁员不躺平了
5.pump差不多玩腻了,要玩新东西了,创新都在以太坊
6.最近以太新质押的排队ath
7.我买了
当然最重要的是第7点
1,88K
Arron🐱 lagt ut på nytt
De siste dagene har jeg følt at likviditeten på første nivå er mye dårligere enn før
Enten det er 2 etapper eller det indre spillet, føles det mye vanskeligere å spille...
Ytelsen til kodekvalutaprisen er imidlertid fortsatt veldig stabil på 30M, og jeg har fortsatt noen posisjoner i hånden, noe som også er veldig betryggende, hovedsakelig fordi robotsporet har vært veldig hett i web2 nylig, og følgende er også litt fersk informasjon, som alle uttrykker at AI er neste er Robot Meta.
• Nylig er Remi Cadene, en kjerneforsker ved Hugging Face, i samtaler om å skaffe rundt 40 millioner dollar i såkornfinansiering til sin Paris-baserte "Uma"-robotikkoppstart.
• Slike robotforsknings- og utviklingsselskaper er foretrukket av investorer, og den globale robotikkinnsamlingen har oversteget 160 milliarder dollar i 2025, og nærmer seg omfanget på 172 milliarder dollar for hele fjoråret.
Jeg er fortsatt optimistisk med hensyn til Codec, tross alt er Codecs dev en veldig viktig bidragsyter til VLAs åpen kildekode, og det er for tiden web3, så jeg kjenner definitivt robotsporet veldig godt.
I det siste har jeg vært opptatt med å håndtere familiesaker, men jeg prøver fortsatt å tjene litt eiendeler hver dag, og jeg fortsetter til ATH litt etter litt, WLFI er for lite, men denne gangen er jeg ikke veldig engstelig, og jeg kan tjene litt tilfredshet hver dag med en stabil mentalitet.
BTW, jeg Vibe raskt et nettsted for daglig aktivastatistikk, jeg personlig synes det er veldig nyttig, legg inn Github-lenken i kommentaren, last den ned direkte til datamaskinen for å åpne indeksnettstedet og bruke den.


40,31K
VLA-er fortsatt tidlig, $codec kode

CodecFlow22. aug., 18:03
VLA-er er fortsatt veldig nye, og mange synes det er vanskelig å forstå forskjellen mellom VLA-er og LLM-er.
Her er et dypdykk i hvordan disse AI-systemene er forskjellige i resonnement, sensing og handling. Del 1.
La oss bryte ned de viktigste forskjellene og hvordan AI-agenter pakket rundt en LLM skiller seg fra operatøragenter som bruker VLA-modeller:
1. Sans: Hvordan de oppfatter verden
Agent (LLM): Behandler tekst eller strukturerte data, for eksempel JSON, APIer og noen ganger bilder. Det er som en hjerne som jobber med rene, abstraherte inndata. Tenk å lese en håndbok eller analysere et regneark. Flott for strukturerte miljøer, men begrenset av hva som mates til det.
Operator (VLA): Ser rå piksler i sanntid fra kameraer, pluss sensordata (f.eks. berøring, posisjon) og propriosepsjon (selvbevissthet om bevegelse). Det er som å navigere i verden med øyne og sanser, og trives i dynamiske, rotete omgivelser som brukergrensesnitt eller fysiske rom.
2. Handling: Hvordan de samhandler
Agent: Fungerer ved å kalle funksjoner, verktøy eller API-er. Tenk deg det som en leder som sender nøyaktige instruksjoner som «bestill en flyreise via Expedia API». Det er bevisst, men er avhengig av forhåndsbygde verktøy og klare grensesnitt.
Operatør: Utfører kontinuerlige handlinger på lavt nivå, som å flytte en musepeker, skrive eller kontrollere robotledd. Det er som en dyktig arbeider som direkte manipulerer miljøet, ideelt for oppgaver som krever sanntidspresisjon.
3. Kontroll: Hvordan de tar beslutninger
Agent: Følger en langsom, reflekterende sløyfe: planlegg, ring et verktøy, evaluer resultatet, gjenta. Den er tokenbundet (begrenset av tekstbehandling) og nettverksbundet (venter på API-svar). Dette gjør det metodisk, men tregt for sanntidsoppgaver.
Operatør: Opererer, tar trinnvise beslutninger i en tett tilbakemeldingssløyfe. Tenk på det som en spiller som reagerer umiddelbart på det som er på skjermen. Denne hastigheten muliggjør væskeinteraksjon, men krever robust sanntidsbehandling.
4. Data å lære: Hva driver opplæringen deres
Agent: Opplært på store tekstkorpus, instruksjoner, dokumentasjon eller RAG-datasett (Retrieval-Augmented Generation). Den lærer av bøker, kode eller vanlige spørsmål, og utmerker seg ved å resonnere fremfor strukturert kunnskap.
Operatør: Lærer av demonstrasjoner (f.eks. videoer av mennesker som utfører oppgaver), teleoperasjonslogger eller belønningssignaler. Det er som å lære ved å se og øve, perfekt for oppgaver der det er lite eksplisitte instruksjoner.
5. Feilmoduser: Hvor de går i stykker
Agent: Utsatt for hallusinasjoner (finne på svar) eller sprø langsiktige planer som faller fra hverandre hvis ett skritt mislykkes. Det er som en strateg som overtenker eller feiltolker situasjonen.
Operatør: Står overfor kovariatforskyvning (når treningsdata ikke samsvarer med virkelige forhold) eller sammensatte feil i kontrollen (små feil snøball). Det er som en sjåfør som mister kontrollen på en ukjent vei.
6. Infra: Teknologien bak dem
Agent: Er avhengig av en ledetekst/ruter for å bestemme hvilke verktøy som skal kalles, et verktøyregister for tilgjengelige funksjoner og minne/RAG for kontekst. Det er et modulært oppsett, som et kommandosenter som orkestrerer oppgaver.
Operatør: Trenger pipeliner for videoinntak, en handlingsserver for sanntidskontroll, et sikkerhetsskjold for å forhindre skadelige handlinger og en repetisjonsbuffer for å lagre opplevelser. Det er et høyytelsessystem bygget for dynamiske miljøer.
7. Hvor hver skinner: Deres søte flekker
Agent: Dominerer i arbeidsflyter med rene APIer (f.eks. automatisering av forretningsprosesser), resonnement over dokumenter (f.eks. oppsummering av rapporter) eller kodegenerering. Det er din favoritt for strukturerte oppgaver på høyt nivå.
Operatør: Utmerker seg i rotete, API-løse miljøer som å navigere i klønete brukergrensesnitt, kontrollere roboter eller takle spilllignende oppgaver. Hvis det involverer sanntidsinteraksjon med uforutsigbare systemer, er VLA konge.
8. Mental modell: Planlegger + Doer
Tenk på LLM-agenten som planleggeren: den deler komplekse oppgaver inn i klare, logiske mål.
VLA-operatøren er den som utfører disse målene ved å samhandle direkte med piksler eller fysiske systemer. En kontrollør (et annet system eller agent) overvåker resultatene for å sikre suksess.
$CODEC

2,36K
Nylig har det virtuelle økologiske lille prosjektet sprettet hardt, det ser ut til at prosjektpartiet som fortsatt gjør ting ikke har noe å falle, studer hva som kan overfaltes, finn en sirkel med paneler og finn ut at dette er det beste å bruke, det er et token $wint markedsverdien ikke er høy, kjøp litt for å prøve dybden, det anbefales virtuelle små prosjekter velkommen til å kommentere
3,38K
4. etasje $robot robotfortelling begynner å gjære


Arron🐱8. aug., 00:27
Jeg er redd for Kit-vennene mine, så jeg turte ikke å legge ut $robot bunn, faktisk er den tekniske styrken til robotutvikling også veldig god, men den har sunket med det virtuelle økosystemet

21,3K
Når teamet har tid til å få et godt grep om Uniswap v4 er det siste ordet, etter å ha blitt utgitt så lenge, er det få roboter som støttes, og front-end er ofte ikke i stand til å handle. Selv om det er mange Uniswap V4-tokens nå, er det mange som ikke vil kjøpe dem, og den nedre grensen er ikke garantert, og den øvre grensen for kroken kan bare åpnes i apens år og hestens måned

CM12. aug., 14:11
Forklar Uniswaps siste "DUNI"-forslag,
Selv om gebyrbyttet ble kontroversielt "hypet" i 2024, var grunnen til at det endelig ble stoppet direkte av a16z fortsatt et samsvarsproblem, og formålet med dette forslaget var å gå inn i DUNAs juridiske rammeverk i Wyoming.$UNI
DUNA-settet blir faktisk presset av a16z, og a16z publiserte en relatert artikkel i mars 2024.
Dette rammeverket er i utgangspunktet designet for å gjøre DAO-er lovlige, og a16z bør også spille en rolle bak det, så det bør være viktig å markedsføre det.
Foreløpig er forslaget i RFC-stadiet, og det er ingen spesifikke forslag knyttet til gebyrbytte i fremtiden, og det er sannsynlig at Unichain Staking vil bli distribuert først, tross alt er det lettere å implementere i alle aspekter.
Uniswap rydder vei for samsvarsproblemer, noe som kan ta lang tid, og kortsiktig hype kommer kanskje ikke tilbake til prisen, men den beveger seg i riktig retning og nærmere slutten.

23,22K
Jeg gjør bare tre ting på basen, rettferdig, rettferdig eller jævla rettferdig $fair


Arron🐱9. aug., 12:12
Nylig er basen virkelig en enkel modell, denne messen er utstedt av @Re7Labs's Sociafi-fond, som har 10 millioner investeringer i faircasters ulike prosjekter, og re7 og wlfi er også veldig nærme. Jeg tror ikke prosjektet i seg selv er veldig meningsfylt, i utgangspunktet fullstendig kontrollert, åpningen er veldig høy, og etter at nettet er stengt, mottas noen, og etter en måned med vask kommer det endelig til et positivt resultat


4,39K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til