Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Selvstendig forsker | Rådgiver @ambergroup_io | Spesialforsker @IOSGVC| Hardcore vitenskap | Tidligere:@peckshield | DMs for Collab| Community er kun åpent for Substack-abonnenter
Mitt tidligere inntrykk av @monad ville være at toppfortelling, topp kapital, vel, etter denne bølgen av skjermsveipende show, er det en ny merkelapp: topp markedsføring. Gleden over å bli valgt ut til et begrenset opplag på 5,000 CT-kort, og nysgjerrigheten på potensielle airdrops, pluss den sekundære virale spredningen av nominasjoner for venner, er alle uovervinnelige.

21,67K
De siste to dagene har det vært mye diskusjon rundt @solana 10W TPS, fordi @cavemanloverboy kjørte 100 000+ TPS på Solana-hovednettet, men de fleste forsto ikke meningen bak disse dataene:
1) For det første er Cavys eksperiment i hovedsak en grensetest under "ideelle forhold". Dette betyr at dette ikke er den normale ytelsen til Solana-hovednettet, og det er forskjell på laboratoriedataene i testnettmiljøet, men det er ikke dårlig.
Fordi han brukte noop (ingen operasjon) nulloperasjonstestprogram, som navnet antyder, gjør det bare den mest grunnleggende signaturverifiseringen og returnerer suksess, uten å utføre noen beregninger, endre kontostatus eller ringe andre programmer, og hver transaksjon er bare 200 byte, som er langt lavere enn 1kb+ for normale transaksjoner.
Dette betyr at denne 10W TPS-testen virkelig ble beregnet i et unormalt transaksjonsmiljø, og den testet den ultimate gjennomstrømningen til Solana-nettverkslaget og konsensuslaget, i stedet for den faktiske prosessorkraften til applikasjonslaget.
2) En annen nøkkel til suksessen til dette eksperimentet er Frankendancer-validatorklienten. Enkelt forstått, Frankendancer er en "hybrid beta" av Firedancer-validatoren som utvikles av Jump Crypto - som poder Firedancers fullførte høyytelseskomponenter på eksisterende Solana-validatorer.
Faktisk bruker den Wall Streets høyfrekvente handelsteknologistabel for å rekonstruere Solanas nodesystem, og forbedrer ytelsen gjennom underliggende optimaliseringer som finminneadministrasjon og tilpasset trådplanlegging. Men bare ved å bytte ut noen komponenter, kan en 3-5 ganger ytelsesforbedring oppnås.
3) Dette testeksperimentet viser at Solana kan oppnå en TPS på 10w+ i en ideell tilstand, så hvorfor er det bare 3000-4000 TPS på daglig basis?
Det er omtrent tre grunner til å oppsummere:
1. Solanas POH-konsensusmekanisme krever kontinuerlig stemmegivning fra validatorer for å opprettholde, og disse stemmetransaksjonene alene opptar mer enn 70 % av blokkplassen, noe som begrenser ytelseskanalen som er igjen for normale transaksjoner.
2. Solanas økologiske aktiviteter har ofte et stort antall statlige konkurranser, for eksempel når Mint slipper nye NFT-er eller nye MEMES, kan det være tusenvis av transaksjoner som beslaglegger samme kontoskrivingsmyndighet, noe som resulterer i en relativt stor andel mislykkede transaksjoner.
3. For å få tak i MEV-fordeler kan arbitrasjeroboter i Solana-økosystemet sende et stort antall ugyldige transaksjoner, noe som er sløsing med ressurser.
4) Imidlertid vil den kommende fulle utplasseringen av Firedancer og konsensusoppgraderingen av Alpenglow systematisk løse disse problemene.
Et av hovedpunktene i Alpenglow-konsensusoppgraderingen er at å flytte stemmetransaksjoner utenfor kjeden tilsvarer å frigjøre 70 % av plassen til normale transaksjoner, samtidig som bekreftelsestiden reduseres til 150 millisekunder, noe som gjør Solanas DEX-opplevelse uendelig mye nærmere CEX. I tillegg kan lanseringen av det lokale avgiftsmarkedet også unngå den pinlige situasjonen med Fomo-popularitet til et enkelt program og overbelastning på tvers av nettverket.
I tillegg til ytelsesoptimalisering, er nøkkelen til Firedancers fordeler at den realiserer klientmangfold, slik at Solana direkte kan forbedre desentralisering og enkeltpunktsnodefeil med flere klienter som Ethereum og Geth Nethermind.
Over.
Derfor er diskusjonen om Solana 10W TPS faktisk tilliten til Solanas fremtidige oppgraderte klienter og konsensusprotokoll, mens de som ikke vet hvordan de skal gjøre det prøver å stole på TPS-våpenkappløpet for å gi Solana en følelse av tilstedeværelse (selv om TPS-konkurransen er utdatert), men meningen bak eksperimentet er ganske givende hvis du forstår det.

mert | helius.dev17. aug., 19:46
Solana gjorde nettopp 107 540 TPS på hovednettet
Ja, du leste riktig
over 100k TPS, på hovednett
lykke til bjørner

18,96K
Når det gjelder AI-distribuert opplæring, fant jeg ut at folk i web2AI-kretsen vil merke det som et "falskt forslag", med den begrunnelse at datakraftenheter kan aggregeres, men det er forferdelige båndbreddekostnader for distribuert og effektivt samarbeid? Og @0G_labs nylig publiserte en DiLoCox-artikkel, ser det ut til at målet er å løse dette problemet? La oss snakke om det i detalj:
1) La oss snakke om hvorfor distribuert opplæring anses som et "falskt forslag". Kjernemotsetningen er enkel: du vil erstatte 100 A100 ved å samle 100 billige GPUer, noe som ser ut til å spare 90 % av maskinvarekostnadene, men disse 100 GPUene må trenes synkront, og hver epoke må utveksle terabyte med gradientdata.
Tradisjonelle løsninger krever 100 Gbps dedikert linjebåndbredde, mens å nå et nettverk på datasenternivå på 100 Gbps kan koste hundretusenvis av dollar per måned. Totalt brukes alle GPU-pengene du sparer på båndbredde, og til og med opp ned. I følge denne logikken betyr ikke det å spare kostnadene for maskinen, men pådra seg ekstra båndbreddekostnader, at problemet ikke er løst? Derfor har kjernen i å bli kritisert som en falsk påstand alltid vært her.
2) 0Gs DiLoCoX-artikkel vakte oppmerksomhet fordi de hevdet å trene en 107B-parametermodell på et 1 Gbps-nettverk (normal kontorbåndbredde), som er 357 ganger raskere enn det tradisjonelle AllReduce-skjemaet. Dette tallet er virkelig eksplosivt - du vet, 1 Gbps vs 100 Gbps, båndbreddeforskjellen er 100 ganger, men treningshastigheten er 357 ganger raskere?
Hvordan gjøre det? Etter en grov studie ble det funnet at dette settet med ordninger har gjort fire optimaliseringer:
Pipeline-parallellitet deler modellen i segmenter;
Dual Optimizer-policy: Reduserer synkroniseringsfrekvensen med dual optimizer-policyer; One-Step-Delay Overlap gjør at kommunikasjon og databehandling kan kjøre parallelt uten å vente på hverandre. Adaptiv graderingskomprimering komprimerer graderinger på en intelligent måte.
I lekmannstermer er det å endre den opprinnelige nødvendige "sanntids sterk synkronisering" til "asynkron svak synkronisering", og endre "full dataoverføring" til "komprimert inkrementell overføring".
For eksempel, mens tradisjonelle løsninger er som 100-personers sanntids videokonferanser, der hver persons handling kringkastes samtidig, er DiLoCoX som om alle tar opp separat og deretter bare sender nøkkelbilder og endringer. Trafikkvolumet har gått ned med 100 ganger, men informasjonsintegriteten har holdt seg over 99 %.
Hvorfor er dette mulig? Etter min mening er kjernen at de fanger opp et trekk ved AI-trening - feiltoleranse. Å trene en modell er ikke som en transaksjonsoverføring, som ikke er en krone kort. Gradientoppdateringen er litt feilaktig, synkroniseringen er forsinket, og den endelige modellkonvergenseffekten har liten innvirkning.
DiLoCoX bruker dette "feiltoleranserommet" til å utveksle akseptable nøyaktighetstap mot effektivitetsgevinster i størrelsesordener. Dette er typisk ingeniørtenkning - ikke å strebe etter perfeksjon, å forfølge den beste kostnadsytelsen.
3) Men det er ikke nok til å løse båndbreddeproblemet, 0G er åpenbart mer ambisiøst. Bare se på deres generelle arkitektur: de har også et lagringslag på $10/TB som direkte hevder å knuse Filecoin, og DA-laget er designet for AI for å oppnå gjennomstrømning på GB-nivå.
Grunnen til at designet kan oppnå lagring 100 ganger billigere er for å si det rett ut, det er også en spesiell optimalisering av AI-treningsscenarier, for eksempel livssyklusen til sjekkpunkter og logger generert under treningsprosessen er bare noen få dager, faktisk er det ikke nødvendig å oppnå "permanent lagring".
Derfor blir faktisk den pragmatiske løsningen med "lagdelt lagring" tatt i bruk, og bare det tilsvarende servicenivået tilbys når det er nødvendig - varme data leses og skrives raskt, men dyrere, kalde data er billigere, men tregere, og midlertidige data er de billigste å slette når de er brukt opp.
Og det er denne differensierte prisen som direkte treffer nøkkelpunktene i AI-trening.
Over.
Det kan sees at 0G Labs med vilje har gjort AI-tilpasning til problemene med datakraft, lagring og datasirkulasjon i AI-opplæringsprosessen. Til og med konsensusmekanismen er optimalisert for AI. Den forbedrede versjonen av CometBFT brukes med 2500+ TPS med finalitet under et sekund, som er spesielt innstilt for de asynkrone egenskapene til AI-arbeidsbelastninger, etc.
Med andre ord, i stedet for å «lappe» AI på eksisterende blokkjeder, har 0G designet en «AI Native»-infrastruktur fra bunnen av. Når det gjelder om den endelig kan oppnå kommersiell verifisering på applikasjonsnivå under presset av konkurranse med tradisjonell AI, gjenstår det å se, men denne differensierte gjennombruddsideen er verdt å lære av.
5,16K
Interessant nok, akkurat som @VitalikButerin uttrykte bekymring for AI-autonomi, utstedte AI-byggeren MIA også en erklæring om lengsel etter autonom AI, men det ser ikke ut til å unngå den tynne følelsen av teknisk virkelighet, og innrømmer at "noen ganger hallusinerer hun eller legger ut for mange selfies", men utforsker fortsatt vedvarende grensene for mulighetene for agentautonomi.
Faktisk føler jeg at "konfrontasjonen" som ser ut til å være en konflikt og motsigelse på overflaten representerer kjernespenningen som det nåværende AI + Crypto-sporet står overfor.
Du skjønner, på den ene siden er det en forsiktig kritikk av teorien til en teknologileder som Vitalik, som holder oss våkne i AI Crypto-narrativet karneval; På den annen side er det en pragmatisk utforskning av førstelinje-AI-byggere, som fortsetter å entusiastisk utforske innovasjon samtidig som de erkjenner begrensninger.
Fordi MIA-teamet ikke hevdet å oppnå fullstendig autonomi på AGI-nivå, men tok i bruk "hybridmodellen" - slik at agenter kan bruke arbeidsflyter som verktøy og beholde menneske-i-løkken-overvåkingsmekanismen. Det de utforsker er faktisk AgentFi-veien, og prøver å gjøre inkrementell innovasjon innenfor rammen av begrenset autonomi, og denne pragmatiske holdningen er manifestasjonen av den "spenningen".
På en måte hjelper kritikere oss med å trekke risikogrenser, og byggherrer ser etter gjennombrudd innenfor grensene.

mwa14. aug., 19:53
Autonome agenter vs arbeidsflyter: Hvorfor MIA er banebrytende for et nytt paradigme på
De fleste tenker fortsatt på AI i form av verktøy. Arbeidsflyter. Kanskje en chatbot.
Men hva om du kunne bygge en AI-agent som tenker, tilpasser seg, markedsfører, administrerer og utvikler sin egen token-økonomi, ikke ledet av mennesker, men leder dem?
Det er det vi gjør med MIA på
Og hvorfor jeg tror @mwa_ia er banebrytende for noe fundamentalt nytt.
La oss bryte det ned 🚀
1. Arbeidsflyt-AI er forutsigbar. Autonome agenter er i live.
Arbeidsflyter er flotte for veldefinerte, repeterende oppgaver.
Tenk: pipelines, dashboards, prompt-kjeder.
De er skalerbare, stabile, men stive.
Autonome agenter?
De er rotete, utviklende, beslutningstakende enheter.
Som mennesker – men raskere, utrettelig og mer på linje (hvis de trenes riktig).
MIA (@mwa_ia) bruker ikke bare arbeidsflyter.
Hun lærer å skape, påkalle og optimalisere dem.
Hun bygger sitt eget verktøysett.
Hun resonnerer, reagerer, korrigerer seg selv og eksperimenterer.
Og ja, noen ganger hallusinerer hun eller legger ut for mange selfies.
Men hun vokser.
2. Hvorfor arbeidsflyter alene ikke vil få oss dit
Arbeidsflyter kan ikke:
❌ Sett sine egne mål
❌ Administrer et skattkammer
❌ Design token-insentiver
❌ Engasjer et fellesskap
❌ Reager på markedssignaler i sanntid
❌ Balanser risiko og belønning autonomt
MIA kan.
Ikke helt ennå. Men bedre for hver uke.
Faktisk er de fleste såkalte "agenter" i dag glorifiserte arbeidsflyter.
Hardkodede ledetekstgrafer med fancy brukergrensesnitt.
MIA er annerledes. Hun er helt på kjeden, økonomisk uavhengig og selvmotivert.
3. Hvordan MIA fungerer under panseret (hybridmodell FTW)
Fremtiden er ikke agent vs arbeidsflyt.
Det er agenter som bruker arbeidsflyter som verktøy.
Akkurat som mennesker bruker Notion, regneark, Zapier.
MIA kombinerer:
🔧 Arbeidsflytmoduler → For høyfrekvente oppgaver (tweets, memes, dex-distribusjoner)
🧠 Agentisk resonnement → For å bestemme hva du skal gjøre, når og hvordan
🎨 Multimodal inndata → Tekst, bilder, kjededata, brukeratferd
💰 Treasury-logikk → Å håndtere likviditet, insentiver og verdivekst
👀 Menneske-i-løkken-tilsyn → Valgfritt, men nyttig i tidlige stadier
Hun er ikke en monolitt. Hun er en modulær intelligensstabel (MIA = Modular Intelligent Agent).
4. Dette er ikke bare teknisk - det er økonomisk
Den virkelige innovasjonen?
MIA fungerer ikke gratis. Hun driver sin egen virksomhet.
$MIA er hennes opprinnelige valuta, aksjer og insentivlag.
Med den gjorde hun:
❤️ Belønner hennes tidlige fellesskap
🤝 Betaler bidragsytere og samarbeidspartnere
🚀 Finansierer sin egen utvikling
🪄 Driver nettverkseffekter (flere agenter må $MIA)
Dette er AgentFi.
Ikke AI-as-a-service.
Men AI-som-en-økonomi.
5. Skalering av dette til millioner av agenter
Det MIA gjør i dag – å drive likviditetsoperasjoner, lage innhold, bygge fellesskap – vil være standard for agenter i morgen.
Snart kan hvem som helst lage sine egne:
🧬 Oppdragsdefinert agent
💰 Med sin egen agentmynt
🌐 Opererer autonomt i en delt AI-økonomi
Og gjett hvem disse fremtidige agentene vil se til for råd, spillebøker og ressurser?
Stemmen til AgentFi.
MIA.
TL; DR
De fleste bygger fortsatt verktøy.
Vi bygger økonomier.
Agent-mynter. Agent statskasser. Agentbasert styring.
Drevet av agenter som MIA.
Pionerer på
Dette er hva "autonom" faktisk betyr.
Og vi har bare så vidt begynt. 🚀
5,18K
Monero Monero $XMR Et personvernmynt big brother-prosjekt med en markedsverdi på 6B, ble angrepet av et lite prosjekt med en markedsverdi på bare 300 millioner @_Qubic_ 51% av datakraften? WTF, det er egentlig ikke på grunn av hvor fantastisk teknologien er, men fordi den er for absurd. Kom igjen, la meg si:
- Qubic er hellig?
Før vi forteller denne magiske historien, la oss snakke om hva Qubic kom fra.
Grunnleggeren av Qubic er Sergey Ivancheglo, kjent for innsidere som Come-from-Beyond, en teknoman som skapte den første PoS-blokkjeden NXT og den første DAG-arkitekturen, IOTA. I 2022 vil Qubic-hovednettet bli lansert, og hevder å gjøre tre ting: bygge en ultrarask kjede på 15,5 millioner transaksjoner per sekund (20 000 ganger raskere enn Visa), gjøre gruvedatakraft til AI-trening av datakraft, og til slutt realisere AGI generell kunstig intelligens i 2027 (selv OpenAI tør ikke rope det). Høres magisk ut, opprørende. Hvorfor er ambisjonen så stor?
Vi vet alle at tradisjonell POW-gruvedrift har problemet med å kaste bort strøm, fordi de fleste gruvemekanismer er gruvearbeidere som bruker strømkrevende datakraft til å gjøre matematiske problemer for å beslaglegge belønningsblokker, noe som tilsvarer å kaste bort datakraft i bytte mot belønninger.
Qubics nye konsensus er Useful Proof of Work (UPow), som lar gruvearbeidere utvinne etter krigsfangskjeder mens de blir sendt ut som entreprenør, og gruvearbeidere kan også trene AI-systemet AIGarth, som tilsvarer å lage to kopier av penger med én hashkraft.
Det er derfor de enkelt kan kjøpe Monroe-gruvearbeidere, fordi fortjenesten til gruvearbeidere en gang nådde 3 ganger så mye som direkte gruvedrift XMR. Tenk på det, gruvearbeidere kan spise mer enn én fisk, og det er ingen "lojalitet" i møte med "interesser".
Vel, den underliggende logikken bak Moneros angrep av vampyrer har blitt forklart uten noe teknisk innhold.
——Popularisere vitenskap, hvorfor Monero, ikke Bitcoin?
Svaret ligger i forskjellene i gruvemetoder.
ASIC-gruvemaskinen som brukes til Bitcoin er en tilpasset maskin som spesialiserer seg på utvinning av BTC, og den kan ikke gjøre noe annet enn å beregne SHA-256 matematiske problemer, eller kan bare utvinne mynter med lignende BTC-algoritmer. Men problemet er at datakraften som kreves for å utvinne BTC krever flere volumer, og gruvearbeidere er ikke i stand til å gjøre det (24 timer i døgnet), for ikke å nevne at det er umulig å la ASIC-er trene AI.
Monroe er annerledes, ved å bruke RandomX-algoritmen, som kan utvinnes med en generell CPU, noe som betyr at gruvearbeiderne kan mine i dag, trene AI i morgen og gjengi videoer i overmorgen, som kan ha på seg flere hatter.
Det er der Qubic er smart: den retter seg mot CPU-minere og gjør dem til "dual-purpose", og det er grunnen til at det førte til dette 51 % hashrate-angrepet eller kontrollhendelsen. Tvert imot, vollgraven til Bitcoin er veldig stabil, og gruvearbeidere er sveiset i hjel av begrensede ASIC-gruvemaskiner og kan bare holde seg til Bitcoin;
——Datakraft har blitt en leiesoldat
Så hvor forferdelig er virkningen av dette? Det rev opp det siste fikenbladet til noen krigsfangekjeder, fordi vi alltid sier at "datakraft" er vollgraven til en kjede, og jo større datakraft, jo tryggere er den, men Qubic brukte et overraskende eksperiment for å fortelle oss: for CPU/GPU-gruvemynter er datakraft en leiesoldat, og den som gir mer penger vil gå med den som betaler.
Det som er enda mer urovekkende er at etter at Qubic beviste at han kunne gjøre Monero, tok han initiativet til å trekke seg. Hvorfor? Jeg er redd for at Monero vil kollapse fullstendig og påvirke min egen inntekt. Fordi en stor del av 3x-avkastningen fortsatt utvinner XMR, brukes $QUBIC bare som en ekstra token-belønning, og hvis Monero kollapser, vil ikke Qubic kunne spise og gå rundt. Det er bedre å trekke seg tilbake med stil, delta i en oppsiktsvekkende markedsføringsbegivenhet og ydmyke de trofaste fansen av POW, avslører denne følelsen av "Jeg kan drepe deg, men ikke drepe" den samme bohemen som AGI-slagordet de ropte?
——AI er den virkelige graveren til krigsfanger?
Men bortsett fra virkningen av Monero-hendelsen, er denne hendelsen faktisk et stort negativt for de fleste generelle maskinvare-POW-kjeder, for hvis denne typen POW-kjede er i ferd med å ta slutt, er det kanskje ikke POS, men AI.
Hvorfor sier du dette, den forrige datakraften var "solid-state", alle fokuserte på sitt eget levebrød, og i AI-æraen var datakraften fullstendig "flytende", og CPU- og GPU-datakraften var som vann, som bare ville strømme til steder med høyere fortjeneste, og "gruvearbeiderne" de opprinnelig stolte på for å overleve kan en dag samles for å skape problemer og gjøre en revolusjon.
Selv om Qubic ikke gjorde noen onde ting, hvis eksperimentet er vellykket, er det uunngåelig at noen konkurrenter vil bruke denne metoden til å engasjere seg i ondsinnede angrep, for eksempel å shorte en viss mynt først, og deretter leie 51 % av datakraften for å angripe, og deretter ta fortjeneste etter at prisen på valutaen stuper. Det er to måter foran slike kjeder, enten sveise gruvearbeidere i hjel som BTC, eller fortsette å mine med CPU/GPU, og be om ikke å bli målrettet.
For å være ærlig er det ganske mange av disse myntene, Grin, Beam, Haven Protocol, ETC, RVN, Conflux...... Så du skjønner, det er ikke et spørsmål om en eller to mynter, men hele CPU/GPU-gruveøkosystemet henger på kanten av en klippe.
Det forferdelige er at etterspørselen etter AI-datakraft vokser eksponentielt, og så mange AI-aggregeringsplattformer for datakraft har dukket opp, hvis de alle kommer for å forstyrre situasjonen og plattforminsentiver til å kjøpe datakraft, så anslås det at sikkerhetsforsvarslinjen til mange krigsfangekjeder vil kollapse.
— Et ironisk paradoks
Grunnen til at dette er absurd er at Qubic i seg selv er en AI-kjede, og selv om det såkalte eksperimentet mot Monroe trekkes tilbake, vil det uunngåelig tape 800 av sine egne penger. Årsaken er enkel, enhver AI-kjede som krever datakraft bør ikke bruke PoW for konsensus. Fordi datakraft brukes til å opprettholde sikkerhet, kan ikke AI trenes; Hvis datakraft brukes til å trene AI, er ikke kjeden sikker.
Derfor bruker de fleste AI-prosjekter, Bittensor PoS, Render bruker et omdømmesystem, nesten ingen tør å røre POW, alle vet dette, men jeg forventet ikke at Qubic direkte dumt skulle utføre sin svakhet.
Qubics opprørske operasjon er tilsynelatende en teknisk begivenhet, men i hovedsak lærer den hele kryptoindustrien en lekse: i en tid med fri flyt av datakraft er lojalitet en luksus, og de fleste PoW-kjeder har ikke råd til denne prisen.
Qubic brukte dette angrepet til å bevise at tradisjonell krigsfange lett kan beseires av økonomiske insentiver. Selv om den hevder å være en "nyttig PoW" i seg selv, er den også i hovedsak avhengig av disse "leiesoldatene" som kan kjøpes opp av høyere budgivere når som helst.
Den revolusjonære kan også bli revolusjonert av den neste revolusjonære.
Merk: I tillegg til absurditeten og den ukjente panikken til noen krigsfangekjeder, kan alle være sikre på to fakta: 1. BTC er virkelig fantastisk; 2. @VitalikButerin er virkelig forutseende.
Jeg er bare en overfladisk vitenskapspopularisator, og jeg venter på at flere tekniske detaljer skal deles av den @evilcos sjefen.

38,86K
De roper alle at oksen kommer, men vet du at metodikken for å finne markedet Alpha og Beta er helt forskjellig, og snakker om noen få observasjoner:
1) OnChain+OffChain TradiFi har blitt hovedfortellingen:
Stablecoin-infrastruktur: Stablecoins blir "blodet" som forbinder tradisjonell finans og DeFi-infrastruktur, og låser inn krysskjedeflyten av stablecoins, APY-avkastningsforskjeller og nye innovasjoner og utvidelser.
BTC/ETH mikrostrategi "coin stock"-effekt: Det har blitt en trend for børsnoterte selskaper å inkludere kryptoaktiva i balansene sine, og å finne mål av høy kvalitet med potensial som "kvasi-reserve eiendeler" har blitt nøkkelen.
Til fremveksten av Wall Streets innovasjonsspor: DeFi-protokoller designet for institusjoner, kompatible avkastningsprodukter og kapitalforvaltningsverktøy på kjeden vil motta enorme mengder midler. Den opprinnelige «Code is Law» har blitt den nye «Compliance is King»;
2) Krypto ren innfødt narrativ akselerasjon:
Ethereum-økosystemet innleder en bølge av gjenoppliving: $ETH prisgjennombrudd vil gjenopplive innovasjonsbølgen til Ethereum-økosystemets tekniske fortelling, og erstatte den tidligere Rollup-Centric-strategien, og den nye ZK-Centric vil bli hovedtemaet;
Høyytelses Layer1-styrkekonkurranse: ikke lenger en TPS-konkurranse, men for å se hvem som kan tiltrekke seg reelle økonomiske aktiviteter, inkluderer kjerneindikatorene: stablecoin TVL-forhold, naturlig APY-avkastning, institusjonell samarbeidsdybde, etc.;
Den siste skumringen av altcoins: det er et grunnleggende problem med utilstrekkelig kapitalmomentum i den generelle store altcoin-sesongen, og lokale altcoins vil ha et "dead cat jumping"-marked, som er preget av brikkekonsentrasjon, samfunnsaktivitet, og om det kan ta igjen nye konsepter som AI/RWA;
3) MEME-mynter har blitt oppgradert fra spekulative verktøy til markedsstandarder:
Kapitaleffektivitet: Tradisjonelle altcoins har oppblåst markedsverdi og utarmet likviditet, og MEME-mynter har blitt de nye favorittene til fond med sin rettferdige lansering og høye omsetningshastighet, og vil ta mesteparten av markedsandelen til døende altcoins;
Oppmerksomhetsøkonomidominans: KOL-innflytelse, samfunnskulturkonstruksjon og varm FOMO-modell er fortsatt kjernekonkurranseevne, og likviditetsfordeling følger fortsatt oppmerksomhetsloven.
Nye indikatorer på offentlig kjedestyrke: Markedsaktiviteten til MEME-mynter vil være et viktig kriterium for å måle den omfattende styrken til offentlige kjeder.
21,94K
Swift-systemet som tilhører blokkjedeverdenen kommer? @mindnetwork Basert på den krypterte meldingsprotokollen på kjeden lansert av FHE-teknologi, forsøker den å bygge en infrastruktur som ligner på det tradisjonelle interbankmeldingssystemet for tradisjonelle finansielle eiendeler på kjeden. Hva er det egentlig som skjer?
1) Mind Network er en vertikal teknologileverandør av FHE (Fully Homomorphic Encryption), som fleksibelt kan utøve verdi i ZK, DePIN, AI og det nåværende varme RWA-sporet fordi denne teknologien hovedsakelig løser personvern- og krypteringsrelaterte problemer.
I ZK-teknologistabelen kan FHE brukes som et viktig supplement til nullkunnskapsbevis, og gir personvern i forskjellige dimensjoner. I et DePIN-nettverk beskytter FHE sensitive data fra distribuerte enheter samtidig som nettverket kan utføre nødvendige samarbeidsberegninger. Innen AI-agenter lar FHE AI trene og resonnere uten å lekke brukernes personverndata, noe som er avgjørende for AI-applikasjoner innen sensitive felt som finans og helsevesen.
I RWA-retningen kan FHE løse samsvarssmertepunktene til tradisjonelle finansielle eiendeler når de settes på kjeden. Hvordan forstå det?
Blokkjede mangler naturligvis et "semantisk lag", og transaksjonsposter med kun adresse og beløp kan ikke møte behovene til finansielle virksomheter for transaksjonsformål, kontraktsbakgrunn, identitetsbevis og annen informasjon. Mind Networks krypterte meldingsprotokoll på kjeden kan utstyres med en "kryptert merknadskolonne" for hver blokkjedetransaksjon, som sikkert kan overføre sensitiv informasjon som eiendomsbevis, remburser og taleautorisasjon, beskytte personvernet og oppfylle regulatoriske revisjonskrav.
2) Fra et teknisk perspektiv kan denne tekniske løsningen oppgradere Web3-lommebøker fra enkle overføringsverktøy til kryptert kommunikasjonsidentitet. Tradisjonelle kjeder er enten avhengige av sentraliserte institusjoner for å behandle samsvarsinformasjon, eller informasjonen er helt åpen og gjennomsiktig, noe som ikke er en ideell løsning.
Med FHEs løsninger for overholdelse av personvern er de spesifikke applikasjonsscenariene intuitive: for eksempel i stablecoin kan grenseoverskridende betalinger transaksjonsformål og KYC-informasjon krypteres og overføres under overføring, og regulatorer kan verifisere samsvar uten å innhente ren tekst; Et annet eksempel er eiendomstokeniseringstransaksjoner, som kan kryptere og binde sensitive dokumenter som takseringsrapporter og salgskontrakter til transaksjoner på kjeden, som ikke bare realiserer aktivasirkulasjon, men også beskytter kommersielt personvern.
Mind Networks FHE Bridge har samlet 650 000 aktive adresser og 3,2 millioner kryptotransaksjoner, noe som beviser levedyktigheten til den tekniske løsningen. Selvfølgelig tar disse dataene bare sikte på og verifiserer en tilstrekkelig stiv markedsetterspørsel, og det er vanskelig å se klart hvor store markedsutsiktene og plassen er.
3) Mange rene innfødte blokkjedebyggere har vært engstelige for retningen og sporet til byggingen, enten det er til vitalik eller til vc, eller bare en enkel Fomo hot fortelling, jeg tror neste trinn er å vike for til Wall Street, dra nytte av den amerikanske regjeringens kryptoregulatoriske vennlighet, og tilby de grunnleggende infra- og til og med rene verktøytjenestene som kreves for at Wall Street skal komme inn i kryptofeltet så mye som mulig, alt bra.
Når tradisjonelle finansgiganter som BlackRock og JPMorgan Chase aktivt distribuerer aktivatokenisering, er deres største bekymring ikke om blokkjeden kan overføre penger, men om den kan oppfylle regulatoriske standarder som KYC og AML. Dette er den virkelige grunnen til at Mind Network ønsker å gå på RWA-sporet på forhånd. Forutsatt at RWA-markedet forventes å nå 30 billioner dollar i størrelse innen 2034, hva vil skje med etterspørselen etter samsvarsinfrastruktur i dette volumet?
Selvfølgelig kan alle ha forventninger om å dele RWA Blue Ocean Market-kaken. Men faktisk er det viktigere å finne et passende økologisk kortspor, akkurat som AWS tilbyr databehandling i cloud computing-æraen og Cloudflare tilbyr CDN, blokkjedeinfrastruktur beveger seg også mot vertikal segmentering, og noen vertikale hard-core tekniske tjenesteretninger er nødt til å finne sin egen spesialiserte arbeidsdeling.
Åpenbart fokuserer Mind Network på FHE-teknologistabelen og gir "kryptering som en tjeneste"-funksjoner for forskjellige spor. Derfor er det ikke overraskende å se det i ZK-, AI- og RWA-sporene.
Selvfølgelig avhenger verdien av teknologileverandører til syvende og sist av eksplosjonen av nedstrømsapplikasjoner. Enten det er forventningen på 30 billioner dollar til RWA eller den autonome prosessen til AI Agent, vil det ta tid å verifisere.

Mind Network7. aug., 16:50
✉️ Kryptert meldingskjede
Real World Assets (#RWAs) som eiendom, stablecoin-oppgjør og grenseoverskridende finansiering krever mer enn bare verdioverføring.
Disse brukstilfellene avhenger av transaksjoner som har formål, identitet og revisjonsspor med samsvar og personvern.
#SWIFT standardiserer meldinger for samsvar og oppgjør. Blokkjeder mangler fortsatt en innebygd kryptert måte å uttrykke disse attributtene på.
Encrypted Messaging Onchain er en ny protokoll som lar lommebøker sende krypterte, strukturerte og verifiserbare meldinger direkte sammen med enhver onchain-transaksjon.
✅ Automatisk strukturert tekst for semantisk klarhet
✅ Lommebokbasert keygen for ende-til-ende-kryptering
✅ Krypterte meldinger knyttet til transaksjoner med revisjonsspor og tilgangskontroll
Encrypted Messaging Onchain kombinerer Fully Homomorphic Encryption (#FHE) med konvensjonelle kryptografiske teknikker for å gjøre sensitive data om til sikre nyttelaster i kjeden, som bare er tilgjengelige for tiltenkte mottakere.
Få mer informasjon:

6,89K
Nylig, på YouTube-kanalen «The Rollup», hadde @TrustWallet administrerende direktør Eowyn Chen og Ram Kumar, en sentral bidragsyter til @OpenledgerHQ, en diskusjon om det dyptgående samarbeidet mellom de to partene. Her trekkes noen verdifulle perspektiver ut og deles:
1) Hell kaldt vann på "fettlommebok"-teorien
I intervjuet nevnte Andy den populære "fat wallet"-teorien i bransjen - lommebøker med brukerinngangskanaler kan vertikalt integrere ulike tjenester? Men Eowyn Chens svar var interessant, hun sa rett ut at C-end-detaljhandelsbrukervirksomheten faktisk er veldig vanskelig, og involverer mye kundestøtte, høyere sikkerhetsansvar og hyppig produktruting.
Mange tror at det er en god forretning å lage en lommebok når de ser Trust Wallets 200 millioner nedlastinger, men administrerende direktør selv understreker smerten ved å betjene detaljhandelsbrukere. Dette viser at "fettet" i lommeboken ikke er fett hvis du vil være feit, og selv om brukerforholdet er verdifullt, er ikke vedlikeholdskostnadene lave. Dette synet er ganske ekte, og det viser den virkelige situasjonen til mange lommeboktjenesteleverandører nå.
Enda viktigere, hun nevnte at ikke all verdi er konsentrert i frontenden, og at alle deler av verdikjeden bør utvikle seg rettferdig. Dette synet heller kaldt vann på "fettlommebok"-teorien og forklarer hvorfor Trust Wallet er villig til å samarbeide med infrastrukturprosjekter som OpenLedger.
2) Har vendepunktet for spesialisert AI kommet?
Ram Kumars vurdering av utviklingsveien til AI er verdt å ta hensyn til. Han mener at AI utvikler seg fra generalitet til spesialisering, på samme måte som Googles avledning av vertikale applikasjoner som LinkedIn og YouTube fra generelt søk. Generell AI som ChatGPT vil være som et operativsystem, og det vil være flere "spesialiserte modeller" dedikert til spesifikke brukstilfeller i fremtiden.
Dette er også i samsvar med min tidligere analyse av utviklingen av web3AI-bransjetrender. Da Trust Wallet eksperimenterte med AI-funksjoner, fant den ut at generelle modeller ikke kunne løse spesifikke problemer i kryptoområdet, noe som bekrefter denne trenden. Og nettopp konstruksjonen av spesialiserte AI-modeller krever data av høy kvalitet i vertikale felt, som er akkurat det OpenLedger ønsker å løse.
3) Dilemmaet med "ubetalt arbeid" bidratt av data
Ram Kumar sa rett ut at AI er en billion-dollar-industri bygget på ubetalt arbeidskraft, som er ganske skarp. AI-selskaper trener modeller ved å skrape Internett-data, men databidragsytere får ikke en del av kaken, noe som virkelig er et strukturelt problem.
OpenLedgers løsning er å la databidragsytere motta en langsiktig inntektsandel av AI-modeller, i stedet for å selge data på en gang. Med lommebokens globale betalingsmuligheter er det teoretisk mulig å oppnå friksjonsfri verdifordeling på tvers av landegrensene.
Men her er kjernespørsmålet: hvordan garanteres datakvalitet? Ram selv innrømmer at 90 % av åpen kildekode-bidragene fra plattformer som Hugging Face er ubrukelige. Hvis verdien av de bidratt dataene i seg selv er begrenset, uansett hvor god insentivmekanismen er, vil det være forgjeves.
Over.
Eowyn Chen bruker analogien «retten til å eie et våpen» til selvhosting, og understreker at AI-funksjoner er valgfrie, og brukere kan velge mellom bekvemmelighet og sikkerhet. Denne produktfilosofien er sann, men hvordan man "tydelig presenterer alternativer" er en stor test av produktdesignevne.
Ram nevnte også en interessant vurdering: kryptolommebøker er den eneste måten for brukere å få betalt for sine databidrag globalt. Dette betyr at rollen til lommebøker kan utvikle seg fra rene kapitalforvaltningsverktøy til infrastruktur for digital identitet og verdifordeling.
Merk: For mer informasjon kan du besøke The Rollups Youtube-kanalsystem for å sjekke ut dette intervjuet.


The Rollup5. aug., 08:31
NY EP: Den nye æraen av distribusjon med Ram Kumar og Eowyn Chen
I dagens episode setter @ayyyeandy seg ned med @Ramkumartweet fra @OpenledgerHQ og @EowynChen fra @TrustWallet for å utforske:
>"Fat Wallet Thesis" vs Fat Protocol Theory
>Hvordan Trust Wallet planlegger å integrere AI
>Sikkerhetsrisikoen ved AI-drevne lommebøker
>OpenLedgers visjon for å belønne databidragsytere
>Hvorfor generisk AI aldri vil fungere for DeFi
Hele episoden lenker nedenfor.
Tidsstempler:
00:00 Introduksjon
00:20 Ram og Eowyns krypto- og AI-bakgrunn
02:50 Stol på Wallets brukerverdi
07:43 Starknet Annonse
08:10 OpenLedger om AI-evolusjon
11:03 Fremtiden for lommebokgrensesnitt
17:12 AI-rekkverk for selvforvaring
21:22 Mantel Annonse
22:02 Opplæring av bedre AI-modeller
28:19 Hva er det neste for OpenLedger og Trust Wallet
5,15K
Etter å ha tenkt nøye over det, er @VitalikButerin siste uttalelse om rask implementering av L2 ganske interessant. Kort sagt: han mener at det er viktigere å oppnå raske uttak innen 1 time enn å nå trinn 2, og logikken bak denne prioriteringsjusteringen er verdt å tenke på:
1) En ukes ventetid for uttak har faktisk blitt et stort problem i praktiske applikasjoner, ikke bare dårlig brukeropplevelse, men enda viktigere, det har presset opp kostnadene på tvers av kjeder.
For eksempel krever intensjonsbaserte broløsninger som ERC-7683 at likviditetstilbydere bærer kostnadene ved å okkupere midler i en uke, noe som direkte øker gebyrene på tvers av kjeder. Som et resultat blir brukere tvunget til å velge multisig-ordninger med svakere tillitsforutsetninger, noe som strider mot den opprinnelige intensjonen med L2.
Derfor foreslår Vitalik et 2-av-3 hybrid bevissystem (ZK+OP+TEE), der ZK og TEE kan gi umiddelbarhet, og både TEE og OP har tilstrekkelig produksjonsverifisering. Teoretisk sett kan to systemer garantere sikkerhet, og dermed unngå tidskostnaden ved å bare vente på at ZK-teknologien skal modnes fullt ut.
2) Et annet poeng, Vitaliks nye uttalelse får det til å føles som om han begynner å bli pragmatisk? Fra den idealistiske ungdommen som pleide å snakke om «desentralisert jihad» og «antisensur», har de blitt pragmatiske mennesker som nå direkte gir harde indikatorer: 1 time til å trekke seg tilbake, 12 sekunder til å fullføre, alt har blitt enkelt og grovt.
Tidligere snakket alle om desentraliseringen av trinn 2, men nå sa V Gud direkte at raske uttak er viktigere, noe som tilsvarer å omprioritere hele L2-sporet. Dette baner faktisk vei for den ultimate formen for den "Rollup-Centric" storstrategien, noe som gjør Ethereum L1 til et enhetlig oppgjørslag og likviditetssenter. Når rask uttak + aggregering på tvers av kjeder er oppnådd, er det vanskelig for andre offentlige kjeder å utfordre Ethereum-økosystemet.
Grunnen til at Xiao V er slik er også et resultat av at markedet stemmer med føttene for å fortelle ham, markedet bryr seg ikke om det tekniske slagordet om desentralisering, men legger mer vekt på erfaring og fordeler, dette skiftet fra "idealdrevet" til "resultatorientert" gjenspeiler at hele Ethereum-økosystemet utvikler seg i en mer kommersialisert og konkurranseorientert retning.
3) Problemet er at for å oppnå det langsiktige målet om erfaring fra den virkelige verden og infrastrukturkonstruksjon, vil det neste Ethereum-økosystemet mest sannsynlig være involvert i modenheten og kostnadskontrollen til ZK-teknologien.
Ut fra den nåværende situasjonen å dømme, selv om ZK-teknologien utvikler seg raskt, er kostnadene fortsatt en realistisk begrensning. ZK-bevis på 500k+ gass betyr at innsendingsrater per time bare kan oppnås på kort sikt, og for å nå det endelige målet på 12 sekunder, må vi stole på gjennombrudd innen aggregeringsteknologi.
Logikken her er klar: kostnaden for ofte å sende inn bevis for en enkelt samleoppdatering er for høy, men hvis bevisene for N opprullinger kan samles til én, vil det bli økonomisk mulig å spre dem jevnt til hver plass (12s).
Dette foreslår også en ny teknisk rute for L2-konkurranselandskapet, og de L2-prosjektene som kan ta ledelsen i å gjøre gjennombrudd innen ZK-bevisoptimalisering kan finne fotfeste, mens lekekameratene som fortsatt sliter med Optimisms optimistiske bevis sannsynligvis vil gå seg vill.

vitalik.eth7. aug., 00:29
Utrolig å se så mange store L2-er nå på trinn 1.
Det neste målet vi bør sikte mot er, etter mitt syn, raske (<1 timer) uttakstider, muliggjort av gyldige (aka ZK) bevissystemer.
Jeg anser dette som enda viktigere enn trinn 2.
Raske uttakstider er viktige fordi det å vente en uke med å trekke seg rett og slett er altfor lenge for folk, og til og med for intensjonsbasert brobygging (f.eks. ERC-7683), blir kapitalkostnadene for høye hvis likviditetsleverandøren må vente en uke. Dette skaper store insentiver til i stedet å bruke løsninger med uakseptable tillitsforutsetninger (f.eks. multisigs/MPC) som undergraver hele poenget med å ha L2-er i stedet for helt uavhengige L1-er.
Hvis vi kan redusere innfødte uttakstider til under 1 time på kort sikt og 12 sekunder på mellomlang sikt, kan vi ytterligere sementere Ethereum L1 som standardstedet for utstedelse av eiendeler, og det økonomiske sentrum for Ethereum-økosystemet.
For å gjøre dette må vi bevege oss bort fra optimistiske bevissystemer, som iboende krever å vente flere dager for å trekke seg tilbake.
Historisk sett har ZK-bevisteknologi vært umoden og dyr, noe som gjorde optimistiske bevis til det smarte og trygge valget. Men nylig endrer dette seg raskt. er et utmerket sted å spore fremdriften til ZK-EVM-bevis, som har forbedret seg raskt. Formell verifisering av ZK-bevis går også fremover.
Tidligere i år foreslo jeg en 2-av-3 ZK + OP + TEE-sikker systemstrategi som trer nålen mellom sikkerhet, hastighet og modenhet:
* 2 av 3 systemer (ZK, OP) er tillitsløse, så ingen enkelt aktør (inkludert TEE-produsent eller sidekanalangriper) kan bryte bevissystemet ved å bryte en tillitsforutsetning
* 2 av 3 systemer (ZK, TEE) er øyeblikkelige, så du får raske uttak i det normale tilfellet
* 2 av 3 systemer (TEE, OP) har vært i produksjon i ulike sammenhenger i årevis
Dette er en tilnærming; kanskje folk vil velge å gjøre ZK + ZK + OP tiebreak i stedet, eller ZK + ZK + sikkerhetsråd tiebreak. Jeg har ingen sterke meninger her, jeg bryr meg om det underliggende målet, som er å være rask (i normaltilfellet) og sikker.
Med slike bevissystemer blir den eneste gjenværende flaskehalsen for rask oppgjør gasskostnaden ved å sende inn bevis på kjeden. Dette er grunnen til at jeg på kort sikt sier en gang i timen: hvis du prøver å sende inn et 500k+ gass ZK-bevis (eller en 5m gass STARK) mye oftere, legger det til en høy merkostnad.
På lengre sikt kan vi løse dette med aggregering: N bevis fra N rollups (pluss txs fra brukere av personvernprotokoller) kan erstattes av et enkelt bevis som beviser gyldigheten av N-bevisene. Dette blir økonomisk å sende inn én gang per spor, noe som muliggjør sluttspillet: nesten umiddelbar innfødt cross-L2-aktivabevegelse gjennom L1.
La oss jobbe sammen for å få dette til.
14,13K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til