Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx
oppnå ambisjoner med intensjonalitet, intensitet og integritet
- @smol_ai
- @dxtipshq
- @sveltesociety
- @aidotengineer
- @coding_career
- @latentspacepod
swyx lagt ut på nytt
Greg Brockman (@gdb), medgründer og president i OpenAI, om rollen til åpne modeller for deres virksomhet (~50:20 inn i den siste Latent Space Podcast):
En annen ting på et veldig praktisk nivå som vi har tenkt på med åpen kildekode-modeller, er at folk som bygger på åpen kildekode-modellen vår, på en måte bygger på teknologistabelen vår.
Hvis du er avhengig av at vi hjelper til med å forbedre modellen, at du er avhengig av at vi får det neste gjennombruddet, så betyr det at du faktisk har en avhengighet, både på en måte som er bra for virksomheten vår, men jeg tror det også er bra for landet.
At du tenker på å ha en amerikansk teknologistabel fra modellene som folk kjører direkte. Men hvordan de kommer til å samhandle på den måten vi nettopp snakket om, som faktisk lar oss bygge et helt økosystem der folk er i stand til å ha, du vet, kontroll over de delene av det som er viktige for dem, til syvende og sist bygges på disse modellene som gjenspeiler amerikanske verdier, Umm og så være i stand til å samhandle med amerikanske, du vet, forhåpentligvis brikker under, og skymodeller på backend og utførelsesmiljøer og alt det som passer sammen, det tror jeg er noe som det tilfører mye verdi, og jeg tror det gjør det mulig for amerikansk lederskap å virkelig også bety at eh vi har lederskap i våre verdier i verden.
32,8K
imitasjon er den oppriktige formen for smiger
(Det var raskt, @xai!)



Sam Altman13. aug., 09:19
Oppdateringer til ChatGPT:
Du kan nå velge mellom "Auto", "Fast" og "Thinking" for GPT-5. De fleste brukere vil ha Auto, men tilleggskontrollen vil være nyttig for noen mennesker.
Hastighetsgrensene er nå 3,000 meldinger/uke med GPT-5 Thinking, og deretter ekstra kapasitet på GPT-5 Thinking mini etter den grensen. Kontekstgrensen for GPT-5 Thinking er 196k tokens. Vi må kanskje oppdatere hastighetsgrenser over tid, avhengig av bruk.
4o er tilbake i modellvelgeren for alle betalte brukere som standard. Hvis vi noen gang avvikler den, vil vi gi god beskjed. Betalte brukere har nå også en "Vis flere modeller"-bryter i ChatGPT-nettinnstillingene som vil legge til modeller som o3, 4.1 og GPT-5 Thinking mini. 4.5 er bare tilgjengelig for Pro-brukere – det koster mange GPUer.
Vi jobber med en oppdatering av GPT-5s personlighet som skal føles varmere enn den nåværende personligheten, men ikke så irriterende (for de fleste brukere) som GPT-4o. En læring for oss fra de siste dagene er imidlertid at vi egentlig bare trenger å komme til en verden med mer tilpasning per bruker av modellpersonlighet.
559
åpnesourcing ChromeTabOverflow:
jeg ble lei av OoM-feil fra mine 300+ åpne Chrome-faner. tar opptil 60 GB minne og dreper produktiviteten min over hele maskinen
ingen av de tullete AI-nettleserne (jeg har prøvd alle) gjør det grunnleggende for å hjelpe deg med å organisere hundrevis av åpne faner riktig. Så laget 4 verktøy som gjør tingen.
vibekodet på 2 timer. takket være @windsurf og Claude Code



17,77K
En av de mest vedvarende lærdommene jeg har hatt fra å snakke med de øverste vertikale AI-startupene er at de er -alle- hensynsløst multimodeller. Hver modell blir testet, hver modell brukes for relativt spesifikke styrker, hvert lag har sin egen ruter. Ingen Biglab-lojalitet noe sted.
Det er inspirerende å se, men du begynner også å forstå:
1) konkurransepresset rundt ting som BigLab A som slippes rett før BigLab B
2) utviklererfaring og oppetid betyr fortsatt noe, men litt mindre siden hvis du har en god modellser, vil de gjøre det de trenger for å perfmaxx
3) hvor langt bak åpne modeller faktisk er
32,02K
btw hvis du bruker en Apple Watch, sjekk dette diagrammet i Helse-appen
Jeg fikk en søvnapnétest hjemme (som $150ish) og deretter en CPAP-maskin, og du kan se at den går dramatisk ned (jeg har ikke 100% etterlevelse, er sannsynligvis på 50% i beste fall)
Ikke Suuuper Scientific (mange forvirrende), men jeg føler meg litt mer uthvilt etter en CPAP-søvn. Mer frekt snorker jeg mindre høyt.

19,43K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til