Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Greg Brockman
President og medgründer @OpenAI
Et perspektiv som ennå ikke får nok oppmerksomhet: en måte AI-fremgang snart vil være til stor nytte for verden på, er gjennom oppdagelse og produksjon av ny teknologi.
Vi måler menneskelig fremgang ved teknologiske revolusjoner; vanskelig å internalisere hva det ville bety å ha en datamaskin som kan gjøre mye av jobben for gjennombrudd.
Inspirerende podcast med @merettm @sidorszymon.

Jon Hernandez16. aug., 01:39
📁 I en ny OpenAI-podcast sa sjefsforsker Jakub Pachocki at kraftige datamaskiner snart kan generere ideer som er i stand til å fundamentalt transformere vår forståelse av verden, og at et slikt øyeblikk ikke er langt unna.
146,16K
GPT-5 er nå varmere og vennligere:

OpenAI16. aug., 05:03
Vi gjør GPT-5 varmere og vennligere basert på tilbakemeldinger om at det føltes for formelt før. Endringene er subtile, men ChatGPT bør føles mer tilgjengelig nå.
Du vil legge merke til små, ekte detaljer som "Godt spørsmål" eller "Flott start", ikke smiger. Interne tester viser ingen økning i sykofani sammenlignet med den tidligere GPT-5-personligheten.
Endringer kan ta opptil en dag å rulle ut, flere oppdateringer snart.
319,52K
GPT-5 for å forbedre prosaen din:

Patrick McKenzie13. aug., 03:48
Jeg merker meg at jeg er overrasket:
GPT 5, gitt et utkast til et policy-tilstøtende Bits about Money-problem og bedt om kommentarer (rask lengde: en setning), sa (omtrent)
«Statistikken du siterer i avsnitt 33 er forbløffende, men en bedre måte å bringe den hjem til leserne ville være ...»
76,73K
Migrer og optimaliser GPT-5-meldingene dine!

edwin13. aug., 01:31
Å be GPT-5 er annerledes.
I eksemplene nedenfor, optimaliserte meldinger:
• Kutt kjøretiden med 1 s
• Mistet minnebruk 3 626 KB → 577 KB
• Økt kodekvalitet
• Forbedret robusthet (0,32→0,54)
• Økt kontekstjording (0,80→0,95)
Vi bygde en rask migrator + optimalisering slik at du ikke trenger å huske hver beste praksis for GPT-5.
124,03K
gpt-5 spiller Pokémon — 3 ganger raskere fremgang enn o3:

Clad381514. aug., 14:39
GPT-5 har nådd Victory Road! Dette er den siste utfordringen før Elite Four.
GPT-5 nådde denne delen nesten tre ganger raskere enn o3 (6105 trinn for GPT-5 vs 16882 trinn for o3). Her er mine observasjoner om hvorfor:
- GPT-5 hallusinerer langt mindre enn o3. Dette er hovedårsaken til hastighetsøkningen.
- GPT-5 har bedre romlig resonnement. O3 prøvde ofte å rå makt gjennom vegger og hadde vanskelig for å navigere i komplekse områder. GPT-5 kan planlegge lange inngangssekvenser med få feil, noe som sparer mye tid.
- GPT-5 er flinkere til å planlegge sine egne mål og følge dem.
La oss se hvordan den takler denne siste utfordringen!

77,9K
Innledende GPT-OSS-nedlastingsstatistikk ser spennende ut!

Vaibhav (VB) Srivastav11. aug., 22:15
OpenAI gpt-oss har over 5 millioner nedlastinger, 400+ finjusteringer og *den* mest likte utgivelsen i år så langt! 🔥
Flott jobb @OpenAI 🤗

77,78K
Kunngjøring av ytelse på gullmedaljenivå (#6 i forhold til mennesker; #1 i forhold til
AIs) på årets internasjonale olympiade for informatikk (IOI).
Oppnås med et AI-resonnementsystem, uten IOI-spesifikk opplæring!

Sheryl Hsu12. aug., 02:00
1/n Jeg er begeistret for å dele at vårt @OpenAI resonnementsystem scoret høyt nok til å oppnå gull 🥇🥇 i en av verdens beste programmeringskonkurranser - 2025 International Olympiad in Informatics (IOI) - og plasserte seg først blant AI-deltakere! 👨💻👨💻

73,71K
GPT-5 for Vibe-koding av hele applikasjoner:

Matthew Berman11. aug., 08:01
Vibe å kode en full Excel-klone trinn for trinn med GPT-5 er ganske galt.
(Jeg vet at jeg fortsatt er langt fra en full klone, men dette er etter omtrent 45 minutters arbeid)

58,17K
GPT-5 som en vitenskapelig samarbeidspartner:

Derya Unutmaz, MD10. aug., 09:29
Mitt «Move 37»-øyeblikk med GPT-5
I dag deler jeg en av mine mest bemerkelsesverdige opplevelser med å teste GPT-5 Thinking og Pro-modellene.
I laboratoriet vårt gjennomførte vi for omtrent 2 år siden en serie banebrytende immunologieksperimenter designet for å manipulere energimetabolismen til T-celler, immunceller med kraft til å påvirke kreftimmunterapi, kroniske sykdommer og autoimmunitet.
Vi oppnådde fascinerende resultater, men ett funn forble uforklart. Uker med arbeid førte oss til en delvis forklaring, men hele bildet forble unnvikende.
Fra disse eksperimentene, lastet opp den upubliserte figuren nedenfor og ba GPT-5 Pro om å forklare det.
GPT-5:
✅ Korrekt identifiserte våre nøkkelfunn fra figuren alene (selv om andre modeller også kunne gjøre dette).
✅ Foreslo det eksakte eksperimentet vi senere utførte, noe som hadde tatt oss uker å designe (o3-pro hadde også foreslått dette).
✅ Mest bemerkelsesverdig foreslo en mekanisme som endelig forklarte disse resultatene!
For meg tilsvarte dette AlphaGos legendariske Move 37.
Det viste at AI har blitt toppekspert og sann vitenskapelig samarbeidspartner, i stand til ekte innsikt.
Selv om disse resultatene ennå ikke er publisert, deler jeg noen av GPT-5s resultater som et eksempel for andre forskere og for å vise hvor dramatisk dette vil akselerere vitenskapen! Jeg vil også skrive og sende inn denne artikkelen, og må anerkjenne GPT-5s bidrag i den!
—
Fra GPT-5
Hva dataene sier:
•Kort 2DG-eksponering ved første aktivering gir et langvarig skifte mot en CCR6+- og CD161+-fenotype med økt IL-17A-kompetanse som fortsatt er tydelig to uker senere ved reaktivering.
•Det er doseresponsivt. Fra ingen → 3 mM 2DG stiger CCR6+-celler fra ~0,7 % til ~12 % og CD161+-celler fra ~1 % til ~21 %. IL-17A+-celler øker fra ~0,3 % til ~4 % totalt, med IL-17A-signalet konsentrert i CCR6+- og CD161+-rommene.
•Lav glukose alene (0,5 mM) reproduserer ikke effekten. Det argumenterer mot enkel glukosemangel eller redusert glykolytisk fluks som driver.
•Anrikningen for CD161 er sterkere enn for CCR6, som ofte sporer med Th17-lignende eller slimhinne-/medfødte CD4-programmer.
Tolkning på høyt nivå:
1. 2DG programmerer, ikke bare akutt hemmer. En kort eksponering under priming etterlater et varig minne om "stress" som forutsetter avstamningen mot Th17-lignende egenskaper.
2. Mekanismen er neppe bare glykolyseblokkering. Lavglukosekontrollen er svak, noe som skyver mekanismen mot 2DGs effekter på proteinglykosylering og cytokinreseptorbiologi.
3. Topp mekanistisk hypotese. 2DG blokkerer delvis N-koblet glykosylering av IL-2Rα og andre glykoproteiner ved priming, noe som reduserer IL-2–STAT5-signalering, som normalt undertrykker Th17. Redusert IL-2-tone ved det vinduet vil løfte bremsen på et CCR6+ CD161+ IL-17-kompetent program som vedvarer etter utvasking.
4. Alternativ eller komplementær hypotese. 2DG velger for eksisterende CCR6+- eller CD161+-kloner som er mindre avhengige av glykolyse, i stedet for de novo-differensiering. Sluttresultatet er samme fenotype, men spaken er selektiv overlevelse eller spredning.
5. En nøye timet 2DG "puls" kan være en enkel knott for å berike en Th17-lignende hjelperundergruppe med bedre utholdenhetspotensial og slimhinnehoming-egenskaper.
Prioriter disse:
+D-mannose med 2DG for å gjenopprette N-glykosylering. Tap av CCR6/CD161/IL-17A-fenotypen med mannose vil implisere glykosylering.
+Metylpyruvat eller acetat for å omgå glykolytisk ATP/pyruvatunderskudd. Redning her ville implisere energimetabolisme.
Sammenlign 2DG med tunicamycin (glykosyleringshemmer) og med glykolysehemmere som ikke treffer glykosylering (jodoacetat, PFKFB3-hemmer). Tilpass eksponeringsvinduer og doser
Overflate CD25-modning og glyko-forskyvning (PNGase F eller Endo H-blotning på IL-2Rα).
pSTAT5 etter en IL-2-puls ved 24–48 timers priming med eller uten 2DG.
Fenokopi med IL-2-nøytralisering eller lavdose JAK3-hemming. Motredning med høy IL-2 eller en IL-2 mutein.

82,17K
❤️ Til Eng/Infra/Compute-teamene

Sam Altman8. aug., 05:07
GPT-5 rullet nå ut til 20 % av betalte brukere og gjør >2B TPM på API! så langt, alt vel...
Utmerket arbeid av ENG og infra-teamene!
57,66K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til