Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx
Raggiungi l'ambizione con intenzionalità, intensità e integrità
- @smol_ai
- @dxtipshq
- @sveltesociety
- @aidotengineer
- @coding_career
- @latentspacepod
qualcosa incredibilmente ironipoetico:
Oggi ho imparato che le prove a sostegno della forte ipotesi di Sapir-Whorf sono deboli e le prove a sostegno della debole ipotesi di Sapir-Whorf sono forti.
Questo solleva la questione di:
1. quando la forte ipotesi si trasforma in debole e se il supporto probatorio diminuisce di pari passo o se esiste una termoclina.
2. presumibilmente esistono molte dinamiche forti-deboli vs deboli-forti con molte teorie; quali teorie sono forti-forti E deboli-deboli? Sospetto che siano MOLTO poche.
2,19K
[invia a amici interessati pls]
Stiamo espandendo il team di @aidotengineer (e annunceremo presto il nostro primo summit autunnale (19-22 novembre) e poi il nostro programma per il 2026 e la nostra nuova formazione del team.
AIE ora raggiunge oltre 1,1 milioni di ingegneri AI al mese e le conferenze sono quasi raddoppiate ogni anno. Raddoppieremo di nuovo il prossimo anno. Ha aiutato le aziende ad assumere e ha aiutato le aziende a trovare nuovi lavori. Le persone si sono persino incontrate e si sono innamorate agli AIE (!!)
Se ti piace lavorare con ingegneri e vuoi aiutare a fare dell'ingegneria AI una forza per il bene piuttosto che per il disordine, unisciti a noi. Le cose sono cambiate in modo molto significativo quest'anno (non è un'esagerazione) e abbiamo bisogno di aiuto per creare una comunità di qualità per ogni parte interessata, dai partecipanti agli sponsor, ai relatori, fino a online!
Se sei "High Agency" e vuoi proporre il tuo ruolo, info @ ai . engineer funziona, così come swyx @

10,97K
swyx ha ripubblicato
Greg Brockman (@gdb), co-fondatore e presidente di OpenAI, sul ruolo dei modelli aperti per il loro business (~50:20 nell'ultimo episodio del Latent Space Podcast):
Un'altra cosa a un livello molto pratico su cui abbiamo riflettuto con i modelli open source è che le persone che costruiscono sul nostro modello open source stanno in un certo senso costruendo sulla nostra tecnologia.
Se ti affidi a noi per migliorare il modello, significa che hai una dipendenza, in un modo che è buono per il nostro business, ma penso sia anche buono per il paese.
Che tu pensi di avere una tecnologia americana dai modelli che le persone stanno eseguendo direttamente. Ma poi come questi si interfacciano e interagiscono nel modo di cui abbiamo appena parlato, che ci consente di costruire un intero ecosistema in cui le persone possono avere, sai, il controllo sulle parti che sono importanti per loro, costruito in ultima analisi su questi modelli che riflettono i valori americani, um e poi essere in grado di interagire con, speriamo, chip americani sottostanti, e modelli cloud sul retro e ambienti di esecuzione e tutto questo che si incastra, penso sia qualcosa che aggiunge molto valore e penso che consenta alla leadership americana di significare davvero che abbiamo anche una leadership nei nostri valori nel mondo.
32,82K
l'imitazione è la forma più sincera di adulazione
(è stato veloce, @xai!)



Sam Altman13 ago, 09:19
Aggiornamenti a ChatGPT:
Ora puoi scegliere tra “Auto”, “Veloce” e “Pensante” per GPT-5. La maggior parte degli utenti vorrà Auto, ma il controllo aggiuntivo sarà utile per alcune persone.
I limiti di messaggi sono ora 3.000 messaggi/settimana con GPT-5 Pensante, e poi capacità extra su GPT-5 Pensante mini dopo quel limite. Il limite di contesto per GPT-5 Pensante è di 196k token. Potremmo dover aggiornare i limiti di messaggi nel tempo a seconda dell'uso.
4o è tornato nel selettore di modelli per tutti gli utenti paganti per impostazione predefinita. Se mai lo deprecheremo, daremo ampio preavviso. Gli utenti paganti hanno anche ora un'opzione “Mostra modelli aggiuntivi” nelle impostazioni web di ChatGPT che aggiungerà modelli come o3, 4.1 e GPT-5 Pensante mini. 4.5 è disponibile solo per gli utenti Pro: costa molti GPU.
Stiamo lavorando a un aggiornamento della personalità di GPT-5 che dovrebbe sembrare più calorosa rispetto alla personalità attuale, ma non così fastidiosa (per la maggior parte degli utenti) come GPT-4o. Tuttavia, una lezione per noi degli ultimi giorni è che dobbiamo davvero arrivare a un mondo con maggiore personalizzazione della personalità del modello per ogni utente.
585
open sourcing ChromeTabOverflow:
mi sono stancato degli errori di Out of Memory (OoM) dai miei oltre 300 tab di Chrome aperti. occupano fino a 60GB di memoria e uccidono la mia produttività su tutta la macchina.
nessuno dei browser AI inutili (ne ho provati tutti) fa la cosa di base di aiutarti a organizzare correttamente centinaia di tab aperti. così ho creato 4 utilità che fanno il lavoro.
vibecoded in 2 ore. grazie a @windsurf e Claude Code



17,8K
una delle lezioni più persistenti che ho appreso parlando con le startup di intelligenza artificiale di alto livello è che sono -tutte- spietatamente multimodali. ogni modello viene testato, ogni modello è utilizzato per punti di forza relativamente specifici, ogni strato ha il proprio router. nessuna lealtà verso i grandi laboratori.
è ispirante vedere, ma inizi anche a capire:
1) l'urgenza competitiva attorno a cose come il BigLab A che rilascia proprio prima del BigLab B
2) l'esperienza degli sviluppatori e il tempo di attività contano ancora, ma leggermente meno poiché se hai un buon modello, faranno ciò di cui hanno bisogno per massimizzare le prestazioni
3) quanto siano effettivamente indietro i modelli aperti.
32,06K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari