Ai llm-er som chatgpt eller claude leser internett og spytter ut svar basert på alt vi noen gang har lagt ut offentlig Du kan selvfølgelig også legge inn og trene den med dine egne data, men den kommer stort sett bare til overflaten på internett Wearables som Metas nye ar-briller og Apples airpods vil legge til dynamikken til bilder og lyd fra den virkelige verden. Dette vil imidlertid i stor grad mate deres egne llm-modeller Får deg til å lure på hva som kunne vært mulig hvis et bestemt samfunn eller land i øst hadde sentraliserte data på tvers av internett, apper og alt det følgende... Legg det deretter inn i en LLM: - Wearables for forbrukere: AR-briller, fitness-/helsesporere -Mobiltelefoner - gatekameraer - hvitevarer (som robotstøvsugere som skanner hjemmet ditt) - elbiler (sensorer og kameraer) -Droner