Ai llms som chatgpt eller claude läser internet och spottar ut svar baserat på allt vi någonsin har postat offentligt Du kan naturligtvis också mata in och träna den med dina egna data, men det är i stort sett bara internet som dyker upp Wearables som Metas nya AR-glasögon och Apples airpods kommer att lägga till dynamiken i verkliga bilder och ljud. Detta kommer dock till stor del att mata sina egna LLM-modeller Får dig att undra vad som skulle kunna vara möjligt om ett visst samhälle eller land i öst hade centraliserad data över internet, appar och allt följande ... Mata sedan in det i en LLM: - Wearables för konsumenter: AR-glasögon, fitness-/hälsospårare -Mobiltelefoner - Kameror på gatan - Hushållsapparater (t.ex. robotdammsugare som skannar ditt hem) - Elbilar (sensorer och kameror) -Drönare