Etter 10+ år i robotlæring, fra doktorgraden min ved Imperial til Berkeley til å bygge Dyson Robot Learning Lab, var det én frustrasjon som stadig slo meg: Hvorfor må jeg gjenoppbygge den samme infrastrukturen om og om igjen? Mønsteret jeg stadig så: • Nytt robotikkteam starter • Bruker 6 måneder på å bygge datainnsamlingspipeline • Bruker ytterligere 3 måneder på feilsøking av synkroniseringsproblemer • Begynner endelig å samle inn oppgavespesifikke data • Innser at deres infrastrukturvalg begrenser deres fleksibilitet • Starter på nytt Dette er hele poenget med robotlæring: Robotlæring er grunnleggende datadrevet. Enten du plukker jordbær eller monterer elektronikk, er kjerneinfrastrukturbehovene identiske. Det er faktisk derfor jeg var så interessert i å satse på datadrevet robotikk for over et tiår siden. Du trenger alltid: • Datasynkronisering med flere sensorer på tvers av forskjellige frekvenser • Fleksibel lagring som fungerer med fremtidige algoritmer • Visualiseringsverktøy for å forstå dataene dine • Evnen til å eksperimentere med ulike tidsoppløsninger • Robust logging som fanger opp alt du måtte trenge senere Trenden mot AI innen robotikk vokser, med roboter som trenger å behandle og analysere store mengder sensordata for å håndtere variasjon og uforutsigbarhet i virkelige miljøer. Men hvert lag bygger dette fra bunnen av. Tenk deg om hver webutvikler måtte bygge sin egen database, webserver og distribusjonspipeline før de skrev sin første linje med applikasjonskode. Dette er grunnen til at jeg grunnla Neuracore. I stedet for at alle robotikkteam bruker måneder på infrastruktur, tilbyr vi de vanlige verktøyene som lar deg gå fra «Jeg har en robot» til «Jeg sender intelligent robotatferd» på dager, ikke måneder....