𝗔𝗳𝘁𝗲𝗿 𝟭𝟬+ 𝘆𝗲𝗮𝗿𝘀 𝗶𝗻 𝗿𝗼𝗯𝗼𝘁 𝗹𝗲𝗮𝗿𝗻𝗶𝗻𝗴, van mijn PhD aan Imperial tot Berkeley tot het bouwen van het Dyson Robot Learning Lab, bleef één frustratie me achtervolgen: 𝗪𝗵𝘆 𝗱𝗼 𝗜 𝗵𝗮𝘃𝗲 𝘁𝗼 𝗿𝗲𝗯𝘂𝗶𝗹𝗱 𝘁𝗵𝗲 𝘀𝗮𝗺𝗲 𝗶𝗻𝗳𝗿𝗮𝘀𝘁𝗿𝘂𝗰𝘁𝘂𝗿𝗲 𝗼𝘃𝗲𝗿 𝗮𝗻𝗱 𝗼𝘃𝗲𝗿 𝗮𝗴𝗮𝗶𝗻? 𝗧𝗵𝗲 𝗽𝗮𝘁𝘁𝗲𝗿𝗻 𝗜 𝗸𝗲𝗽𝘁 𝘀𝗲𝗲𝗶𝗻𝗴: • Nieuw robotica team begint • Besteedt 6 maanden aan het bouwen van een dataverzamelingspipeline • Besteedt nog eens 3 maanden aan het debuggen van synchronisatieproblemen • Begint eindelijk met het verzamelen van taak-specifieke gegevens • Realiseert dat hun infrastructuurkeuzes hun flexibiliteit beperken • Begint opnieuw 𝗧𝗵𝗶𝘀 𝗶𝘀 𝘁𝗵𝗲 𝘄𝗵𝗼𝗹𝗲 𝗽𝗼𝗶𝗻𝘁 𝗼𝗳 𝗿𝗼𝗯𝗼𝘁 𝗹𝗲𝗮𝗿𝗻𝗶𝗻𝗴: Robot leren is fundamenteel datagestuurd. Of je nu aardbeien plukt of elektronica monteert, de kernbehoeften van de infrastructuur zijn identiek. Dat is eigenlijk waarom ik meer dan tien jaar geleden zo geïnteresseerd was in datagestuurde robotica. 𝗬𝗼𝘂 𝗮𝗹𝘄𝗮𝘆𝘀 𝗻𝗲𝗲𝗱: • Multi-sensor data synchronisatie over verschillende frequenties • Flexibele opslag die werkt met toekomstige algoritmes • Visualisatietools om je gegevens te begrijpen • De mogelijkheid om te experimenteren met verschillende temporele resoluties • Robuuste logging die alles vastlegt wat je later nodig zou kunnen hebben De trend naar AI in robotica groeit, waarbij robots grote hoeveelheden sensorgegevens moeten verwerken en analyseren om variabiliteit en onvoorspelbaarheid in echte omgevingen te beheren. 𝗕𝘂𝘁 𝗲𝘃𝗲𝗿𝘆 𝘁𝗲𝗮𝗺 𝗯𝘂𝗶𝗹𝗱𝘀 𝘁𝗵𝗶𝘀 𝗳𝗿𝗼𝗺 𝘀𝗰𝗿𝗮𝘁𝗰𝗵. Stel je voor dat elke webontwikkelaar zijn eigen database, webserver en implementatiepipeline moet bouwen voordat hij zijn eerste regel applicatiecode schrijft. 𝗧𝗵𝗶𝘀 𝗶𝘀 𝘄𝗵𝘆 𝗜 𝗳𝗼𝘂𝗻𝗱𝗲𝗱 𝗡𝗲𝘂𝗿𝗮𝗰𝗼𝗿𝗲. In plaats van dat elk roboticateam maanden aan infrastructuur besteedt, bieden wij de gemeenschappelijke tools die je in staat stellen om van "Ik heb een robot" naar "Ik verzend intelligente robotgedragingen" te gaan in dagen, niet maanden....