1/ Google DeepMind bringer AI inn i den fysiske verden: Gemini Robotics 1.5 gjør en språkmodell til en agent som kan veilede roboter og mestre komplekse oppgaver trinn for trinn. Et stort skritt i å koble tanke og handling! La oss bryte det ned 🧵:
2/ Roboter har lenge slitt med hverdagslige oppgaver: for rigide, for avhengige av eksakte kommandoer, ute av stand til å tilpasse seg. Selv noe så enkelt som å "rydde bordet" var vanskelig uten kontekst og planleggingsevner.
Sundar Pichai
Sundar Pichai26. sep., 00:05
Nye Gemini Robotics 1.5-modeller vil gjøre det mulig for roboter å bedre resonnere, planlegge fremover, bruke digitale verktøy som Search og overføre læring fra en type robot til en annen. Vårt neste store skritt mot generelle roboter som virkelig er nyttige – du kan se hvordan roboten resonnerer når den sorterer klesvask i videoen nedenfor.
3/ Gemini Robotics 1.5 smelter sammen språk, visjon og planlegging. Den forstår menneskelige hensikter, designer en sekvens av handlinger, forklarer resonnementet – og instruerer deretter en robot til å utføre den. Tenker og gjør, endelig koblet sammen.
4/ Roboter kan nå tilpasse seg virkelige situasjoner: fra å hjelpe til i hjemmet til å administrere logistikk i fabrikker. Dette er ikke bare automatisering – det er intelligent interaksjon med verden rundt oss.
Google DeepMind
Google DeepMind26. sep., 00:02
Mange av våre daglige aktiviteter tar mange skritt å fullføre og kan være ekstremt utfordrende for roboter. Tenk deg å spørre: "Basert på hvor jeg befinner meg, kan du sortere disse gjenstandene i riktig kompost, resirkulering og søppelbøtter?" 🗑️ Roboten må søke på nettet etter lokale retningslinjer, se på objektene, finne ut hvordan de skal sorteres og deretter fullføre oppgaven. ↓
12,01K