1/ Google DeepMind tar AI in i den fysiska världen: Gemini Robotics 1.5 förvandlar en språkmodell till en agent som kan vägleda robotar och bemästra komplexa uppgifter steg för steg. Ett stort steg i att knyta ihop tanke och handling! Låt oss bryta ner 🧵 det:
2/ Robotar har länge kämpat med vardagliga uppgifter: för stela, för beroende av exakta kommandon, oförmögna att anpassa sig. Till och med något så enkelt som att "rensa bordet" var svårt utan sammanhang och planeringsförmåga.
Sundar Pichai
Sundar Pichai26 sep. 00:05
De nya Gemini Robotics 1.5-modellerna kommer att göra det möjligt för robotar att resonera bättre, planera i förväg, använda digitala verktyg som Sök och överföra inlärning från en typ av robot till en annan. Vårt nästa stora steg mot robotar för allmänt bruk som verkligen är till hjälp – du kan se hur roboten resonerar när den sorterar tvätt i videon nedan.
3/ Gemini Robotics 1.5 kombinerar språk, vision och planering. Den förstår mänskliga avsikter, utformar en sekvens av åtgärder, förklarar hur den resonerar – och instruerar sedan en robot att utföra den. Att tänka och göra, äntligen kopplas ihop.
4/ Robotar kan nu anpassa sig till verkliga situationer: från att hjälpa till i hemmet till att hantera logistik i fabriker. Det handlar inte bara om automatisering – det handlar om intelligent interaktion med världen omkring oss.
Google DeepMind
Google DeepMind26 sep. 00:02
Många av våra dagliga aktiviteter tar många steg att slutföra och kan vara extremt utmanande för robotar. Föreställ dig att du frågar: "Kan ni sortera de här föremålen i rätt kompost, återvinning och soptunnor, baserat på var jag befinner mig?" 🗑️ Roboten måste söka på nätet efter lokala riktlinjer, titta på objekten, ta reda på hur de ska sorteras och sedan slutföra uppgiften. ↓
19,1K