1/ Google DeepMind intègre l'IA dans le monde physique : Gemini Robotics 1.5 transforme un modèle de langage en un agent capable de guider des robots et de maîtriser des tâches complexes étape par étape. Un pas majeur vers le lien entre la pensée et l'action ! Décomposons cela 🧵 :
2/ Les robots ont longtemps eu du mal avec les tâches quotidiennes : trop rigides, trop dépendants des commandes exactes, incapables de s'adapter. Même quelque chose d'aussi simple que "débarasser la table" était difficile sans contexte et compétences en planification.
Sundar Pichai
Sundar Pichaiil y a 17 heures
Les nouveaux modèles Gemini Robotics 1.5 permettront aux robots de mieux raisonner, de planifier à l'avance, d'utiliser des outils numériques comme la recherche et de transférer l'apprentissage d'un type de robot à un autre. Notre prochaine grande étape vers des robots polyvalents qui sont vraiment utiles — vous pouvez voir comment le robot raisonne en triant le linge dans la vidéo ci-dessous.
3/ Gemini Robotics 1.5 fusionne le langage, la vision et la planification. Il comprend l'intention humaine, conçoit une séquence d'actions, explique son raisonnement—et ensuite dirige un robot pour l'exécuter. Penser et agir, enfin connectés.
4/ Les robots peuvent désormais s'adapter à des situations réelles : de l'aide à domicile à la gestion de la logistique dans les usines. Ce n'est pas seulement de l'automatisation, c'est une interaction intelligente avec le monde qui nous entoure.
Google DeepMind
Google DeepMindil y a 17 heures
Beaucoup de nos activités quotidiennes nécessitent de nombreuses étapes pour être complétées et peuvent être extrêmement difficiles pour les robots. Imaginez demander : « En fonction de ma localisation, pouvez-vous trier ces objets dans les bonnes poubelles pour le compost, le recyclage et les déchets ? » 🗑️ Le robot doit rechercher sur le web les directives locales, examiner les objets, déterminer comment les trier et ensuite accomplir la tâche. ↓
10,27K