La vente publique de PUMP est terminée. Au départ, j'avais également investi une grosse somme sur Bybit, en ne laissant qu'1/2 sur la chaîne, et finalement, seule la transaction sur la chaîne a réussi. Heureusement, je n'ai pas fait de couverture prématurée... Cela dit, récemment, beaucoup de gens dans la communauté AI discutent de VLA (Vision-Language-Action). J'ai particulièrement étudié s'il y avait des projets sur la chaîne liés à VLA et j'ai vu ce projet CodecFlow @Codecopenflow, j'en ai acheté un peu. == Que fait le projet CodecFlow == Pour faire simple, VLA est une architecture de modèle qui permet à l'IA non seulement de « parler », mais aussi de « faire ». Les LLM traditionnels (comme GPT) ne peuvent que comprendre le langage et fournir des suggestions, mais ils ne peuvent pas agir, cliquer sur des écrans ou saisir des objets. Le modèle VLA signifie qu'il intègre trois grandes capacités : 1. Vision : comprendre les images, les captures d'écran, les entrées de caméra ou les données des capteurs. 2. Langage : comprendre les instructions en langage naturel des humains. 3. Action : générer des instructions exécutables, comme des clics de souris, des saisies au clavier, ou contrôler un bras robotique. CodecFlow travaille sur le VLA sur la chaîne, tous les processus opérationnels peuvent également être enregistrés sur la chaîne, audités, vérifiés et réglés. En résumé, c'est l'infrastructure de base pour un "robot IA". == Pourquoi je fais particulièrement attention à ce projet ? == J'ai découvert que leurs développeurs sont des contributeurs clés du projet open source LeRobot, qui est le projet open source le plus en vogue dans le domaine du VLA ! LeRobot est la base de premier plan pour construire des modèles VLA dans le monde open source, y compris SmolVLA, qui peut fonctionner sur un ordinateur portable. Cela signifie que cette équipe comprend vraiment l'architecture VLA et les robots. Je vois qu'ils continuent à construire, et le prix du jeton augmente de manière stable. Je suis très optimiste sur le secteur VLA, et d'un point de vue global, VLA et les robots représentent vraiment l'avenir sur le marché. • Les géants du Web2 (Google, Meta, Tesla) se sont actuellement pleinement engagés dans la formation VLA et robotique ; • Il y a très peu de projets Web3 capables d'exécuter des applications VLA, ce qui est encore très rare. • VLA a la possibilité de créer une immense valeur dans des scénarios tels que DePIN, l'automatisation Web, et l'exécution d'agents AI sur la chaîne. CA : 69LjZUUzxj3Cb3Fxeo1X4QpYEQTboApkhXTysPpbpump Faites toujours vos propres recherches (DYOR).
CodecFlow
CodecFlow26 juin 2025
Qu’est-ce qu’un opérateur $CODEC ? C’est là que les modèles Vision-Langage-Action rendent enfin l’IA utile pour le travail réel. Un opérateur est un agent logiciel autonome alimenté par des modèles VLA qui effectue des tâches par le biais d’un cycle continu de perception-raisonnement-action. Les LLM peuvent penser et parler brillamment, mais ils ne peuvent pas pointer, cliquer ou saisir quoi que ce soit. Ce sont de purs moteurs de raisonnement sans aucun ancrage dans le monde physique. Les VLA combinent la perception visuelle, la compréhension du langage et la sortie d’action structurée en une seule passe vers l’avant. Alors qu’un LLM décrit ce qui devrait se passer, un modèle VLA le fait en émettant des coordonnées, des signaux de contrôle et des commandes exécutables. Le flux de travail de l’opérateur est le suivant : - Perception : capture des captures d’écran, des flux de caméra ou des données de capteurs. - Raisonnement : traite les observations en même temps que les instructions en langage naturel à l’aide du modèle VLA. - Action : exécute les décisions par le biais d’interactions avec l’interface utilisateur ou du contrôle matériel, le tout en une seule boucle continue. Exemples : LLM vs. opérateur alimenté par le modèle VLA Planifier une réunion LLM : Fournit une explication détaillée de la gestion du calendrier, en décrivant les étapes de planification d’une réunion. Opérateur avec modèle VLA : - Capture le bureau de l’utilisateur. - Identifie l’application de calendrier (par exemple, Outlook, Google Calendar). - Accède au jeudi, crée une réunion à 14 h et ajoute des participants. - S’adapte automatiquement aux modifications de l’interface utilisateur. Robotique : trier les objets LLM : Génère des instructions écrites précises pour trier les objets, comme l’identification et l’organisation des composants rouges. Opérateur avec modèle VLA : - Observe l’espace de travail en temps réel. - Identifie les composants rouges parmi les objets mélangés. - Planifie des trajectoires sans collision pour un bras robotique. - Exécute les opérations de prélèvement et de placement, en s’adaptant dynamiquement aux nouvelles positions et orientations. Les modèles VLA comblent enfin le fossé entre l’IA qui peut raisonner sur le monde et l’IA qui peut réellement le changer. C’est ce qui transforme l’automatisation, qui passe d’un respect fragile des règles à une solution adaptative des problèmes : des travailleurs intelligents. « Les scripts traditionnels se cassent lorsque l’environnement change, mais les opérateurs utilisent la compréhension visuelle pour s’adapter en temps réel, en gérant les exceptions au lieu de les bloquer. »
11,21K