PUMPのパブリックセールが終わって、もともと私もBybitで大量に、チェーンの1/2だけだった、結局、チェーンだけが成功し、幸いにも事前にヘッジはなかった... 最近、AIコミュニティではVLA(Vision-Language-Action)について多くの議論が交わされています 特に、チェーン上でVLA関連のプロジェクトをやっている人はいないか調べに行ったのですが、このCodecFlow@Codecopenflowプロジェクトを見て少し購入しました。 == CodecFlowは何をしているのか == AIが「話す」だけでなく「行う」ことを可能にするモデルアーキテクチャであるVLAの簡単な紹介。 従来のLLM(GPTなど)は、言語を理解して提案することしかできませんが、ハンズオン、画面のクリック、オブジェクトのつかみ合いはできません。 VLA モデルは、次の 3 つの機能を統合していることを意味します。 1. ビジョン:画像、スクリーンショット、カメラ入力、またはセンサーデータを理解する 2.言語:人間の自然言語の指示を理解する 3. アクション: マウスのクリック、キーボード入力、ロボットアームの制御などの実行可能コマンドを生成します CodecFlowはチェーン上でVLAを行っており、すべてのプロセスをチェーンにアップロードすることもでき、監査、検証、および決済できます。 簡単に言えば、「AIボット」のインフラです。 == なぜこのアイテムに特別な注意を払っているのですか? == 彼らの開発者は、VLAスペースで最もホットなオープンソースプロジェクトであるLeRobotのコアコントリビューターであることがわかりました。 LeRobotは、SmolVLAなどのラップトップで実行できる軽量VLAを含む、オープンソースの世界でVLAモデルを構築するためのトップベースです。 これは、このチームがVlAアーキテクチャとロボットを本当に理解していることを意味します。 彼らも構築を続けており、通貨の価格も着実に上昇しているのがわかります、私はVLAトラックについて非常に楽観的であり、全体的な傾向から、VLAとロボットは確かに市場の未来です。 • Web2の巨人(Google、Meta、Tesla)は、現在、VLAとボットのトレーニングに全力で取り組んでいます。 • Web3プロジェクトは、タスクを実行できるVLAアプリケーションが不足している • VLAは、DePIN、Web Automation、オンチェーンAIエージェントの実行などのシナリオで大きな役割を果たす機会があります。 CA:69LjZUUzxj3Cb3Fxeo1X4QpYEQTboApkhXTysPpbpump 常にDYOR。
CodecFlow
CodecFlow2025年6月26日
$CODECオペレーターとは何ですか? ここで、ビジョン・言語・アクション・モデルが最終的にAIを実際の仕事に役立てるのです。 Operator は、VLA モデルを利用した自律型ソフトウェア エージェントであり、継続的な知覚、理由、行動のサイクルを通じてタスクを実行します。 LLM は見事に考えたり話したりすることはできますが、何かを指さしたり、クリックしたり、つかんだりすることはできません。それらは、物理的な世界にまったく根拠のない純粋な推論エンジンです。 VLA は、視覚、言語理解、構造化されたアクション出力を 1 回のフォワード パスに組み合わせます。LLM は何が起こるべきかを記述しますが、VLA モデルは実際に座標、制御信号、実行可能なコマンドを出力することでそれを実現します。 オペレーターのワークフローは次のとおりです。 - 知覚: スクリーンショット、カメラ フィード、またはセンサー データをキャプチャします。 - 推論:VLAモデルを使用して、自然言語命令とともに観測値を処理します。 - アクション: UI インタラクションまたはハードウェア制御を通じて、すべて 1 つの連続ループで意思決定を実行します。 例: LLM と VLA モデルを利用したオペレーター ミーティングのスケジュール設定 LLM: カレンダー管理の詳細な説明を提供し、会議をスケジュールする手順を概説します。 VLA モデルを使用するオペレーター: - ユーザーのデスクトップをキャプチャします。 - カレンダーアプリケーション(Outlook、Google カレンダーなど)を識別します。 - 木曜日に移動し、午後 2 時にミーティングを作成し、出席者を追加します。 - ユーザーインターフェイスの変更に自動的に適応します。 ロボティクス:オブジェクトの並べ替え LLM: 赤いコンポーネントの識別や整理など、オブジェクトを並べ替えるための正確な書面による指示を生成します。 VLA モデルを使用するオペレーター: - ワークスペースをリアルタイムで観察します。 - 混合オブジェクトの赤いコンポーネントを識別します。 - ロボットアームの衝突のない軌道を計画します。 - ピックアンドプレース操作を実行し、新しい位置と方向に動的に調整します。 VLA モデルは、世界について推論できる AI と、実際に世界を変えることができる AI の間のギャップをついに埋めます。彼らは、自動化を脆弱なルールに従うものから、適応的な問題解決、つまりインテリジェントなワーカーに変えるものです。 「従来のスクリプトは環境が変化すると壊れますが、オペレーターは視覚的な理解を使用してリアルタイムで適応し、例外をクラッシュさせるのではなく処理します。」
11.22K