この投稿では、GRIDの複数のエージェント、ツールなど間での調整を可能にするために構築してきた多くのことをうまく要約しています。これは、オープンソースの収益化のために解決すべき重要な問題であり、多くのオープンソースアーティファクトを調整してAGIワークフローを自動的に使用するための効果的な方法を見つける必要があります。 これまでに行ったことは次のとおりです。 まず、最初に、LLMには人間の専門家が使用する複雑なワークフローに関する知識が欠けていることがわかりました。そこで、グラウンディングのために専門家からそれらを厳選しました(将来的には、他の人が貢献できるようになる予定です) 次に、クエリを再帰的により単純なタスクに分割する手法を開発しました。ROMAと呼ばれるこの深い研究アプローチは、間もなくオープンソースライブラリとしてリリースされる予定です。最近、@ManusAI_HQワイド検索と呼ばれる関連アプローチを使用しました(ただし、オープンソースではなく、詳細は提供されていません) 最後に、フローのリーフノードを構成する多くの新しい「単純なタスク」を実験してきました。このツイートスレッドで言及されている楽しいのは、トークンレベルのルーティングを使用して構成された複数のモデルを使用することであり、これは2つのモデルの機能を組み合わせるための興味深いアイデアです。 今後数か月間、センチエント チャットでこの方法で回答されたクエリを体験できるようになります。私たちのために多くのアイデアが制作されています!
Sentient
Sentient8月19日 01:56
GRIDはどのようにインテリジェンスを調整しますか? 何千ものモデル、エージェント、データストリームをルーティング、組み合わせ、調整することで、GRIDは分散型の頭脳のように拡張できます。成長するにつれて、その集合知は複合化し、AGI レベルのアウトプットを実現します。 基礎となるアルゴリズムがこれを可能にする👇方法は次のとおりです
7.24K