Ten post ładnie podsumowuje wiele z tego, co budujemy, aby umożliwić koordynację między wieloma agentami, narzędziami itp. w GRID. To ważny problem do rozwiązania w kontekście monetyzacji open source: musimy znaleźć skuteczne sposoby koordynowania wielu artefaktów open source w automatycznych przepływach pracy AGI. Oto, co zrobiliśmy do tej pory: Na początku odkryliśmy, że LLM-y nie mają wiedzy o złożonych przepływach pracy, które wykorzystują eksperci. Dlatego zebraliśmy je od ekspertów dla ugruntowania (w przyszłości będzie to otwarte dla innych, aby mogli wnieść swój wkład). Następnie opracowaliśmy technikę dzielenia zapytań na prostsze zadania rekurencyjnie. To głębokie podejście badawcze, nazwane ROMA, wkrótce zostanie wydane jako biblioteka open source. Niedawno @ManusAI_HQ użyło pokrewnego podejścia, które nazwali szerokim wyszukiwaniem (choć nie jest to open source, a szczegóły nie zostały podane). Na koniec eksperymentowaliśmy z wieloma nowymi "prostymi zadaniami", które stanowią liście w naszych przepływach. Ciekawym pomysłem wspomnianym w tym wątku tweetów jest użycie wielu modeli skomponowanych przy użyciu routingu na poziomie tokenów, interesujący pomysł na połączenie możliwości dwóch modeli. Będziesz mógł doświadczyć zapytań odpowiadających w ten sposób na sentient chat w ciągu najbliższych kilku miesięcy. Wiele pomysłów trafia do produkcji dla nas!
Sentient
Sentient19 sie, 01:56
Jak GRID orkiestruje inteligencję? Poprzez routowanie, łączenie i koordynowanie tysięcy modeli, agentów i strumieni danych, GRID skaluje się jak rozproszony mózg. W miarę jak rośnie, jego zbiorowa inteligencja się kumuluje, dostarczając wyniki na poziomie AGI. Oto jak podstawowe algorytmy to umożliwiają 👇
7,24K