Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ServiceNow wydał Apriel-v1.5-15B-Thinker, model rozumowania o otwartych wagach 15B, który prowadzi naszą kategorię Małych Modeli (<40B parametrów)
💼 Przegląd: Apriel-v1.5-15B-Thinker to gęsty model rozumowania o otwartych wagach z 15 miliardami parametrów. To nie jest pierwszy model wydany przez ServiceNow, ale stanowi znaczny skok w inteligencji osiągnięty w porównaniu do wcześniejszych wydań
🧠 Inteligencja: Model uzyskuje wynik 52 w Indeksie Inteligencji Analizy Sztucznej. To stawia go na równi z DeepSeek R1 0528, który ma znacznie większą architekturę 685B parametrów. Model ServiceNow szczególnie dobrze radzi sobie w ważnych zachowaniach dla agentów przedsiębiorstw, takich jak przestrzeganie instrukcji (62% w IFBench, przed gpt-oss-20B, rozumowanie) oraz konwersacje wieloetapowe i użycie narzędzi (68% w 𝜏²-Bench Telecom, przed gpt-oss-120B, rozumowanie). To czyni go szczególnie odpowiednim do zastosowań agentowych, co prawdopodobnie było celem, biorąc pod uwagę, że ServiceNow działa w przestrzeni agentów przedsiębiorstw
⚙️ Tokeny wyjściowe i obszerność: Model produkuje dużą liczbę tokenów wyjściowych, nawet wśród modeli rozumowania - używając ~110M połączonych tokenów rozumowania i odpowiedzi do ukończenia Indeksu Inteligencji Analizy Sztucznej
🖥️ Dostęp: Żaden dostawca inferencji bezserwerowej jeszcze nie obsługuje modelu, ale jest on już dostępny na Hugging Face do lokalnej inferencji lub samodzielnego wdrożenia. Model został wydany na licencji MIT, wspierającej nieograniczone wykorzystanie komercyjne
ℹ️ Okno kontekstowe: Model ma natywne okno kontekstowe o wielkości 128k tokenów.
Gratulacje dla @ServiceNowRSRCH za ten imponujący wynik!

Apriel-v1.5-15B-Thinker to nowy najbardziej inteligentny otwarty model o małej wadze (<40B parametrów)


Indywidualne wyniki benchmarków. Wszystkie benchmarki zostały przeprowadzone w sposób porównywalny w różnych modelach i niezależnie.

Model generuje dużą liczbę tokenów wyjściowych, nawet wśród innych modeli rozumowania - używając ~110M połączonych tokenów rozumowania i odpowiedzi do ukończenia Indeksu Sztucznej Analizy Inteligencji.

Link do repozytorium 🤗 HuggingFace:
Dalsza analiza na temat Analizy Sztucznej:
61,83K
Najlepsze
Ranking
Ulubione