Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ServiceNow выпустила Apriel-v1.5-15B-Thinker, модель рассуждений с открытыми весами на 15B, которая возглавляет нашу категорию Малых Моделей (<40B параметров)
💼 Обзор: Apriel-v1.5-15B-Thinker — это плотная модель рассуждений с открытыми весами на 15B параметров. Это не первая модель, выпущенная ServiceNow, но это значительный скачок в интеллекте по сравнению с предыдущими выпусками
🧠 Интеллект: Модель набирает 52 в Индексе Искусственного Анализа Интеллекта. Это ставит её наравне с DeepSeek R1 0528, которая имеет гораздо более крупную архитектуру на 685B параметров. Модель ServiceNow особенно хорошо справляется с важными поведениями для корпоративных агентов, такими как следование инструкциям (62% в IFBench, впереди gpt-oss-20B, рассуждение) и многопользовательские преобразования и использование инструментов (68% в 𝜏²-Bench Telecom, впереди gpt-oss-120B, рассуждение). Это делает её особенно подходящей для агентских случаев использования, что, вероятно, было в центре внимания, учитывая, что ServiceNow активно работает в области корпоративных агентов
⚙️ Выходные токены и многословие: Модель производит большое количество выходных токенов даже среди моделей рассуждений - используя ~110M комбинированных токенов рассуждений и ответов для завершения Индекса Искусственного Анализа Интеллекта
🖥️ Доступ: На данный момент нет серверных провайдеров без серверной инференции, которые обслуживают модель, но она уже доступна на Hugging Face для локальной инференции или самостоятельного развертывания. Модель была выпущена под лицензией MIT, поддерживающей неограниченное коммерческое использование
ℹ️ Контекстное окно: Модель имеет родное контекстное окно на 128k токенов.
Поздравляем @ServiceNowRSRCH с этим впечатляющим результатом!

Apriel-v1.5-15B-Thinker — это новая самая интеллектуальная открытая модель с небольшим количеством параметров (<40B параметров)


Индивидуальные результаты бенчмарков. Все бенчмарки были проведены на равных условиях для всех моделей и независимо.

Модель генерирует большое количество выходных токенов даже среди других моделей рассуждений - используя ~110M комбинированных токенов рассуждений и ответов для завершения Индекса Искусственного Анализа Интеллекта.

Ссылка на 🤗 репозиторий HuggingFace:
Дальнейший анализ по Искусственному Анализу:
62,08K
Топ
Рейтинг
Избранное