Apresentando Liquid Nanos ⚛️ — uma nova família de modelos extremamente pequenos e específicos para tarefas que oferecem desempenho de classe GPT-4o enquanto rodam diretamente em telefones, laptops, carros, dispositivos embutidos e GPUs com a menor latência e a mais rápida velocidade de geração. > tamanho do modelo: 350M a 2.6B > construído sobre LFM2, nossa arquitetura de modelo eficiente v2 > desempenho competitivo com modelos até centenas de vezes maiores > possibilitam tarefas centrais de agente: extração precisa de dados, tradução multilíngue, chamada de ferramentas, matemática e RAG. 1/n
Utilizamos uma combinação de métodos para avaliações automatizadas, destilação de conhecimento, RL e fusão de modelos para melhorar iterativamente o desempenho de um modelo em uma tarefa específica. Os modelos resultantes, embora pequenos, apresentam desempenho competitivo em relação a modelos substancialmente maiores. 2/n
Por exemplo, LFM2-350M-Extract e LFM2-1.2B-Extract são projetados para extrair informações importantes de uma ampla variedade de documentos não estruturados (como artigos, transcrições ou relatórios) em saídas estruturadas como JSON, XML ou YAML. Eles são compatíveis com entradas em inglês, árabe, chinês, francês, alemão, japonês, coreano, português e espanhol. Nossos modelos de extração de dados proporcionam um aumento significativo em validade, precisão e fidelidade. Por exemplo, LFM2-1.2B-Extract pode gerar objetos complexos em diferentes idiomas em um nível superior ao Gemma 3 27B, um modelo 22,5 vezes maior e aproximando seu desempenho ao do GPT-4o. 3/n
Anunciamos seis Nanos específicos para tarefas na nossa versão inicial: > LFM2-Extract – Um modelo multilíngue de 350M e 1.2B para extração de dados de texto não estruturado, como transformar e-mails de faturas em objetos JSON. > LFM2‑350M‑ENJP‑MT – Um modelo de 350M para tradução bidirecional entre inglês ↔ japonês. > LFM2‑1.2B‑RAG – Um modelo de 1.2B otimizado para respostas a perguntas em contextos longos em pipelines RAG. > LFM2‑1.2B‑Tool – Um modelo de 1.2B construído para chamadas de função e uso de ferramentas agentes. > LFM2‑350M‑Math – Um modelo de raciocínio de 350M para resolver problemas matemáticos. 4/n
"Acho muito impressionante que a nova técnica de pré-treinamento e pós-treinamento da Liquid permita que seus LLMs rápidos e pequenos tenham um desempenho equivalente a modelos de ponta como o GPT-4o, que é ordens de magnitude maior, em tarefas especializadas," disse Mikhail Parakhin (@MParakhin), CTO da Shopify. "A Liquid está simultaneamente elevando o padrão tanto para desempenho quanto para velocidade em modelos fundamentais, ultrapassando o estado da arte. É por isso que estamos empolgados em utilizar seus modelos nas plataformas e serviços da Shopify." 5/n
“A Deloitte está entusiasmada com a oportunidade de colaborar com a Liquid AI e o seu novo modelo Nanos, que tem o potencial de oferecer um desempenho comparável ao de modelos maiores a um custo mais baixo”, disse Ranjit Bawa (@ronbawa), Diretor de Estratégia e Tecnologia da Deloitte U.S. 6/n
"Os Nanos da Liquid representam um ponto de inflexão poderoso para PCs de IA, oferecendo desempenho de nível de fronteira em uma forma compacta e energeticamente eficiente. Na AMD, compartilhamos esse foco na liderança de desempenho por watt e vemos a inteligência no dispositivo como chave para escalar a IA de forma ampla e sustentável", disse Mark Papermaster (@mpaper2000), CTO e EVP da AMD. 7/n
560,99K