Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Descobri que estava a desenhar as minhas ferramentas de IA ao contrário.
Aqui está um exemplo. Esta era a minha cadeia de processamento de newsletters: ler e-mails, chamar um processador de newsletters, extrair empresas e, em seguida, adicioná-las ao CRM. Isso envolvia quatro etapas diferentes, custando $3,69 por cada mil newsletters processadas.
Antes: Cadeia de Processamento de Newsletters (primeira imagem)
Depois criei uma ferramenta de newsletter unificada que combinava tudo usando o Google Agent Development Kit, a estrutura do Google para construir ferramentas de agentes de IA de nível de produção: (segunda imagem)
Por que a ferramenta de newsletter unificada é mais complicada?
Inclui múltiplas ações em uma única interface (processar, pesquisar, extrair, validar), implementa gestão de estado que rastreia padrões de uso e armazena resultados em cache, tem limitação de taxa embutida e produz saídas JSON estruturadas com metadados em vez de texto simples.
Mas aqui está a parte contraintuitiva: apesar de ser mais complexa internamente, a ferramenta unificada é mais simples para o LLM usar porque fornece saídas consistentes e estruturadas que são mais fáceis de analisar, mesmo que essas saídas sejam mais longas.
Para entender o impacto, realizamos testes de 30 iterações por cenário de teste. Os resultados mostram o impacto da nova arquitetura: (terceira imagem)
Conseguimos reduzir os tokens em 41% (p=0.01, estatisticamente significativo), o que se traduziu linearmente em economias de custo. A taxa de sucesso melhorou em 8% (p=0.03) e conseguimos acessar o cache 30% das vezes, o que representa mais uma economia de custo.
Enquanto ferramentas individuais produziam respostas mais curtas e "limpas", forçavam o LLM a trabalhar mais para analisar formatos inconsistentes. Saídas estruturadas e abrangentes de ferramentas unificadas permitiram um processamento mais eficiente do LLM, apesar de serem mais longas.
O meu fluxo de trabalho dependia de dezenas de ferramentas Ruby especializadas para e-mail, pesquisa e gestão de tarefas. Cada ferramenta tinha sua própria interface, tratamento de erros e formato de saída. Ao agrupá-las em ferramentas meta, o desempenho final é melhor e há enormes economias de custo. Você pode encontrar a arquitetura completa no GitHub.



Top
Classificação
Favoritos