Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Os prompts do sistema estão ficando desatualizados!
Aqui está uma lição contra-intuitiva da criação de agentes do mundo real:
Escrever prompts de sistema gigantes não melhora o desempenho de um agente; muitas vezes piora as coisas.
Por exemplo, você adiciona uma regra sobre políticas de reembolso. Em seguida, um sobre o tom. Em seguida, outro sobre quando escalar. Em pouco tempo, você tem um manual de instruções de 2.000 palavras.
Mas aqui está o que aprendemos: os LLMs são extremamente ruins em lidar com isso.
Pesquisas recentes também confirmam o que muitos de nós experimentamos. Há uma "Maldição das Instruções". Quanto mais regras você adicionar a um prompt, pior será o desempenho do modelo em seguir qualquer uma delas.
Aqui está uma abordagem melhor: diretrizes contextualmente condicionais.
Em vez de um prompt gigante, divida suas instruções em partes modulares que só são carregadas no LLM quando relevante.
```
agent.create_guideline(
condition="O cliente pergunta sobre reembolsos",
action="Verifique o status do pedido primeiro para ver se é elegível",
ferramentas=[check_order_status],
)
```
Cada diretriz tem duas partes:
- Condição: Quando é carregado?
- Ação: O que o agente deve fazer?
A mágica acontece nos bastidores. Quando uma consulta chega, o sistema avalia quais diretrizes são relevantes para o estado atual da conversa.
...

Melhores
Classificação
Favoritos