Dica quente para quem está a desenvolver IA: Use o Ollama para executar facilmente modelos como o Deepseek-r1 ou o Gemma localmente na sua máquina. Ele faz o download deles e inicia um servidor com uma API compatível com o OpenAI SDK. Os modelos menores são rápidos e bons o suficiente para trabalhar em novas funcionalidades ou depurar streaming sem ter que pagar por pedidos de API.
145,74K