Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lenny Rachitsky
Aconselhamento de produto, crescimento e carreira profundamente pesquisado
Muito empolgante. Agora você pode fazer as coisas mais loucas que o Claude Code pode fazer localmente no seu computador, bem dentro do Claude Desktop. Enorme. Vai desbloquear o poder do Claude Code para muito mais pessoas.
(E muito legal que eles linkaram meu post no CC no anúncio, obrigado equipe @AnthropicAI)


Claude15 horas atrás
Apresentando o Cowork: Claude Code para o restante do seu trabalho.
O Cowork permite que você realize tarefas não técnicas, de forma semelhante a como os desenvolvedores usam o Claude Code.
60
Minhas maiores lições de @Aish_Reganti e @KiritiBadam sobre a construção de produtos de IA corporativa bem-sucedidos:
1. Produtos de IA diferem do software tradicional em dois aspectos fundamentais: são não determinísticos, e você precisa constantemente alternar entre agência e controle. Os processos tradicionais de desenvolvimento de produtos quebram quando seu produto dá respostas diferentes ao mesmo input e pode agir sozinho.
2. O equilíbrio agência vs. controle é a decisão central de design em todo produto de IA. Aish e Kiriti enquadram isso como um espectro: de um lado, a IA age de forma autônoma, com poucas proteções; por outro, o sistema é rigidamente restrito a regras explícitas e portais de pessoa no loop. A maioria dos produtos de IA corporativa bem-sucedidos está em algum lugar intermediário, ajustando o controle dinamicamente com base em pontuações de confiança, contexto e risco.
3. A maioria das falhas de produtos de IA vem de erros de execução, não de limitações do modelo. Aish e Kiriti veem as equipes culparem o LLM subjacente quando o verdadeiro problema é o escopo do produto pouco claro, falta de proteções ou um mau onboarding dos usuários. Um modelo que alucina 5% das vezes ainda pode alimentar um ótimo produto se você projetar a experiência de usuário para mostrar pontuações de confiança, permitir que os usuários verifiquem as saídas e restringir a tarefa. A visão prática: antes de pedir um modelo melhor, audite o design do seu produto, a cobertura de avaliação e os fluxos de usuários. A disciplina de execução supera o desempenho do modelo na maioria dos casos.
4. Seu produto de IA V1 deve resolver um problema estreito e de alto valor com barreiras de proteção apertadas. As equipes falham ao tentar construir um assistente ou agente de uso geral na primeira tentativa. Escolha um fluxo de trabalho, automatize uma tarefa repetitiva ou responda bem a uma categoria de pergunta. O escopo estreito permite que você colete feedback focado, ajuste o modelo mais rápido e prove valor antes de expandir. A amplitude vem depois, depois que você acertou o loop principal.
5. Observabilidade e registro são mais críticos para produtos de IA do que para softwares tradicionais, porque o comportamento da IA é não determinístico e mais difícil de depurar. Você deve registrar não apenas erros, mas também modelar os índices de confiança, características de entrada, correções do usuário e métricas de latência. Quando algo dá errado na produção, esses registros são a única forma de reconstruir o que o modelo viu e por que tomou determinada decisão. Invista em infraestrutura madeireira cedo, antes que você tenha uma crise.
6. Avaliações são necessárias, mas não suficientes. As avaliações ajudam a medir o desempenho do modelo em casos de teste conhecidos, mas não capturam toda a experiência do produto, os casos limites em produção ou a satisfação do usuário. Equipes que dependem exclusivamente de avaliações enviam produtos que têm boa pontuação nos testes, mas fracassam na prática. Combine avaliações com monitoramento contínuo, ciclos de feedback do usuário e ferramentas de observabilidade para detectar o que os testes automatizados deixam passar.
7. A "calibração contínua" substitui os ciclos tradicionais de desenvolvimento iterativo de produtos. Como os modelos de IA se deslocam e as expectativas dos usuários mudam, as equipes precisam medir constantemente o desempenho do mundo real e ajustar prompts, proteções ou versões dos modelos. Aish e Kiriti recomendam instrumentar seu produto para capturar o feedback dos usuários e os resultados dos modelos desde o primeiro dia, e depois revisar esses dados semanalmente. Sem calibração contínua, seu produto de IA vai se degradar silenciosamente, e os usuários vão se desfazer antes que você perceba.
8. Implantação contínua para IA significa enviar atualizações de modelos e mudanças rápidas como código, não intervenções manuais. O software tradicional implanta código; Produtos de IA implementam código, além de pesos de modelos, prompts e lógica de recuperação. Aish e Kiriti defendem tratar prompts e configurações de modelos como artefatos versionados no seu pipeline CI/CD, com testes de regressão automatizados via avaliações. Isso evita o padrão comum de PMs ajustando prompts na interface e quebrando a produção. O lado positivo: você pode iterar o comportamento do modelo com segurança e reverter mudanças ruins instantaneamente.
9. Produtos de IA falham porque as equipes subestimam a importância da qualidade dos dados. Aish e Kiriti veem as equipes correndo para ajustar modelos ou adicionar recursos sem antes auditar se seus dados de treinamento e avaliação realmente refletem o uso real. Lixo entra, lixo sai vale em dobro para IA: se seus dados estiverem obsoletos, tendenciosos ou desalinhados com as necessidades do usuário, nenhuma quantidade de engenharia de prompts ou ajuste de modelo vai te salvar. Comece organizando seu data house.

Lenny Rachitsky12 de jan., 00:59
Por que a maioria dos produtos de IA falha: Lições de 50+ implantações de IA na OpenAI, Google e Amazon
@Aish_Reganti e @KiritiBadam já construíram 50+ produtos de IA corporativa em empresas como @OpenAI, @Google, @Amazon e @Databricks. Com base nessas experiências, eles desenvolveram um pequeno conjunto de melhores práticas para construir e escalar produtos de IA bem-sucedidos. Nosso objetivo com essa conversa é poupar você e sua equipe de muita dor e sofrimento ao construir seus produtos de IA.
Discutimos:
🔸 Duas principais maneiras pelas quais os produtos de IA diferem do software tradicional
🔸 Padrões comuns e anti-padrões ao construir produtos de IA bem-sucedidos
🔸 A estrutura deles para construir produtos de IA de forma iterativa
🔸 Por que as avaliações não são uma cura para tudo
🔸 Por que a obsessão com confiança e confiabilidade do cliente é um fator subestimado para produtos de IA bem-sucedidos
🔸 As habilidades que mais importam para construtores na era da IA
Escute agora 👇
• YouTube:
• Spotify:
• Apple:
Obrigado aos nossos maravilhosos patrocinadores por apoiarem o podcast:
🏆 @merge_api — A maneira mais rápida de enviar integrações 220+:
🏆 @strella_io — A plataforma de pesquisa de clientes alimentada por IA:
🏆 @brexHQ — A solução bancária para startups:
244
Espetacular

I am Ken12 de jan., 01:02
Você já viu uma bolha congelar?
Vivi invernos na Pensilvânia quando criança
Não acredito que nunca vi alguém fazer isso
34
Melhores
Classificação
Favoritos