Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
Isso foi tão divertido, Mario. Obrigado por me receber no programa para falar sobre tudo o que está acontecendo no mercado!

Mario Gabriele 🦊22 de jul., 20:22
Nosso último episódio com Tomasz Tunguz está ao vivo!
A década dos dados
@ttunguz passou quase duas décadas transformando dados em insights de investimento. Depois de apoiar Looker, Expensify e Monte Carlo na Redpoint Ventures, ele lançou @Theoryvc em 2022 com uma visão ousada: construir uma "corporação investidora" onde pesquisadores, engenheiros e operadores se sentam ao lado de investidores, criando mapas de mercado em tempo real e ferramentas internas de IA. Seu fundo de estreia fechou em US$ 238 milhões, seguido apenas 19 meses depois por um segundo fundo de US$ 450 milhões. Centrada em dados, IA e infraestrutura de criptomoedas, a Theory opera no centro das mudanças tecnológicas mais importantes da atualidade. Exploramos como os dados estão remodelando o capital de risco, por que os modelos tradicionais de investimento estão sendo interrompidos e o que é necessário para construir uma empresa que não apenas preveja o futuro, mas ajude ativamente a criá-lo.
Ouça agora:
• YouTube:
• Spotify:
•Maçã:
Um grande obrigado aos incríveis patrocinadores que tornam o podcast possível:
✨ Brex — A solução bancária para startups:
✨ Generalist+ — Inteligência essencial para investidores e tecnólogos modernos:
Nós exploramos:
→ Como funciona o modelo de "corporação investidora" da Theory
→ Por que as exchanges de criptomoedas podem criar um caminho viável para os mercados públicos para empresas de software de pequena capitalização
→ A iminente crise de energia - por que os data centers podem consumir 15% da eletricidade dos EUA em cinco anos
→ a rápida ascensão das stablecoins à medida que os principais bancos encaminham de 5 a 10% dos dólares americanos por meio delas
→ Por que o Ethereum enfrenta um desafio existencial semelhante ao AWS perdendo terreno para o Azure na era da IA
→ Por que Tomasz acredita que o punhado de agentes de hoje se tornará 100+ colegas de trabalho digitais até o final do ano
→ Por que a Meta está apostando bilhões em óculos AR para mudar a forma como interagimos com as máquinas
→ Como a Theory Ventures usa a IA para acelerar a pesquisa de mercado, a análise de negócios e as decisões de investimento
… E muito mais!
7,64K
A OpenAI recebe em média 1 consulta por americano por dia.
O Google recebe cerca de 4 consultas por americano por dia.
Desde então, 50% das consultas de pesquisa do Google têm visões gerais de IA, o que significa que pelo menos 60% das pesquisas nos EUA agora são IA.
Demorou um pouco mais do que eu esperava para que isso acontecesse. Em 2024, previ que 50% da pesquisa do consumidor seria habilitada para IA. (
Mas a IA chegou à pesquisa.
Se os padrões de pesquisa do Google são uma indicação, há uma lei de potência no comportamento de pesquisa. A análise da SparkToro do comportamento de pesquisa do Google mostra que o terço superior dos americanos que pesquisam executa mais de 80% de todas as pesquisas - o que significa que o uso da IA provavelmente não é distribuído uniformemente - como no futuro.
Sites e empresas estão começando a sentir os impactos disso. O artigo do The Economist "A IA está matando a web. Alguma coisa pode salvá-lo?" captura o zeitgeist em uma manchete. (
A grande maioria dos americanos agora pesquisa com IA. Os efeitos de segunda ordem da mudança nos padrões de pesquisa estão chegando no segundo semestre deste ano e mais estarão perguntando: "O que aconteceu com o meu tráfego?" (
A IA é um novo canal de distribuição e aqueles que a aproveitarem ganharão participação de mercado.
- William Gibson viu muito mais longe no futuro!
- Isso é baseado em uma análise de ponto médio do gráfico SparkToro, é uma análise muito simples e tem algum erro como resultado.

8,54K
Ao trabalhar com IA, paro antes de digitar qualquer coisa na caixa para me fazer uma pergunta: o que espero da IA?
2x2 para o resgate! Em qual caixa estou?
Em um eixo, quanto contexto eu forneço: não muito ou um pouco. Por outro lado, se devo observar a IA ou deixá-la rodar.
Se eu fornecer muito pouca informação e deixar o sistema funcionar: 'pesquise as tendências do Forward Deployed Engineer', obtenho resultados descartáveis: visões gerais amplas sem detalhes relevantes.
Executar o mesmo projeto com uma série de perguntas curtas produz uma conversa iterativa que é bem-sucedida - uma Exploração.
"Quais empresas implementaram Forward Deployed Engineers (FDEs)? Quais são os antecedentes típicos dos FDEs? Que tipos de estruturas contratuais e negócios se prestam a esse trabalho?"
Quando tenho uma tolerância muito baixa para erros, forneço um contexto extenso e trabalho iterativamente com a IA. Para postagens de blog ou análises financeiras, compartilho tudo (rascunhos atuais, escritos anteriores, requisitos detalhados) e prossigo frase por frase.
Permitir que um agente funcione livremente requer definir tudo antecipadamente. Raramente tenho sucesso aqui porque o trabalho inicial exige uma tremenda clareza - objetivos exatos, informações abrangentes e listas de tarefas detalhadas com critérios de validação - um esboço.
Esses prompts acabam se parecendo com os documentos de requisitos do produto que escrevi como gerente de produto.
A resposta para 'o que eu espero?' ficará mais fácil à medida que os sistemas de IA acessarem mais informações e melhorarem na seleção de dados relevantes. À medida que fico melhor em articular o que realmente quero, a colaboração melhora.
Meu objetivo é mover muito mais das minhas perguntas do balde superior esquerdo - como fui treinado com a pesquisa do Google - para os outros três quadrantes.
Também espero que esse hábito me ajude a trabalhar melhor com as pessoas.

2,88K
Essa pequena caixa preta no meio é o código de aprendizado de máquina.
Lembro-me de ler o artigo Hidden Technical Debt in ML do Google de 2015 e pensar em quão pouco de um aplicativo de aprendizado de máquina era aprendizado de máquina real.
A grande maioria era infraestrutura, gerenciamento de dados e complexidade operacional.
Com o surgimento da IA, parecia que grandes modelos de linguagem incluiriam essas caixas. A promessa era simplicidade: coloque um LLM e veja-o lidar com tudo, desde o atendimento ao cliente até a geração de código. Chega de pipelines complexos ou integrações frágeis.
Mas, na construção de aplicativos internos, observamos uma dinâmica semelhante com a IA.
Os agentes precisam de muito contexto, como um humano: como o CRM é estruturado, o que inserimos em cada campo - mas a entrada é cara no modelo de IA Hungry, Hungry.
Reduzir custos significa escrever software determinístico para substituir o raciocínio da IA.
Por exemplo, automatizar o gerenciamento de e-mail significa escrever ferramentas para criar tarefas da Asana e atualizar o CRM.
À medida que o número de ferramentas aumenta além de dez ou quinze ferramentas, a chamada de ferramentas não funciona mais. É hora de criar um modelo clássico de aprendizado de máquina para selecionar ferramentas.
Depois, há observar o sistema com observabilidade, avaliar se ele é eficiente e rotear para o modelo certo. Além disso, há toda uma categoria de software para garantir que a IA faça o que deveria.
As proteções evitam respostas inadequadas. A limitação de taxa impede que os custos saiam do controle quando um sistema fica descontrolado.
A recuperação de informações (RAG - geração aumentada de recuperação) é essencial para qualquer sistema de produção. No meu aplicativo de e-mail, uso um banco de dados vetorial do LanceDB para encontrar todos os e-mails de um remetente específico e corresponder ao seu tom.
Existem outras técnicas para o gerenciamento do conhecimento em torno de grafos RAG e bancos de dados vetoriais especializados.
Mais recentemente, a memória tornou-se muito mais importante. As interfaces de linha de comando para ferramentas de IA salvam o histórico de conversas como arquivos markdown.
Quando publico gráficos, quero a legenda da Theory Ventures no canto inferior direito, uma fonte, cores e estilos específicos. Eles agora são salvos em arquivos .gemini ou .claude em uma série de diretórios em cascata.
A simplicidade original de grandes modelos de linguagem foi subsumida pela complexidade de produção de nível empresarial.
Isso não é idêntico à geração anterior de sistemas de aprendizado de máquina, mas segue um paralelo claro. O que parecia ser uma simples "caixa mágica de IA" acaba sendo um iceberg, com a maior parte do trabalho de engenharia escondido sob a superfície.


3,63K
Se 2025 é o ano dos agentes, então 2026 certamente pertencerá aos gerentes de agentes.
Os gerentes de agentes são pessoas que podem gerenciar equipes de agentes de IA. Quantos uma pessoa pode gerenciar com sucesso?
Eu mal consigo gerenciar 4 agentes de IA ao mesmo tempo. Eles pedem esclarecimentos, pedem permissão, fazem pesquisas na web - tudo exigindo minha atenção. Às vezes, uma tarefa leva 30 segundos. Outras vezes, 30 minutos. Perco a noção de qual agente está fazendo o quê e metade do trabalho é jogado fora porque eles interpretam mal as instruções.
Este não é um problema de habilidade. É um problema de ferramentas.
Os robôs físicos oferecem pistas sobre a produtividade do gerente de robôs. O MIT publicou uma análise em 2020 que sugeriu que o robô médio substituiu 3,3 empregos humanos. Em 2024, a Amazon relatou que os robôs pickpack e ship substituíram 24 trabalhadores.
Mas há uma diferença crítica: a IA não é determinística. Os agentes de IA interpretam as instruções. Eles improvisam. Eles ocasionalmente ignoram totalmente as instruções. Um Roomba só pode sonhar com a liberdade criativa de ignorar sua sala de estar e decidir que a garagem precisa de atenção.
A teoria da gestão geralmente orienta as equipes para um período de controle de 7 pessoas.
Conversando com alguns gerentes de agentes melhores, aprendi que eles usam uma caixa de entrada de agentes, uma ferramenta de gerenciamento de projetos para solicitar trabalho de IA e avaliá-lo. Na engenharia de software, as solicitações pull do Github ou tíquetes lineares servem a esse propósito.
Engenheiros de software de IA muito produtivos gerenciam de 10 a 15 agentes especificando de 10 a 15 tarefas em detalhes, enviando-as para uma IA, esperando até a conclusão e depois revisando o trabalho. Metade do trabalho é jogado fora e reiniciado com um prompt aprimorado.
A caixa de entrada do agente ainda não é popular. Não está amplamente disponível.
Mas suspeito que se tornará uma parte essencial da pilha de produtividade para futuros gerentes de agentes, porque é a única maneira de acompanhar o trabalho que pode chegar a qualquer momento.
Se o ARR por funcionário for a nova métrica de vaidade para startups, os agentes gerenciados por pessoa podem se tornar a métrica de produtividade de vaidade de um trabalhador.
Em 12 meses, quantos agentes você acha que poderia gerenciar? 10? 50? 100? Você poderia gerenciar um agente que gerencia outros agentes?

7,83K
Na última década, o maior item de linha no orçamento de P&D de qualquer startup foi o talento previsível. Mas a IA está abrindo caminho para o P&L.
Quanto uma startup deve gastar em IA como porcentagem de seus gastos com pesquisa e desenvolvimento?
10%? 30%? 60?
Há três fatores a serem considerados. Primeiro, o salário médio de um engenheiro de software no Vale do Silício. O segundo é o custo total da IA usada por esse engenheiro. O Cursor está agora em US $ 200 por mês para o Plano Ultra e as análises do Devin sugerem US $ 500 por mês. Terceiro, o número de agentes que um engenheiro pode gerenciar.
Uma primeira passagem: (primeira imagem)
Mas os custos de assinatura provavelmente são baixos. Nos últimos dias, tenho brincado extensivamente com agentes de codificação de IA e acumulei uma conta de US $ 1.000 no período de cinco dias! 😳😅
Então, vamos atualizar a tabela e assumir mais $ 1000 por mês por engenheiro.
Portanto, para uma startup típica, uma estimativa de 10 a 15% da despesa total de P&D hoje pode ser usada para IA.
As variantes serão muito mais amplas na prática, pois todos aprendemos a usar melhor a IA e ela penetra mais na organização. As empresas menores que são nativas da IA desde o início provavelmente terão índices significativamente mais altos.
Se você estiver interessado em participar de uma pesquisa anônima, publicarei os resultados se o tamanho da amostra for suficientemente grande para ter um resultado estatisticamente significativo.
A pesquisa está aqui:
Este é um modelo grosseiramente simplificado em que estamos apenas revisando salários, não incluindo benefícios, hardware, infraestrutura de desenvolvimento e teste, etc.
Esta é uma estimativa baseada na codificação de vibração de experiência pessoal com desconto.


1,93K
Na última década, o maior item de linha no orçamento de P&D de qualquer startup foi o talento previsível. Mas a IA está abrindo caminho para o P&L.
Quanto uma startup deve gastar em IA como porcentagem de seus gastos com pesquisa e desenvolvimento?
10%? 30%? 60?
Há três fatores a serem considerados. Primeiro, o salário médio de um engenheiro de software no Vale do Silício. O segundo é o custo total da IA usada por esse engenheiro. O Cursor está agora em US $ 200 por mês para o Plano Ultra e as análises do Devin sugerem US $ 500 por mês. Terceiro, o número de agentes que um engenheiro pode gerenciar.
Uma primeira passagem: (primeira imagem)
Mas os custos de assinatura provavelmente são baixos. Nos últimos dias, tenho brincado extensivamente com agentes de codificação de IA e acumulei uma conta de US $ 1.000 no período de cinco dias! 😳😅
Então, vamos atualizar a tabela e assumir mais $ 1000 por mês por engenheiro.
Portanto, para uma startup típica, uma estimativa de 10 a 15% da despesa total de P&D hoje pode ser usada para IA.
As variantes serão muito mais amplas na prática, pois todos aprendemos a usar melhor a IA e ela penetra mais na organização. As empresas menores que são nativas da IA desde o início provavelmente terão índices significativamente mais altos.
Se você estiver interessado em participar de uma pesquisa anônima, publicarei os resultados se o tamanho da amostra for suficientemente grande para ter um resultado estatisticamente significativo.
A pesquisa está aqui:
Este é um modelo grosseiramente simplificado em que estamos apenas revisando salários, não incluindo benefícios, hardware, infraestrutura de desenvolvimento e teste, etc.
Esta é uma estimativa baseada na codificação de vibração de experiência pessoal com desconto.


198
Quando você consulta a IA, ela reúne informações relevantes para responder.
Mas, quanta informação o modelo precisa?
Conversas com os praticantes revelaram a intuição deles: a entrada foi ~ 20x maior que a saída.
Mas meus experimentos com a interface de linha de comando da ferramenta Gemini, que gera estatísticas detalhadas de tokens, revelaram que é muito maior.
300x em média e até 4000x.
Veja por que essa alta relação de entrada e saída é importante para quem constrói com IA:
O gerenciamento de custos tem tudo a ver com a entrada. Com chamadas de API precificadas por token, uma proporção de 300:1 significa que os custos são ditados pelo contexto, não pela resposta. Essa dinâmica de preços é verdadeira em todos os principais modelos.
Na página de preços da OpenAI, os tokens de saída para GPT-4.1 são 4x mais caros que os tokens de entrada. Mas quando a entrada é 300 vezes mais volumosa, os custos de entrada ainda são 98% da conta total.
A latência é uma função do tamanho do contexto. Um fator importante que determina quanto tempo um usuário espera por uma resposta é o tempo que o modelo leva para processar a entrada.
Ele redefine o desafio da engenharia. Essa observação prova que o principal desafio de construir com LLMs não é apenas solicitar. É engenharia de contexto.
A tarefa crítica é construir recuperação de dados e contexto eficientes - criando pipelines que possam encontrar as melhores informações e destilá-las na menor pegada de token possível.
O cache torna-se de missão crítica. Se 99% dos tokens estiverem na entrada, a criação de uma camada de cache robusta para documentos recuperados com frequência ou contextos de consulta comuns passa de um "bom ter" para um requisito de arquitetura central para a construção de um produto econômico e escalável.
Para os desenvolvedores, isso significa que focar na otimização de entrada é uma alavanca crítica para controlar custos, reduzir a latência e, por fim, criar um produto bem-sucedido com inteligência artificial.




4,17K
Ontem, a Figma apresentou seu S-1 lindamente projetado.
Ele revela um negócio de crescimento liderado pelo produto (PLG) com uma trajetória notável. A plataforma de ferramentas de design colaborativo da Figma interrompeu o mercado de design há muito dominado pela Adobe.
Veja como as duas empresas se comparam às principais métricas do ano fiscal mais recente [veja a imagem em anexo]:
O Figma tem cerca de 3% do tamanho da Adobe, mas cresce 4x mais rápido. As margens brutas são idênticas. A retenção líquida de dólares de 132% da Figma é o decil superior.
Os dados também mostram que os gastos com Pesquisa e Desenvolvimento da Figma são quase iguais aos gastos com Vendas e Marketing.
Este é o modelo PLG no seu melhor. O produto da Figma é seu principal mecanismo de marketing. Sua natureza colaborativa promove a adoção viral de baixo para cima, levando a uma eficiência de vendas de 1,0 da categoria. Para cada dólar gasto em vendas e marketing em 2023, a Figma gerou um dólar de novo lucro bruto em 2024. O modelo combinado de baixo para cima e liderado por vendas da Adobe produz um 0,39 mais típico.
O S-1 também destaca os riscos. O mais significativo é a concorrência de produtos de IA. Embora a Figma esteja investindo pesadamente em IA, a tecnologia reduz a barreira para novos participantes. A defesa da Figma é sua plataforma em expansão - com produtos como FigJam, Dev Mode e agora Slides, Sites e Make.
Essas novas categorias de produtos levaram muitas empresas de software PLG AI a dezenas e centenas de milhões em ARR em tempo recorde.
Dado seu alto crescimento e modelo de negócios único, como o mercado deve valorizar a Figma? Podemos usar uma regressão linear baseada em empresas SaaS públicas para prever seu múltiplo de receita futura. O modelo mostra uma correlação modesta entre o crescimento da receita e os múltiplos de avaliação (R² = 0,23).
A Figma, com seu crescimento de 48%, seria a empresa de software de crescimento mais rápido neste grupo, deixando de lado a NVIDIA. Um argumento convincente pode ser feito de que a Figma deve comandar uma avaliação maior do que o previsto. Sua combinação de hipercrescimento, a melhor eficiência de vendas da categoria e uma base de usuários apaixonada e autopropagada é rara.
A aplicação do múltiplo de 19,9x previsto em nosso modelo para estimar a receita futura gera uma avaliação estimada de IPO de aproximadamente US$ 21 bilhões 2 - um prêmio em relação aos US$ 20 bilhões que a Adobe ofereceu pela empresa em 2022.
O S-1 conta a história de uma empresa que definiu a categoria e construiu um produto de design colaborativo, desenvolveu um movimento PLG fenomenal e está avançando ativamente na IA.
A taxa de rescisão de US$ 1,0 bilhão da Adobe foi recebida em dezembro de 2023 e registrada como "Outras receitas, líquidas" no ano fiscal de 2024 (encerrado em 31 de janeiro de 2024). A grande taxa de remuneração baseada em ações de quase US$ 900 milhões está relacionada a uma oferta pública de funcionários em maio de 2024. Ambos são removidos nos dados não-GAAP citados acima.
Tomando a taxa de crescimento de 48,3% da Figma nos últimos doze meses e descontando-a em 15% (para explicar uma desaceleração natural do crescimento), o modelo produz uma estimativa de crescimento futuro de 41,1%. Isso implicaria em receita futura de cerca de US$ 1,1 bilhão.



6,32K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável