Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Todos maximizando tokens, uma corrida armamentista que ninguém ousa parar
Escrever artigo: Meng Xing
Em 24 de março de 2026, de manhã, eu estava sentado na plateia do Demo Day do YC W26 batch, e ao ouvir a apresentação da quinta empresa, decidi não fazer mais anotações.
Não é que não seja importante, mas percebi que o que eu anotava poderia estar desatualizado no mês seguinte.
Nesta turma, mais de cem empresas, as atividades realizadas são altamente concentradas: cerca de 80% são agentes verticais, como ajudar advogados a organizar documentos, ajudar suporte a distribuir tarefas, ajudar RH a filtrar currículos.
Se tivesse visto esses projetos em outubro do ano passado, provavelmente acharia “bastante inovador”. Mas o problema é que, nesses cinco meses, o mundo mudou.
Claude Code passou de uma ferramenta mais voltada para desenvolvedores, para uma interface que quase qualquer pessoa pode usar diretamente. Com o lançamento do Opus 4.6, toda a vibe de codificação teve sua barreira derrubada ao chão.
Aqueles agentes verticais, antes de formarem uma barreira de negócios, hoje, um engenheiro comum, ou até eu mesmo, consegue fazer em um fim de semana, eles já perderam seu valor de investimento.
O ciclo de uma turma do YC é de três meses, e essa leva, que entrou em dezembro, mais a triagem inicial, equivale a “boas empresas” selecionadas há cinco meses. E cinco meses, na velocidade de iteração da IA atual, já são suficientes para várias rodadas de mudança de paradigma.
Em 2012, quando criei minha primeira startup e recebi o convite para o Fly Out do YC (entrevista presencial), o YC era quase uma entidade única no acelerador, e as empresas selecionadas geralmente representavam “a próxima direção”. Mas o cenário de competição mudou, e nos últimos anos o YC parece ter se tornado um indicador atrasado (lagging indicator).
O sistema de batch do YC, que envolve inscrição, triagem, entrada, refinamento e apresentação, funcionou muito bem na era da internet móvel. Mas esse ritmo foi desenhado para um mundo mais lento.
Voltando ao setor de venture capital neste ano e meio, quase a cada trimestre eu visito o Vale do Silício, a última foi em outubro do ano passado. Antes, cada visita parecia rápida, mas essa “rapidez” era percebida mensalmente.
Desta vez, é por “semana”.
Certa noite, durante o jantar, um amigo que trabalha com pós-treinamento (post-training) comentou casualmente:
“Percebi que o próprio Vale do Silício já não consegue mais acompanhar a velocidade de si mesmo.”
Token-maxxing por todos: uma corrida armamentista que ninguém ousa parar
Se alguém me dissesse há meio ano que os milhares de engenheiros do Meta estavam usando produtos concorrentes para programar, eu acharia que era brincadeira.
Mas isso é verdade. Todo o Meta, todo mundo usando Claude Code. Não é uma startup, não é uma equipe experimental, é uma empresa avaliada em trilhões de dólares.
A segurança do código foi deixada de lado, o orçamento de tokens explodiu, as tabelas de classificação estão fervendo, todo o Vale do Silício está gastando sem limites em IA. Mas o que acontece depois?
Primeiro, segurança do código. Há meio ano, isso era impensável, pois o código é o ativo mais importante da empresa. Como permitir que uma API de fora toque nele? O Meta pensou nisso inicialmente, criou algo chamado myclaw para tentar resolver. Um amigo do Meta me contou que eles desenvolveram um produto de codificação, mas “não era bom, ninguém usou”. Sem uso, tiveram que relaxar: desde que não envolvesse dados de clientes, podia usar Claude Code à vontade.
Depois, começaram reuniões internas sobre “como se tornar uma organização nativa de IA”, treinamentos, avaliações. Segurança do código, segurança de uso, essas linhas vermelhas que antes eram óbvias, foram colocadas de lado, primeiro acelerando a eficiência.
Por motivos de segurança, o Google proibiu a maioria dos funcionários de usar Claude Code ou Codex, mas a DeepMind foi uma exceção, com equipes responsáveis pelo modelo Gemini e aplicações internas usando Claude Code.
O Google também não ficou parado: lançou uma ferramenta interna de codificação, Antigravity, e em fevereiro deste ano anunciou que cerca de 50% do código novo da empresa já era gerado por IA.
Mas mesmo assim, os times da DeepMind continuam usando Claude Code. Uma razão importante é que a Anthropic fez uma implantação privada para eles, pois a inferência e o treinamento do modelo da Anthropic rodam na nuvem do Google, com confiança mútua. Mas o Meta e outros gigantes tecnológicos não têm essa relação, realmente deixaram a segurança do código de lado. Todos apostam na mesma coisa: acelerar o ritmo.
Segurança do código é a primeira bandeira que caiu, a segunda é o orçamento de tokens.
Em algumas startups nativas de IA em Palo Alto, um engenheiro tem um orçamento de tokens anual de cerca de 20 mil dólares. Esse número não é surpreendente, o que é surpreendente é que o custo de IA de um engenheiro top já se aproxima do seu salário. Parece que as empresas usam IA para economizar na demissão, mas o custo total pode não ter caído, apenas trocado o custo humano pelo de tokens.
O Meta é o mais extremo nisso. Criaram uma tabela de classificação interna de consumo de tokens: quem usa mais, sobe na lista, e os últimos podem ser demitidos, então os funcionários até criaram um título não oficial: “token legend”.
Ao mesmo tempo, o Meta realizou duas rodadas de demissões este ano, totalizando mais de dez mil pessoas. De um lado, todos usando Claude Code para aumentar o consumo de tokens; de outro, uma grande quantidade de demissões.
Essas duas coisas não se contradizem, são duas faces da mesma moeda.
Fui visitar uma startup de Série C, o responsável técnico me mostrou o Slack, cheio de agentes rodando, dezenas de agentes Cursor em paralelo, e outro janela de Claude Code gerenciando tarefas. A ansiedade mais comum entre programadores agora é: antes de dormir, se não souber o que meus agentes vão fazer, fico nervoso.
Mas a produtividade realmente aumentou 100 vezes? Desde o fim do ano passado, muitos CTOs de motores de raciocínio e bancos de dados me contam animados: “Engenheiro cem vezes mais eficiente”, “dez vezes mais produtivo”. Antes, 60 pessoas levavam um ano para fazer o que agora, com duas pessoas e Claude Code, uma semana basta.
Comecei a ficar empolgado com isso, mas depois me acalmei e perguntei: se a eficiência aumentou 100 vezes, a receita da empresa também aumentou na mesma proporção? Ou a expansão do produto também? Não dá para esperar “100 vezes” de melhora e ainda assim reduzir o número de funcionários?
Não obtive uma resposta clara. A verdade é que, na prática, um aumento de 100 vezes na eficiência, na receita, representa só 50% ou uma vez o crescimento.
Onde está a diferença? Ainda ninguém consegue explicar com clareza.
“Usar tantos tokens deveria transformar a empresa em uma nova espécie. Mas qual exatamente, eu não sei.”
Um fundador com experiência em vendas B2B me contou que sua equipe de 16 pessoas, com dois vendedores, conseguiu em 12 meses chegar a 30 milhões de dólares em ARR, tudo graças à codificação por IA. Casos assim aparecem de vez em quando, mas na maioria das vezes vejo startups criando mais coisas, embora sem product-market fit.
Hoje, na Silicon Valley, é popular usar vibe coding para experimentar 100 abordagens diferentes, tentando descobrir qual funciona. Mas quem consegue pegar a próxima tendência? Ainda é difícil dizer.
Um exemplo contrário que me impressionou veio de dentro da Anthropic. Perguntei a um amigo lá: qual é o cenário mais difícil de usar agentes para vocês? Ele respondeu: “oncall” (resposta instantânea).
Um cenário típico de oncall é: se a API do Claude ficar mais lenta, ou um nó de inferência travar, ou um prompt gerar saída anormal, o engenheiro de plantão precisa identificar rapidamente a causa, seja bug no código, problema de alocação de recursos ou anomalia no modelo, e decidir como corrigir.
A própria Anthropic é a melhor do mundo em criar agentes de codificação, esse cenário é bem próximo de sua capacidade central, mas seus agentes internos de oncall ainda são ruins.
Essa é a situação real em abril de 2026: a máquina a vapor já foi inventada, mas às vezes ela ainda não é mais rápida que uma carroça. O importante é que todos sabem que a máquina a vapor vai ficar mais rápida, então estão gastando loucamente: segurança do código, orçamento de tokens, tabelas de classificação. Mas quando a máquina a vapor realmente vai superar a carroça? Ninguém sabe, e ninguém ousa parar e esperar esse dia.
Pois o custo de parar pode ser maior do que gastar tokens errados.
Além disso, o consumo de tokens provavelmente não cresce de forma linear. Isso me lembra minha experiência com direção autônoma: em 2021, em Xangai, conseguimos por primeira vez dirigir por 5 horas seguidas sem intervenção. Antes, a frota de testes era de 10, 15, 20 carros, crescendo lentamente; depois daquele ponto, rapidamente chegou a 100, 1000. Os agentes de codificação de hoje estão em fase semelhante.
Em 2021, em Xangai, a autonomia de Didi atingiu 5 horas contínuas sem intervenção, um marco na condução autônoma doméstica. Uma foto mostra o então COO da Didi Autonomous, Meng Xing, conversando com Sebastian Thrun, “pai do carro autônomo” do Google, em 2021.
O METR, uma instituição de pesquisa na Califórnia que avalia a capacidade de codificação de IA, propôs um índice: quanto tempo um agente de IA consegue completar tarefas com 50% de sucesso (com base no tempo de um especialista humano). Em março de 2025, esse número era 50 minutos com Claude 3.7 Sonnet; no final de 2025, com Claude Opus 4.6, já era 14,5 horas. Nos últimos dois anos, o ciclo de duplicação desse índice foi de 7 para 4 meses. Quando a confiabilidade do agente subir mais um nível, o consumo de tokens deixará de crescer 50% ao ano e passará a um salto de uma ordem de grandeza de uma só vez.
Há uma previsão consensual entre amigos: até o final deste ano, muitas empresas (incluindo grandes de tecnologia) precisarão de apenas 20% do pessoal.
Após o colapso do time de xAI, os construtores de foguetes começaram a construir modelos
Em um restaurante em Mountain View, por volta das 21h, um amigo que trabalhou com Musk por muito tempo sentou-se à minha frente. Conversamos por mais de três horas, e ao relembrar, percebi que ele quase não falou bem de Musk.
Um detalhe: perguntei a ele como era a rotina na xAI, após três anos. Ele disse que basicamente morava na empresa, sem muita mobília em casa, nem cama comprou. Dormia em um sleeping pod, tipo um quarto de hotel jovem. Comentei que, mesmo com ações valiosas, já saiu, e que pelo menos poderia comprar uma cama. Ele sorriu.
A carga de trabalho na xAI é famosa em Silicon Valley, mas agora, a equipe inicial já se foi em 90%. Eles têm um grupo de saída, e estão sempre adicionando gente.
O gatilho foi a demissão de Tony Wu, que desencadeou uma reação em cadeia. Segundo uma fonte interna, “outras empresas podem precisar de meio ano para que uma equipe de executivos saia, na xAI, leva um mês”. Alguns já perceberam a insatisfação de Musk em outubro passado, mas não esperavam uma limpeza tão rápida.
Agora Musk está trazendo pessoas da SpaceX e Tesla para assumir a xAI, “os que fazem foguetes agora fazem modelos”.
A insatisfação de Musk vem do fato de que, apesar de investir bilhões em energia e recursos computacionais, o Grok ainda não entrou na linha de frente. Por quê? Essa é uma pergunta que todo ex-xAI me faz. A resposta é mais simples do que parece: a equipe é muito forte, trabalha demais, mas a gestão de manufatura, talvez, não sirva para grandes modelos.
Tenho oito anos de experiência em direção autônoma e tenho minhas próprias impressões. Musk, ao criar SpaceX e Tesla, trabalha com engenharia de sistemas: uma cadeia longa envolvendo software, hardware, cadeia de suprimentos, cada uma com espaço para inovação, mas no final, é um problema de engenharia ponta a ponta.
Ele é bom em identificar pontos-chave na cadeia, e acelerar ao máximo o tempo para resolver. Motores de foguete em cascata, reutilização de aterrissagem, são frutos dessa lógica.
Na xAI, ele não está fazendo engenharia de sistemas. Está fazendo três coisas: primeiro, investiu em um enorme cluster de GPUs (hoje, dizem que a xAI virou uma nuvem neo, fornecendo poder de cálculo para o Cursor); segundo, estabeleceu prazos pulsantes para a equipe; terceiro, fez alguns ajustes de produto pessoalmente. Isso é focar em alguns pontos, não um planejamento completo.
Quem trabalha com direção autônoma sabe que, na fase final, a liderança entre software, infraestrutura e hardware vira um conflito central. Cada área precisa de decisões de nível CTO, mas ninguém domina todas. A melhor prática é que o fundador, mesmo sem entender tudo, saiba equilibrar recursos e prioridades, priorizando software agora, infraestrutura depois. Isso é ter uma visão global.
O problema da xAI é que não há esse planejamento global, só correria. Se a pressão fosse menor, engenheiros inteligentes poderiam se autoajudar, e com tempo, cada área encontraria seu ritmo de colaboração. Mas a gestão de alta pressão de Musk, sem uma visão global adequada, faz tudo desmoronar. Cada responsável defende sua prioridade, ninguém coordena.
SpaceX e Tesla tiveram sucesso porque, nesses setores, Musk quase não enfrentou concorrentes de igual nível; ele competia contra si mesmo. Mas IA é diferente: é uma competição feroz, até com OpenAI, com risco de Anthropic roubar a liderança.
Um cofundador da xAI disse no ano passado que duas coisas o surpreenderam: primeiro, a brutalidade da competição; segundo, a escassez de oportunidades de inovação na aplicação de IA, que já estão sendo consumidas pelos modelos.
A ascensão da Anthropic foi a reversão mais dramática na indústria de IA no último ano. Mudou completamente o foco: um ano atrás, a disputa era por usuários de consumo e geração de vídeos; agora, o campo de batalha é toB e codificação.
Claro, a história da xAI também é sobre “dinheiro vindo rápido demais”.
Hoje, quem sai da xAI provavelmente não se arrepende: ela foi a startup mais rápida a criar riqueza em Silicon Valley. De uma rodada de dezenas de bilhões de dólares, até a fusão com a SpaceX, tornando-se uma gigante de 2,5 trilhões de dólares, em apenas um ano. E seus 9 cofundadores, quase todos bilionários, com engenheiros principais entre dezenas de milhões e um bilhão de dólares. O dinheiro em Silicon Valley é realmente demais. Se eles começarem uma nova startup, terão recursos para seguir suas paixões, não só para ganhar dinheiro rápido.
Engenheiros ansiosos, pesquisadores ainda mais ansiosos
Conversando com engenheiros, há uma estranha sintonia: todos admitem que quase não programam mais, mas fingem que não é grande coisa, porque sabem que serão armados com IA e acabarão com aqueles que ainda não se adaptaram.
Hoje, 80% das habilidades essenciais de um engenheiro de software já são substituídas por modelos, e a única razão para ainda manterem o trabalho é que os modelos às vezes cometem erros, e alguém precisa ficar de olho. Mas essa “vigília” pode também desaparecer em breve.
Mais radicalmente, a ideia de “organizações nativas de IA” soa sexy — fazer mapeamento de fluxo de trabalho, digitalizar tarefas passíveis de IA, transformar em skills. Mas, na essência, é uma espécie de auto-espremedura: transformar sua capacidade em skills de máquina, a empresa adquire seus skills, e isso já é uma forma de IA. Se isso leva a demissões, é uma questão ética. Hoje, o Meta está fazendo isso.
Embora todos estejam focados em token-maxxing, há uma sensação de ansiedade subjacente em toda a Silicon Valley.
E o que me surpreende ainda mais é que essa ansiedade está se espalhando para o grupo de pesquisadores.
Researcher é o topo da pirâmide de talentos, não apenas “pesquisador”, mas aquele que trabalha na criação de modelos, inovação de algoritmos em grandes empresas de IA (OpenAI, Anthropic, DeepMind). Eles diferem dos engenheiros: engenheiros constroem, escrevem código, implantam, otimizam; pesquisadores pensam “o que criar”: propõem novos métodos de treinamento, desenham arquiteturas, conduzem experimentos.
Agora, até o trabalho de researcher está sendo automatizado. É o que colegas da DeepMind estão fazendo — usar modelos para treinar modelos, uma tendência de auto-evolução de IA que virou febre neste ano. O que antes eliminava engenheiros, até o final do ano, começará a substituir pesquisadores também.
Isso não é novidade. Andrej Karpathy iniciou com pesquisa automática, e hoje há várias ferramentas de cientistas de IA e frameworks de harness que caminham nessa direção. Mas, na maioria, o ciclo se limita a “publicar artigos”: IA ajuda a rodar experimentos e escrever papers, mas a decisão final ainda é humana.
Grandes empresas como OpenAI, Anthropic e Google querem ir além: querem que o ciclo seja direto na atualização do modelo, não só melhorias pontuais, mas que a IA encontre por si mesma uma nova fronteira de paradigma. Se conseguirem, será uma verdadeira substituição de pesquisadores. A DeepMind, há mais de um ano, já faz isso internamente: o modelo decide que experimento fazer, avalia os resultados e segue o melhor caminho, treinando sua próxima geração.
E o researcher tem mais motivo para medo de demissão, porque é caro. Um researcher globalmente ganha milhões de dólares por ano, às vezes dezenas de milhões ou até bilhões.
“Provavelmente, no futuro, 10 pessoas farão o trabalho de 100, ganhando 20% do salário, e 90 ficarão desempregadas.”
E as demissões reais são maiores do que parecem. Muitas primeiras demissões não aparecem nos relatórios financeiros, mas na terceirização: empresas de outsourcing na Índia e Filipinas, que atendem suporte ao cliente, anotação de dados, back-office, podem ser as primeiras a sofrer. Países que dependem de serviços para evoluir economicamente podem estar sendo substituídos por IA.
Todo o Vale do Silício está de olho na Meta: se ela conseguir manter receita e eficiência, outras grandes empresas seguirão rapidamente, e as demissões se tornarão uma norma. E há um mecanismo de autoaceleração: no começo, ninguém quer demitir por medo de afetar o moral; depois, demitir vira rotina, e fica cada vez mais fácil.
Por outro lado, novas posições também surgem.
Muitas startups estão criando um novo papel chamado “AI builder” — que combina gerente de produto, engenheiro front-end e back-end. Há também posições híbridas de cientista de dados e engenheiro de ML, e profissionais que unem escrita, publicidade e operação de conteúdo.
As empresas de Silicon Valley têm uma demanda enorme por esses novos papéis, mas o maior desafio é: ninguém sabe como recrutá-los. Você não consegue filtrar pelo currículo, porque esses papéis não existiam antes, e as habilidades estão escondidas nos projetos pessoais. Testar na prática também é difícil, pois o core é “estética + uso de IA”. Algumas startups já estão criando ambientes simulados para que candidatos usem IA em entrevistas, algo como testes de programação, mas para uma nova era.
Quando a IA fizer tudo, o valor humano mudará de “o que fazer” para “o que vale a pena fazer” ou “o que não fazer”.
Duas avaliações de valuation por rodada: Nvidia em cada mesa de jogo
Falando de pessoas que foram substituídas — engenheiros, pesquisadores, profissionais financeiros — há uma figura que não foi substituída, mas que se torna cada vez mais uma espécie de chefe oculto nesta mudança.
Esse mundo de inovação distribuída é, na verdade, altamente centralizado.
E esse centro é a Nvidia.
Achava que a escassez de chips tinha diminuído no último ano. De fato, houve uma melhora, mas agora percebo que a escassez voltou, e de forma ainda mais absurda.
Um sinal concreto: se você consegue fornecer uma API estável, como a do Claude, com 99% de estabilidade, pode cobrar duas a três vezes o preço oficial.
Após a demanda explosiva da Anthropic, interrupções na API aumentaram, o que é um problema para muitos produtos baseados em Claude.
Antes, o negócio de roteamento (router) era “mais barato que o oficial, então tinha fluxo”. Agora, a estabilidade virou recurso escasso. Startups estão lucrando com isso, e surgem várias “mini Coreweave / Nebius” na Silicon Valley.
E o gargalo de computação não é só GPU. Elad Gil escreveu recentemente um artigo que compartilho: a capacidade de fabricantes de memória (Hynix, Samsung, Micron) leva pelo menos dois anos para expandir. Isso significa que, até 2028, nenhuma IA conseguirá se diferenciar significativamente apenas com mais hardware. A limitação física reforça a concentração de mercado em grandes modelos — não por falta de esforço, mas por ciclos de produção lentos.
A estrutura de poder é clara: quem tem chips, manda. Quem tem chips, depende da Nvidia. Empresas listadas como CoreWeave, Lambda, Nebius, estão apoiadas por ela.
A Nvidia tem uma estratégia mais profunda do que eu imaginava. Os investidores da Reflection me disseram que, quando a startup começou, era focada em codificação, mas o fundador foi visitar Huang Renxun, que disse: “Pare de fazer codificação, venha fazer o ‘DeepSeek dos EUA’, crie modelos de código aberto nos EUA, eu te financio e te dou chips.” Assim, a Reflection mudou completamente de direção.
O mercado de capitais nos EUA também mudou: em uma mesma rodada, há duas avaliações diferentes. Investidores mais cedo, com bom relacionamento, entram na avaliação baixa; a Nvidia, que tem recursos, e investidores mais tardios, entram na avaliação alta. Essa estrutura já começa a aparecer no Brasil também.
Mas, por mais que a Nvidia queira controlar a distribuição, ela não consegue controlar o que ainda não existe.
A sociedade americana está protestando contra centros de dados. Nos EUA, cerca de 100 projetos de data centers enfrentam resistência, 40 já foram abortados. O estado do Maine aprovou uma lei que proíbe novos centros de dados. Uma cidade aprovou um projeto de 6 bilhões de dólares, e metade dos membros foi removida por votação, com novos eleitos para cancelar a decisão.
A escassez de capacidade de computação não é por falta de produto ou de usuários, mas por uma limitação física: o mundo real não acompanha a velocidade do digital.
Esse é outro nível de “não conseguir acompanhar”.
A avaliação de valor das empresas em Silicon Valley está sendo reescrita
Vamos começar com um número.
O PIB dos EUA é cerca de 30 trilhões de dólares. A receita anual de OpenAI e Anthropic é de aproximadamente 30 bilhões de dólares cada, ou seja, cada uma já representa 0,1% do PIB americano. Se chegarem a 100 bilhões até o final do ano, somando serviços em nuvem e outras receitas de IA, a IA representará cerca de 1% do PIB dos EUA. De quase zero para 1%, em poucos anos.
Essa velocidade é sem precedentes. Mas o estranho é que, quanto mais rápido cresce, mais os investidores ficam sem saber como precificar — a estrutura de valuation de Silicon Valley está desmoronando.
Conversei várias vezes com amigos do mercado secundário, e uma palavra que sempre aparece é “re-rationalization” (re-racionalização).
Nos últimos anos, ao investir em IA, a lógica de valuation era baseada no fluxo de caixa futuro: você não se importa de perder dinheiro agora, aposta que em três ou cinco anos o ARR será alto. Mas essa estrutura está com problemas.
O problema está no modelo de valuation mais básico, o DCF (discounted cash flow). Para fazer DCF, você projeta o fluxo de caixa dos próximos 10 anos, e soma um valor terminal, assumindo que a empresa continuará estável. Normalmente, o valor terminal representa 70-80% do valuation.
Mas agora, duas coisas mudaram: primeiro, você só consegue prever até 3 anos, às vezes 1, porque o setor muda demais; segundo, o valor terminal não faz mais sentido, pois pressupõe estabilidade, e com IA, essa estabilidade pode ser destruída a qualquer momento.
Um amigo que investe em secundário fez uma analogia: empresas fora do principal caminho de IA hoje são como esperar uma “bomba nuclear”, você sabe que ela vai explodir, só não sabe quando. Então, o foco da avaliação não deve ser “o que acontece se não for derrubada”, mas “a velocidade de resposta se for”. É uma lógica de valuation completamente diferente.
SaaS foi o primeiro setor a ser reprecificado por Wall Street. Snowflake, em 2023, precisava de quase 100 anos de fluxo de caixa livre para se recuperar, hoje seu valor caiu pela metade. ServiceNow, Workday, seguem a mesma tendência — isso é só o começo.
Na verdade, só as maiores empresas de modelos de IA podem ser avaliadas por DCF, pois parecem ter uma trajetória de crescimento estável, sem risco de “explosão”. Elas olham até onde podem chegar.
Antes, startups diziam “salário baixo, mas com opções, o valor será grande no futuro”. Mas, se essa premissa não vale mais, a reação mais racional dos funcionários será: “não quero opções, quero salário em dinheiro agora”.
Isso muda a estrutura de custos e o financiamento das empresas.
Os fundos de venture capital também estão sofrendo. Nos últimos 3 a 6 meses, quase todos os fundos de Silicon Valley investiram em pelo menos uma neo lab, muitas delas com pesquisadores de laboratórios renomados, recebendo bilhões de dólares. Mas agora, todos acham que foi um pouco impulsivo, caro demais. Então, por que ainda investiram? Porque, se a startup realmente der certo, o crescimento será tão rápido que o valuation parecerá barato.
Um investidor me disse de forma direta: “Ou vai de zero a 100, ou de zero a zero. Em vez de investir em uma rodada A cara, com risco de ganhar pouco, prefiro apostar em uma neo lab com potencial infinito.”
Antes, todo mundo achava que 1 dólar de ARR valia 1 dólar, independentemente de ser modelo, aplicação ou infraestrutura. Mas esse conceito foi quebrado.
Agentes verticais têm múltiplos baixos (cerca de 5x ARR), agentes gerais, mais altos (10x), e modelos de IA, os mais caros (20-30x ARR, como Anthropic com 30 bilhões de dólares de ARR e avaliação de 800 bilhões, 26,7x). Um ano atrás, eu achava que multiplicar ARR por um valor único era suficiente para valuation, mas hoje, essa fórmula está completamente errada.
Árvore de laranjeiras e a lista de assassinatos de IA
Silicon Valley está passando por uma crise profunda de segurança.
Nessa viagem, ouvi repetidamente amigos discutindo seriamente: comprar Bitcoin, construir bunkers, instalar vidros à prova de balas — tudo com tom sério, sem brincadeira.
Recentemente, a moda na Valley é plantar árvores de laranja espinhentas, com espinhos de 4 polegadas, que punem qualquer um que tente invadir.
O Wall Street Journal até reportou uma “fortaleza de luxo” de 15 milhões de dólares: vasos de concreto com árvores de laranja, uma vala, sistema de detecção a laser, porta de aço de 3 polegadas com 13 trancas, uma sala de fuga com porta de 2000 libras, tudo com design de defesa.
Empresas que oferecem segurança residencial para CEOs tiveram seu maior crescimento desde 2003. Especialmente após o assassinato do CEO da UNH em Manhattan, essa tendência acelerou.
E, de repente, tiros na casa de um magnata de IA.
Na madrugada de 11 de abril, um jovem de 20 anos, usando moletom Champion, viajou do Texas até a Califórnia, carregando um galão de querosene, e ficou na porta da casa de Sam Altman, avaliada em 27 milhões de dólares, e lançou um coquetel molotov.
Uma hora e meia depois