Token-maxxing de toda a equipa: uma corrida armamentista de que ninguém ousa parar

Autor: Sócio da Five Sources Capital Meng Xing; Fonte: LatePost

Fizemos uma visita a Silicon Valley e descobrimos que até mesmo os que criam ondas estão quase sendo engolidos por elas.

Na manhã de 24 de março de 2026, sentado na plateia do Demo Day do YC W26, ao ouvir a quinta empresa subir ao palco para apresentar, decidi não fazer mais anotações.

Não porque não fosse importante, mas porque percebi que tudo o que anotasse poderia estar desatualizado no mês seguinte.

Dentre as mais de cem empresas desta turma, as atividades realizadas são na verdade altamente concentradas: cerca de 80% são agentes verticais, como ajudar advogados a organizar documentos, ajudar suporte a distribuir tarefas, ajudar RH a filtrar currículos.

Se tivesse visto esses projetos em outubro do ano passado, provavelmente acharia “bastante inovador”. Mas o problema é que, nesses cinco meses, o mundo mudou.

Claude Code passou de uma ferramenta mais voltada para desenvolvedores a uma interface que quase qualquer pessoa pode usar diretamente. Com o lançamento do Opus 4.6, toda a vibe de codificação teve sua barreira de entrada reduzida ao máximo.

Aqueles agentes verticais, antes protegidos por barreiras de negócio, hoje podem ser feitos por um engenheiro comum, ou até por mim, em um fim de semana. Eles já perderam valor de investimento.

O ciclo de uma turma do YC dura três meses; essa turma entrou em dezembro, e, considerando a triagem inicial, foi selecionada há cerca de cinco meses. Em um ritmo de evolução de IA atual, esse período já é suficiente para várias rodadas de mudança de paradigma.

Quando criei minha primeira startup em 2012, ao receber o convite para uma entrevista presencial do YC, naquela época o YC dominava quase que sozinho o setor de aceleradoras, e as empresas selecionadas geralmente representavam “a próxima direção”. Mas o cenário de competição mudou; nos últimos anos, o YC parece ter se tornado um indicador atrasado, um lagging indicator.

O sistema de turmas do YC, que envolve inscrição, triagem, entrada, aprimoramento e apresentação, funcionou muito bem na era da internet móvel, mas foi projetado para um mundo mais lento.

Neste ano e meio no setor de venture capital, tenho vindo a Silicon Valley aproximadamente a cada trimestre; a última foi em outubro do ano passado. Antes, cada visita parecia rápida, uma sensação de mudança mensal.

Desta vez, tenho que pensar em “semana”.

Certa noite, durante o jantar, um amigo que trabalha com pós-treinamento (post-training) soltou uma frase:

“Percebi que até Silicon Valley começou a não conseguir acompanhar a si mesma.”

Token-maxxing de todos: uma corrida armamentista que ninguém ousa parar

Se alguém me dissesse há seis meses que os milhares de engenheiros do Meta estavam todos usando produtos concorrentes para programar, eu acharia que era brincadeira.

Mas é verdade. O Meta inteiro está usando Claude Code. Não é uma startup, nem uma equipe experimental, mas uma empresa avaliada em trilhões de dólares.

Código não é mais prioridade, o orçamento de tokens explodiu, as tabelas de classificação estão acirradas, todo o Vale do Silício está investindo sem se importar com custos em IA. Mas e depois?

Primeiro, segurança de código. Se fosse há seis meses, isso seria impensável, pois o código é o ativo mais importante da empresa. Como permitir que uma API de outra empresa acesse esse código? O Meta pensou nisso inicialmente, criou uma ferramenta chamada myclaw para tentar resolver. Um amigo do Meta me contou que eles desenvolveram um produto de codificação, mas “não era bom, ninguém usou”. Sem uso, tiveram que relaxar: desde que não envolvesse dados de clientes, podia usar Claude Code à vontade.

Depois, começaram reuniões internas sobre “como transformar a organização em uma IA nativa”, treinamentos, avaliações. Segurança de código, segurança de uso, essas linhas vermelhas que antes eram inquestionáveis, foram colocadas em segundo plano; o objetivo agora é aumentar a eficiência primeiro.

Por motivos de segurança, o Google proibiu a maioria dos funcionários de usar Claude Code ou Codex, seus concorrentes, mas a DeepMind é uma exceção. Alguns times responsáveis pelo modelo Gemini e aplicações internas usam Claude Code.

O Google também tentou, lançou uma ferramenta de codificação interna chamada Antigravity, e em fevereiro deste ano afirmou que cerca de 50% do novo código da empresa já era gerado por IA.

Mesmo assim, os times da DeepMind continuam usando Claude Code. Uma razão importante é que a Anthropic fez uma implantação privada para eles, pois a inferência e o treinamento do modelo da Anthropic rodam na nuvem do Google com TPU, e há uma relação de confiança. Mas o Meta e outros gigantes tecnológicos não têm essa relação; eles realmente colocaram a segurança do código de lado. Todos apostam na mesma coisa: acelerar o ritmo.

Segurança de código é a primeira bandeira a cair, a segunda é o orçamento de tokens.

Em algumas startups nativas de IA em Palo Alto, um engenheiro gasta cerca de 20 mil dólares por ano em tokens. Esse número não é surpreendente, o que impressiona é que o custo de IA de um engenheiro top já se aproxima do seu salário. Parece que as empresas usam IA para economizar na contratação, mas o custo total não diminui; apenas substituem o custo humano pelo de tokens.

O Meta é o mais extremo nisso. Criaram uma tabela de classificação interna de consumo de tokens: quem usa mais, sobe na lista; os de baixo podem ser demitidos, então até existe uma disputa por um título não oficial chamado “token legend”.

Ao mesmo tempo, o Meta realizou duas rodadas de demissões este ano, totalizando mais de dez mil pessoas. De um lado, todos usando Claude Code para aumentar o consumo de tokens; do outro, uma grande quantidade de cortes.

Essas duas ações não se contradizem, são duas faces da mesma moeda.

Fui visitar uma startup de Série C, o responsável técnico me mostrou o Slack cheio de agentes rodando, dezenas de agentes Cursor em paralelo, e um outro janela de Claude Code gerenciando tudo. A ansiedade mais comum entre programadores hoje é: antes de dormir, se não souber o que esses agentes vão fazer, fica nervoso.

Mas a produtividade realmente aumentou 100 vezes? Desde o fim do ano passado, muitos CTOs de empresas de inferência e bancos de dados me contam com entusiasmo: “Engenheiros cem vezes mais eficientes”, “dez vezes mais produtivos”. Antes, 60 pessoas levavam um ano para fazer o que agora, com duas pessoas e Claude Code, uma semana resolve.

No começo, também fiquei empolgado, mas depois me acalmei e comecei a fazer uma pergunta: se a eficiência aumentou 100 vezes, a receita da empresa também aumentou 100 vezes? Ou a expansão do produto também cresceu 100 vezes? Não dá para esperar que uma melhora de “100 vezes” signifique simplesmente eliminar pessoas.

Não obtive uma resposta clara. A verdade é que, na prática, um aumento de 100 vezes na eficiência só se reflete em cerca de 50% ou uma vez na receita da empresa.

Onde está a diferença? Ainda não há uma resposta definitiva.

“Usar tantos tokens deveria transformar a empresa em uma espécie de mutação genética. Mas não sei exatamente em que ela se tornará.”

Um fundador com experiência em vendas B2B me contou que sua equipe de 16 pessoas, com dois vendedores, conseguiu em 12 meses chegar a 30 milhões de dólares em ARR, tudo graças à codificação por IA. Casos assim aparecem de vez em quando. Mas, na maioria das vezes, vejo startups criando mais coisas, mas sem product-market fit.

Silicon Valley agora gosta de experimentar 100 abordagens diferentes com vibe coding, para ver qual funciona, ao invés de testar só 10. Mas quem consegue pegar a próxima tendência? Ainda é difícil dizer.

Um exemplo contrário que me marcou veio de dentro da Anthropic. Perguntei a um amigo da Anthropic qual cenário de uso de agentes eles acham mais difícil. Ele respondeu: “oncall” (resposta instantânea).

A tarefa típica de oncall é: se a API do Claude ficar mais lenta, um modelo falhar, ou um prompt gerar uma saída anômala, o engenheiro de plantão precisa identificar rapidamente a causa, seja um bug, problema de alocação de recursos ou uma anomalia no modelo, e decidir como consertar.

A própria Anthropic é uma das empresas mais fortes em codificação de agentes, esse cenário é bem próximo de sua competência central, mas seu agente de oncall interno ainda é ruim.

Essa é a situação real em abril de 2026: a máquina a vapor já foi inventada, mas às vezes ela ainda não é mais rápida que uma carroça. O mais importante é que todos sabem que a máquina a vapor vai acabar sendo mais rápida, então estão investindo loucamente: segurança de código, orçamento de tokens, tabelas de classificação. Mas ninguém sabe quando a máquina a vapor realmente vai superar a carroça, e ninguém ousa parar para esperar esse dia.

Pois o custo de parar pode ser maior do que gastar tokens errados.

Além disso, o consumo de tokens provavelmente não cresce de forma linear. Isso me lembra minha experiência com direção autônoma: em 2021, em Xangai, conseguimos por primeira vez uma condução autônoma contínua de 5 horas sem intervenção. Antes, a frota de testes era de 10, 15, 20 carros, lentamente aumentando; após esse ponto, rapidamente chegou a 100, 1000. Hoje, os agentes de codificação estão em fase semelhante.

Em 2021, em Xangai, a Uber Didi atingiu uma marca histórica ao realizar uma condução autônoma contínua de 5 horas sem intervenção. Foto: Meng Xing, COO da Didi Autonomous Driving, com Sebastian Thrun, “pai dos carros autônomos” do Google, em 2021.

METR é uma instituição de pesquisa na Califórnia que avalia a capacidade de codificação de IA. No ano passado, propuseram um índice: medir quanto tempo um agente de IA consegue completar tarefas com 50% de sucesso (com base no tempo de um especialista humano). Quando foi lançado em março de 2025, o número do Claude 3.7 Sonnet era 50 minutos; no final de 2025, o Claude Opus 4.6 conseguiu 14,5 horas. Nos últimos dois anos, o ciclo de duplicação desse índice foi reduzido de 7 para 4 meses. Quando a confiabilidade do agente subir mais um degrau, o consumo de tokens deixará de crescer 50% ao ano e passará a aumentar de uma só vez, por um fator de ordem superior.

Uma previsão consensual entre amigos é que, até o final deste ano, muitas empresas (incluindo grandes corporações de tecnologia) precisarão de apenas 20% de sua força de trabalho.

Após o colapso da equipe xAI, os construtores de foguetes começaram a construir modelos

Em um restaurante em Mountain View, por volta das 21h, um amigo que trabalhou com Elon Musk por muito tempo sentou-se em frente a mim. Conversamos por mais de três horas, e, ao refletir depois, percebi que ele praticamente não falou bem de Musk em todo o tempo.

Um detalhe: perguntei a ele como era a rotina na xAI após três anos. Ele respondeu que, na maior parte do tempo, morava na empresa, sem muita mobília em casa, nem mesmo uma cama. Dormia em um sleeping pod, parecido com um albergue. Comentei que, mesmo com uma participação acionária enorme, já tinha saído, e que pelo menos deveria comprar uma cama. Ele riu.

A carga de trabalho na xAI é famosa em Silicon Valley, mas agora cerca de 90% do time já saiu. Eles têm um grupo de ex-funcionários, que está sempre adicionando novos membros.

O gatilho foi a demissão de Tony Wu, que causou uma reação em cadeia. Segundo uma fonte interna, “outros lugares podem precisar de meio ano para que uma equipe de executivos saia, na xAI leva um mês”. Alguns já perceberam a insatisfação de Musk em outubro do ano passado, mas não esperavam uma limpeza tão rápida.

Agora Musk está trazendo pessoas da SpaceX e Tesla para assumir a xAI, dizendo que “os que construíram foguetes agora vão construir modelos”.

A insatisfação de Musk vem do fato de que, apesar de investir bilhões de dólares e usar uma quantidade enorme de recursos computacionais, o Grok ainda não conseguiu chegar ao topo. Por quê? Essa é uma pergunta que todo mundo que trabalha na xAI se faz. A resposta, na minha opinião, é simples: a equipe é extremamente competente e trabalha duro, mas a gestão de uma grande empresa de modelos de linguagem não é compatível com o estilo de gestão de manufatura.

Tenho oito anos de experiência em direção autônoma e tenho minhas próprias impressões. Musk, ao criar SpaceX e Tesla, trabalha essencialmente com engenharia de sistemas: uma cadeia longa envolvendo software, hardware, cadeia de suprimentos, cada uma com espaço para inovação, mas no final, é uma questão de engenharia ponta a ponta.

Ele é bom em identificar pontos-chave na cadeia e comprimir ao máximo o tempo para resolver problemas. Motores de foguete em cascata, reutilização de componentes, tudo isso vem dessa lógica.

Mas na xAI, ele não está fazendo engenharia de sistemas. Está fazendo três coisas: primeiro, investindo em um dos maiores clusters de GPU do mundo (hoje, dizem que a xAI virou uma nuvem neo, fornecendo poder de computação para o Cursor); segundo, estabelecendo prazos de entrega pulsantes; terceiro, personalizando alguns recursos do produto. Isso é focar em alguns pontos, não fazer um planejamento completo.

Quem trabalha com direção autônoma sabe que, na fase final, a liderança entre equipes de software, infraestrutura e hardware vira um conflito central. Cada área precisa de um CTO para decidir, mas ninguém domina todas as áreas ao mesmo tempo. A melhor prática é que o fundador, mesmo sem entender tudo, saiba equilibrar recursos e definir prioridades por fases: software primeiro, depois infraestrutura. Isso é ter uma visão global.

O problema na xAI é que não há esse planejamento global, só correria. Se a pressão fosse menor, engenheiros inteligentes poderiam se autoajudar, e, com tempo, cada equipe encontraria seu ritmo de colaboração. Mas a gestão de alta pressão de Musk, sem uma visão geral adequada, faz tudo desmoronar. Cada responsável tenta defender suas prioridades, sem uma coordenação geral.

O sucesso da SpaceX e da Tesla tem um motivo pouco mencionado: nesses setores, Musk quase não enfrentou concorrentes de igual porte; ele compete consigo mesmo. Mas IA é diferente. É uma competição feroz, onde até a OpenAI pode ser roubada pela Anthropic.

Um cofundador da xAI disse no ano passado que duas coisas o surpreenderam: primeiro, a brutalidade da competição; segundo, a escassez de oportunidades de inovação na aplicação de IA, que estão sendo consumidas pelos próprios modelos.

A ascensão da Anthropic foi a reversão mais dramática na indústria de IA no último ano. E mudou completamente o foco: um ano atrás, a disputa era por usuários de consumo e geração de vídeos; agora, o campo de batalha decisivo é B2B e codificação.

Claro, a história da xAI também é uma narrativa de “dinheiro vindo rápido e em grande quantidade”.

Hoje, quem sai da xAI não se arrepende de ter entrado. A xAI é uma das maiores histórias de riqueza rápida em Silicon Valley. De uma rodada de dezenas de bilhões de dólares, até a fusão com a SpaceX, tornando-se uma gigante de 250 bilhões de dólares, tudo em um ano. E seus 9 cofundadores, quase todos bilionários, com engenheiros principais acumulando dezenas de milhões a bilhões de dólares. O dinheiro em Silicon Valley é realmente demais. Se eles voltarem a empreender, terão recursos suficientes para seguir suas paixões, ao invés de buscar ganhos rápidos.

Engenheiros ansiosos, pesquisadores ainda mais

Conversar com engenheiros hoje revela uma estranha sintonia: todos admitem que quase não programam mais, mas fingem que isso não é um problema, pois serão armados com IA e acabarão eliminando os engenheiros que ainda não se digitalizaram.

Hoje, 80% das habilidades essenciais de um engenheiro de software já podem ser substituídas por modelos, e o motivo de ainda manterem seus empregos é que os modelos às vezes cometem erros bobos, que precisam de supervisão. Mas essa supervisão pode também desaparecer em breve.

Mais radicalmente, a ideia de “organizações nativas de IA” soa muito sexy — fazer cada departamento mapear seus fluxos de trabalho, digitalizar as partes que podem ser automatizadas, transformar em skills. Mas, na essência, é uma espécie de auto-ditadura: transformar suas capacidades em skills de máquina, que a empresa então adquire, completando sua transformação em uma organização IA. Se isso leva a cortes de pessoal, é uma questão ética. Hoje, a Meta já faz isso.

Embora todos estejam focados em maximizar tokens, há uma sensação de ansiedade subjacente que permeia Silicon Valley.

E, para minha surpresa, essa ansiedade está se espalhando também entre pesquisadores.

Researcher é o talento mais elitizado, não se trata de “pesquisadores genéricos”, mas daqueles que trabalham na criação de modelos, inovação de algoritmos em grandes empresas de IA (OpenAI, Anthropic, DeepMind). Sua diferença para engenheiros é: engenheiros constroem, escrevem código, implantam, otimizam; pesquisadores pensam no que criar, propõem novas metodologias, arquiteturas, conduzem experimentos.

E agora, até o trabalho de pesquisadores está sendo automatizado. É o que os colegas da DeepMind estão fazendo — usar modelos para treinar outros modelos, uma das maiores tendências de IA autossupervisionada deste ano. Hoje, a maioria dessas operações é “fechada” até a publicação de artigos — IA ajuda a rodar experimentos, escrever papers, mas a decisão final ainda é humana.

Grandes empresas como OpenAI, Anthropic e Google querem ir além: desejam um ciclo fechado que leve à atualização do próprio modelo, não só melhorias pontuais, mas uma autossuperação de paradigma. Se conseguirem, estarão realmente substituindo pesquisadores. A DeepMind já faz isso há mais de um ano, deixando o modelo decidir quais experimentos fazer, avaliar os resultados e seguir o melhor caminho — uma espécie de IA treinando sua próxima geração.

E os pesquisadores têm mais motivos para medo: são caros. Um pesquisador globalmente pode ganhar milhões ou dezenas de milhões de dólares por ano.

“Provavelmente, no futuro, 10 pessoas farão o trabalho de 100, ganhando 20% do salário, enquanto 90 ficarão desempregadas.”

E as demissões podem ser ainda maiores do que parecem. Muitas empresas cortam primeiro os fornecedores terceirizados, como suporte ao cliente, anotação de dados, back-office. Isso significa que países como Índia e Filipinas, que antes atendiam a suporte ocidental, podem ser os primeiros a sofrer. A “escada do setor de serviços”, que impulsionou o crescimento econômico de muitos países em desenvolvimento, pode estar sendo desmontada pelo AI.

Todo o Vale do Silício está de olho na Meta: se ela conseguir manter receita e eficiência, outros grandes players vão seguir o exemplo, e os cortes de pessoal se tornarão uma norma. E há um efeito de autoaceleração: quanto mais se corta, mais rápido se corta, e menos se sente a dor.

Por outro lado, novos empregos também surgem.

Muitas startups estão criando uma nova função chamada “AI builder” — que combina gerente de produto, engenheiro front-end e back-end. Há também posições híbridas de cientista de dados e engenheiro de ML, além de profissionais que unem criação de conteúdo, publicidade e operações.

A demanda por esses novos papéis é alta, mas o grande desafio é: ninguém sabe exatamente como recrutá-los. Não dá para filtrar pelo currículo, pois esses papéis não existiam antes, e as habilidades podem estar escondidas em projetos pessoais; também não dá para testar com código ao vivo, pois a capacidade central é “estética + uso de IA”. Algumas startups já estão automatizando esse processo: geram ambientes simulados de acordo com a demanda do empregador, e os candidatos fazem tarefas usando IA em tempo real. É como um teste de programação, mas para uma habilidade totalmente nova.

Quando IA consegue fazer tudo, o valor humano passa a estar na capacidade de julgar “o que vale a pena fazer” e “o que não vale”.

Duas avaliações, uma por rodada de financiamento: Nvidia aposta tudo

Falando de pessoas substituídas — engenheiros, pesquisadores, profissionais financeiros — há uma figura que, ao contrário, se torna cada vez mais uma espécie de chefe oculto nesta reorganização.

Esse mundo de inovação descentralizada, na verdade, é altamente centralizado.

E esse centro é a Nvidia.

Achava que a escassez de chips tinha diminuído no último ano. De fato, houve uma melhora em meados de 2025, quando algumas empresas apoiadas pela Nvidia, as neo clouds (novos provedores de GPU em ascensão na onda de IA), tiveram dificuldades de financiamento, crescimento lento ou até venderam negócios. Mas, ao visitar novamente, percebo que a escassez voltou, e de forma ainda mais absurda.

Um sinal concreto: se você consegue fornecer um API estável, como o Claude, com 99% de estabilidade, pode cobrar duas a três vezes o preço oficial.

Após o aumento da demanda pela Anthropic, interrupções na API estão mais frequentes, o que prejudica produtos de agentes baseados no Claude.

Antes, fazer roteamento de serviços era “mais barato que o oficial, então tinha fluxo”. Agora, a estabilidade virou recurso escasso. Algumas startups estão lucrando bastante com isso, e no Vale do Silício surgem várias “mini Coreweave / Nebius”.

E o gargalo de computação não é só de GPU. Elad Gil escreveu recentemente um artigo que compartilho: a capacidade de produção de memória dos fornecedores upstream (Hynix, Samsung, Micron) leva pelo menos dois anos para se expandir. Isso significa que, até 2028, nenhuma IA conseguirá se diferenciar significativamente apenas pelo aumento de hardware. A limitação de capacidade reforça a concentração de mercado em poucos grandes modelos — não é falta de esforço, é o ciclo de produção físico que é lento.

A estrutura de poder é clara: quem tem GPU, manda. Quem tem GPU, depende da Nvidia. Empresas listadas como CoreWeave, Lambda, Nebius, estão todas apoiadas pela Nvidia.

A estratégia da Nvidia é mais profunda do que imaginei. Investidores da Reflection me disseram que essa neo lab começou focada em codificação, mas o fundador foi visitar Jensen Huang, que disse: “Pare de fazer codificação, vá fazer o ‘DeepSeek americano’, crie um modelo de código aberto americano, que eu financio e te forneço GPU.” Assim, a Reflection virou uma empresa de transformação radical.

No mercado financeiro americano, surgiram estruturas pouco comuns: na mesma rodada, há duas avaliações diferentes. Investidores mais próximos e mais cedo entram com uma avaliação baixa; a Nvidia, que tem recursos, e outros investidores mais tardios, entram com avaliação alta. Essa estrutura já começa a aparecer também no Brasil.

Por mais que a Nvidia tente controlar a distribuição, ela não consegue controlar o que não existe.

A resistência contra data centers nos EUA está crescendo. Hoje, cerca de 100 projetos de data centers enfrentam obstáculos, 40 deles podem ser cancelados. O estado do Maine aprovou uma lei que proíbe novos data centers. Uma cidade aprovou um projeto de 6 bilhões de dólares, mas metade dos membros foi removida por votação, e os novos membros têm como única missão cancelar a decisão.

A escassez de capacidade não é por falta de produto ou de clientes, mas porque o mundo físico não acompanha a velocidade do digital.

É outro nível de “não conseguir acompanhar”.

O sistema de avaliação de valor do Vale do Silício está sendo reescrito

Vamos começar com um número.

O PIB dos EUA é cerca de 30 trilhões de dólares. A receita anual do OpenAI e da Anthropic está na casa de 30 bilhões de dólares cada, ou seja, cada uma representa 0,1% do PIB americano. Se, até o final do ano, ambas atingirem 100 bilhões de dólares, somando com serviços de nuvem e outras receitas de IA, a IA representará cerca de 1% do PIB dos EUA. De quase zero para 1% em poucos anos.

Essa velocidade é inédita. Mas o estranho é que, quanto mais rápido cresce, mais os investidores ficam sem saber como precificar — a estrutura de avaliação do Vale do Silício está desmoronando diante desse crescimento acelerado.

Conversei com alguns amigos do mercado secundário, e um termo que aparece frequentemente é “re-rationalization” (re-racionalização das avaliações).

Nos últimos anos, ao investir em IA, a lógica era olhar para o fluxo de caixa futuro: você pode perder dinheiro hoje, desde que aposte que, em três ou cinco anos, sua receita recorrente (ARR) será alta. Mas esse modelo está com problemas.

O problema está no modelo de fluxo de caixa descontado (DCF). Normalmente, prevê-se o fluxo de 10 anos, e depois calcula-se um valor terminal, assumindo que a empresa continuará operando de forma estável, e esse valor representa 70-80% do valuation. Agora, duas mudanças: primeiro, só é possível prever até 3 anos, às vezes 1, pois o que acontecerá depois é imprevisível; segundo, o valor terminal não faz mais sentido, pois a premissa de estabilidade não se sustenta — a IA pode mudar tudo a qualquer momento, e “estabilidade” virou uma hipótese inválida.

Um amigo que trabalha com investimentos secundários fez uma analogia: empresas fora do caminho principal da IA hoje são como esperar uma “bomba nuclear”: você sabe que ela vai explodir, só não sabe quando. Então, o foco da avaliação deve ser na velocidade de resposta ao impacto, não na previsão de estabilidade futura. Essa é uma lógica de avaliação completamente diferente.

SaaS foi o primeiro setor a ser reprecificado pela Wall Street. Snowflake, em 2023, precisava de quase 100 anos de fluxo de caixa livre para se pagar; hoje, seu valor foi cortado pela metade. ServiceNow, Workday, seguem a mesma tendência — isso é só o começo.

Na prática, só as maiores empresas de modelos de linguagem podem ser avaliadas por DCF, pois suas perspectivas de crescimento parecem mais estáveis. Elas não serão “explodidas”, e o limite de crescimento é mais previsível.

Antes, startups diziam: “Salário baixo, mas com opções, que podem valer muito no futuro”. Mas essa premissa só vale se a empresa existir e valer algo em 15 ou 20 anos. Se não, a reação mais racional do funcionário será: “Não quero mais opções, quero dinheiro agora”.

Isso muda a estrutura de custos e o financiamento das empresas.

Os fundos de venture capital também estão sofrendo. Nos últimos 3 a 6 meses, quase todos os fundos de Silicon Valley investiram em pelo menos uma neo lab, muitas delas fundadas por pesquisadores de laboratórios renomados, com bilhões de dólares de financiamento. Mas agora, todos acham que foi um pouco impulsivo, caro demais. Então, por que ainda investiram? Porque, se a startup realmente entregar resultados, o crescimento será tão rápido que parecerá barato na avaliação inicial.

Um investidor disse de forma direta: “Ou vai de zero a 100, ou de zero a zero. Melhor apostar em uma neo lab com potencial ilimitado do que em uma rodada cara de A, tentando ganhar dinheiro com o esforço.”

Antes, acreditava-se que 1 dólar de ARR valia 1 dólar de avaliação, independentemente de ser um modelo, uma aplicação ou infraestrutura. Agora, essa equivalência foi quebrada.

Para agentes verticais, o múltiplo é em torno de 5; para agentes generalistas, cerca de 10; para modelos, entre 20 e 30 vezes o ARR (por exemplo, Anthropic com 30 bilhões de dólares de ARR e avaliação de 800 bilhões, 26,7 vezes). Um ano atrás, achava que usar um múltiplo único para todas as avaliações fazia sentido, mas hoje essa lógica está errada.

Laranja amarga e a lista negra da IA

Silicon Valley vive uma crise profunda de segurança.

Nessa viagem, ouvi repetidamente amigos discutindo algo sério: comprar bitcoins, construir bunkers, instalar vidros à prova de balas em casa — tudo com tom sério, não brincadeira.

Recentemente, uma tendência é plantar árvores de laranja amarga, cujos galhos têm espinhos de 4 polegadas, que punem qualquer um que tente invadir.

O Wall Street Journal até reportou uma mansão de 15 milhões de dólares como “fortaleza”: vasos de concreto com árvores de laranja amarga, uma vala, sistemas de detecção a laser, porta de aço de 3 polegadas com 13 trancas, uma sala de fuga com porta de 2000 libras, e até o paisagismo é uma fortaleza.

Empresas que oferecem segurança residencial para CEOs estão crescendo ao maior ritmo desde 2003. Especialmente após o assassinato do CEO da UNH na rua de Manhattan, essa tendência acelerou.

E, de repente, tiros na porta de um magnata da IA.

Na madrugada de 11 de abril, um jovem de 20 anos, usando moletom Champion, viajou do Texas até a Califórnia, carregando um galão de querosene, e colocou fogo na porta da casa de Sam Altman, avaliada em 27 milhões de dólares, jogando gasolina.

Uma hora e meia depois, ele apareceu na sede do OpenAI, quebrou uma janela com uma cadeira e gritou: “Vou queimar tudo aqui, matar todo mundo dentro.”

A polícia federal encontrou um documento com ele intitulado “Seu último aviso”, listando nomes e endereços de CEOs e investidores de IA.

Duas noites depois, na madrugada de domingo, a casa de Altman foi novamente atacada: um carro Honda parou na porta, um passageiro apontou uma arma e atirou, depois fugiu.

Não foi um incidente isolado. No final de março, houve uma grande manifestação contra IA no centro de São Francisco, com cartazes como “Pare a Corrida de IA” e “Não Construa Skynet”, em frente aos escritórios da Anthropic, OpenAI e xAI. O senador Bernie Sanders alertou no Congresso: “A humanidade pode realmente perder o controle do planeta.”

Conversando com amigos da xAI, ouvi que Musk também está muito preocupado com sua própria segurança — é um segredo aberto na comunidade.

O medo por trás disso tudo é simples: se a IA dominar a maior parte da produção, as pessoas deixarão de ser necessárias na economia. Então, o contrato

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar