Há algumas semanas, finalizei minha participação no último round de captação da Anthropic. Não foi uma decisão fácil de justificar em planilha — não sei porque insistimos em usá-las —, dado que a empresa ainda não tem capital aberto, o retorno é incerto no curto prazo, e a tese exige uma convicção sobre o futuro que vai muito além do que qualquer modelo de DCF consegue capturar. Mas ela não está sozinha no meu portfólio. Ela faz parte de algo maior que tenho construído deliberadamente ao longo dos últimos anos: uma posição em múltiplas camadas do que acredito ser a espinha dorsal tecnológica do próximo ciclo.
No mercado privado: a Anthropic, como laboratório de modelos de fronteira; a xAI, como a aposta mais agressiva na convergência entre inteligência artificial e poder computacional bruto; e a SpaceX, como a plataforma que pode literalmente levar o processamento para além da gravidade terrestre. No mercado público: a Alphabet (Google), que ao mesmo tempo que financia a maior parte dos investimentos do ciclo é também uma das empresas mais bem posicionadas para colher seus frutos via Google Cloud e publicidade turbinada por IA. A Nvidia, o fornecedor de GPUs que ainda não encontrou rival à altura. E dois nomes menos óbvios, mas que considero fundamentais para a tese de infraestrutura: a Celestica e a Quanta Services — sobre as quais voltarei mais adiante.
Quando olho para esse conjunto, não vejo ativos isolados. Vejo uma tese sobre onde o capital mais sofisticado do mundo está sendo alocado — e sobre quais elos da cadeia vão capturar valor de forma mais durável.
E os números confirmam a urgência dessa alocação com uma clareza impressionante.
O maior ciclo de investimento da história corporativa

Nano Banana Pro | Capital Pulse | Reports das companhias
As quatro maiores empresas do mundo — Amazon, Alphabet, Microsoft e Meta — anunciaram que vão gastar, combinadas, entre US$ 635 bilhões e US$ 665 bilhões em novos investimentos ao longo de 2026. Para colocar isso em perspectiva: é uma alta de 67% a 74% sobre os já históricos US$ 381 bilhões gastos em 2025, que por sua vez representaram alta de 52% sobre 2024. Estamos falando de um ciclo de investimento que simplesmente não para de ser revisado para cima — e os analistas de plantão, invariavelmente, ficam para trás. Desde o início de 2025, as estimativas de capex para o ano subiram de US$ 280 bilhões para US$ 405 bilhões, uma revisão positiva de 31% ao longo de doze meses.
Cada empresa tem sua própria lógica, mas todas convergem para o mesmo destino físico: chips, servidores e data centers. A Amazon anunciou US$ 200 bilhões para 2026, com a maior parte indo para AWS. A Alphabet, entre US$ 175 bilhões e US$ 185 bilhões. A Microsoft, numa taxa anualizada que deve alcançar US$ 145 bilhões no seu ano fiscal 2026. A Meta, entre US$ 115 bilhões e US$ 135 bilhões. Adicionando Oracle, OpenAI — que estruturou deals de aproximadamente US$ 1 trilhão com Nvidia, Oracle e Broadcom — e os chamados "neoclouds" emergentes como CoreWeave, Lambda e Nebius, o volume total de capital comprometido neste ciclo ultrapassa facilmente US$ 1,5 trilhão.
O detalhe que mais me chama atenção não é o tamanho absoluto dos números, mas a sua natureza financeira. Segundo o Bank of America, o capex agregado dessas companhias já consome 94% do fluxo de caixa operacional (líquido de dividendos e recompras) em 2025 e 2026. Elas estão, pela primeira vez em muitos anos, migrando para o mercado de dívida para financiar a expansão. A Amazon provavelmente vai registrar fluxo de caixa livre negativo em 2026 — algo inédito para uma empresa no estágio de maturidade em que ela se encontra. A Alphabet emitiu US$ 25 bilhões em bonds em novembro e viu sua dívida de longo prazo quadruplicar em 2025, chegando a US$ 46,5 bilhões. A Meta fez o maior deal investment-grade de bonds corporativos do ano, de US$ 30 bilhões.
Para mim, isso é um sinal claro: o custo de oportunidade de não investir foi calculado como maior do que o custo financeiro de se endividar para fazê-lo. Há uma lógica clara por trás disso: nas plataformas tecnológicas, a posição competitiva se consolida em janelas de tempo estreitas. Quem controlar a infraestrutura de computação do próximo ciclo vai ditar os termos de toda a cadeia acima — dos desenvolvedores de software aos usuários finais. Perder essa janela não significa crescer um pouco menos. Significa correr o risco de se tornar irrelevante.

Nano Banana Pro | Capital Pulse | Reports das companhias
A tensão financeira que o mercado ainda não precificou bem
Há um contra-argumento legítimo a tudo isso, e ele merece ser exposto sem condescendência. Os data centers que estão entrando em operação agora enfrentam uma matemática difícil: carregam aproximadamente US$ 40 bilhões em depreciação anual, enquanto a receita incremental gerada pelo aumento de capacidade está na faixa de US$ 15 a US$ 20 bilhões nos ritmos atuais de adoção. O modelo econômico só fecha — e aqui está o "se" que separa os bulls dos bears — se a demanda por computação escalar de forma não-linear nos próximos dois a três anos (por um acaso você já viu isso acontecer?).
Esse é o ponto de inflexão onde a maioria das análises para. Mas existe uma variável que muda fundamentalmente a equação, e que ainda não está totalmente precificada nas projeções de receita das grandes plataformas: a chegada dos agentes de inteligência artificial na camada produtiva das empresas.
Os agentes mudam a natureza do consumo de computação
Existe uma distinção conceitual que precisa ser compreendida para entender por que os CEOs das maiores empresas de tecnologia do mundo estão destruindo caixa voluntariamente. Ela é simples, mas suas implicações são imensas.
Um usuário humano interagindo com um modelo de linguagem faz, em média, algumas requisições por hora. Ele digita, espera a resposta, lê, pensa, e eventualmente digita de novo. O consumo de computação é episódico, fragmentado, limitado pela velocidade cognitiva e pelos ritmos biológicos de quem está do outro lado da tela.
Um agente autônomo não tem nenhuma dessas limitações. Ele opera em loops contínuos: percebe o ambiente, raciocina sobre o estado atual, executa uma ação, avalia o resultado, e recomeça o ciclo — sem parar, sem dormir, sem fadiga. Cada loop dessas pode envolver dezenas de chamadas a modelos de linguagem, ferramentas externas, APIs e bases de dados. Em uma operação empresarial típica, um único agente pode gerar em um dia o equivalente ao consumo de computação de centenas de usuários humanos interativos.

Nano Banana Pro | Capital Pulse
Agora multiplique isso pela escala que as projeções sugerem. O Gartner estima que 40% das aplicações enterprise vão embutir agentes autônomos até o final de 2026 — contra menos de 5% em 2025. IBM e Salesforce projetam mais de 1 bilhão de agentes ativos no mundo até o fim deste ano. O mercado de agentic AI, avaliado em US$ 4,5 bilhões em 2025, deve alcançar US$ 98 bilhões até 2033, com CAGR de aproximadamente 47%.
O CEO da Meta, Mark Zuckerberg, descreveu sua própria empresa como operando em "compute-starved state" — com escassez de capacidade computacional — mesmo gastando US$ 72 bilhões em capex anual. Não porque a infraestrutura atual seja insuficiente para os usuários humanos de hoje, mas porque os modelos de IA estão consumindo capacidade de processamento para treinar as próximas gerações de agentes ao mesmo tempo em que precisam sustentar a infraestrutura existente. É como tentar construir uma rodovia enquanto o tráfego está fluindo sobre ela.
A analogia mais precisa que encontro para esse momento é a seguinte: a internet dos anos 1990 foi construída para humanos navegarem em suas páginas. Cada clique, cada carregamento, cada transação era iniciado por um ser humano com um propósito consciente. A infraestrutura que está sendo erguida agora é para as máquinas interagirem com máquinas — em escala, velocidade e paralelismo que nenhuma ação humana consegue replicar. O tráfego de dados não vai apenas crescer em volume. Vai mudar de natureza. E isso requer uma base física completamente diferente da que existe hoje.
O que o investidor deve vigiar
Esse cenário cria oportunidades e riscos que vale mapear com clareza. E é aqui que as posições que carrego no mercado público encontram sua lógica de forma mais explícita.
A Nvidia continua sendo o grande beneficiário direto e imediato do ciclo — e é por isso que está na carteira. Mas carrego essa posição com uma consciência clara: a tese de commodity se aproxima. À medida que os próprios hyperscalers avançam em chips proprietários — os TPUs do Google, o Trainium e o Inferentia da Amazon, o MTIA da Meta —, a dependência exclusiva da Nvidia vai diminuindo. A questão estratégica não é se ela vai perder relevância — é quando essa erosão começa a aparecer nos números, e se o mercado vai antecipar ou reagir a essa transição. Por ora, a demanda segue claramente à frente da oferta, e o moat ainda é robusto.
A Alphabet, por sua vez, é a posição que carrega a maior complexidade interna do portfólio. Ela é simultaneamente um dos principais demandantes de infraestrutura — e, portanto, um dos motores do ciclo que estou descrevendo — e um dos principais beneficiários da adoção de IA em escala. O Google Cloud cresceu 29% no último ano reportado, turbinado exatamente pela demanda de clientes enterprise por capacidade computacional. Ao mesmo tempo, o sistema de publicidade do Google está sendo progressivamente aprimorado por modelos de linguagem que melhoram a relevância dos anúncios e, consequentemente, as taxas de conversão. É um composto de duas teses em um único ativo.
As posições em Celestica e Quanta Services, porém, são as que mais gosto de explicar — porque são exatamente onde a maioria dos investidores não olha.
A Celestica é um fabricante contratual de eletrônicos com sede em Toronto que, nos últimos três anos, transformou silenciosamente seu mix de receita em direção a servidores de alta performance e equipamentos de networking para data centers. Não é uma empresa de IA — é a empresa que constrói fisicamente os servidores que as empresas de IA precisam. Seus clientes incluem diretamente os hyperscalers que aparecem nesta newsletter. Quando a Microsoft anuncia US$ 145 bilhões em capex, parte significativa desse dinheiro acaba no balanço da Celestica. A margem operacional vem expandindo consistentemente, e a empresa negocia com um múltiplo ainda razoável para o crescimento que está entregando.
A Quanta Services é ainda mais lateral — e por isso ainda mais interessante. É uma das maiores construtoras de infraestrutura elétrica dos Estados Unidos: linhas de transmissão, subestações, redes de distribuição. À primeira vista, parece um nome de utilities, não de tecnologia. Mas os data centers de IA são os maiores consumidores individuais de energia que já existiram. Um único campus de data center de última geração pode consumir tanto quanto uma cidade de médio porte. E toda essa energia precisa chegar de algum lugar — por cabos, transformadores e subestações construídas por empresas como a Quanta. O gargalo energético do ciclo de IA não é uma metáfora: é um problema de engenharia elétrica, e a Quanta está no centro da sua solução.
Essas duas posições representam o que chamo de "camada de viabilidade física" — os ativos sem os quais a narrativa de IA simplesmente não sai do papel para o mundo real. Enquanto o debate sobre valuations de modelos de linguagem vai e vem, a necessidade de servidores e de energia elétrica é uma certeza muito mais difícil de contestar.
O risco de bolha, por fim, merece calibragem honesta. Ao contrário do episódio dot-com, esses investimentos estão sendo feitos por empresas com balanços sólidos, fluxo de caixa real e modelos de negócio já maduros. A diferença é de natureza: não é capital de risco sendo queimado na esperança de uma receita futura hipotética. É capital gerado por negócios que funcionam — publicidade digital, cloud computing, e-commerce — sendo reinvestido numa aposta sobre o próximo ciclo de plataforma. O risco principal não é de insolvência, mas de ROI abaixo do esperado e de uma eventual reavaliação de múltiplos quando o mercado começar a questionar os retornos com mais precisão.
O modelo SaaS, que dominou a criação de valor em software na última década, pode estar sendo gradualmente suplantado por um novo paradigma: agentes como trabalhadores, não como ferramentas. Você não compra software — você contrata capacidade de execução autônoma, medida em tarefas completadas, não em licenças ativas. Isso muda a curva de adoção, o tamanho do mercado endereçável, e a forma como as plataformas vão monetizar a próxima geração de usuários — que, em grande parte, não serão humanos.

Nano Banana Pro | Capital Pulse
É por isso que quando analiso meu portfólio nesse tema — a Anthropic, a xAI, a SpaceX no mercado privado; a Alphabet, a Nvidia, a Celestica e a Quanta Services no mercado público — não leio cada posição de forma isolada.
Leio como diferentes expressões de uma mesma convicção sobre onde o valor vai se acumular. Alguns ativos estão na camada cognitiva, onde os modelos são treinados e os agentes são orquestrados. Outros estão na camada física, onde os servidores são fabricados e a energia é entregue. A tese não depende de nenhum deles individualmente. Depende do ciclo como um todo — e esse ciclo, pelos números que vimos aqui, está longe de ter atingido seu ponto de maturidade.
Os números de capex que estão sendo anunciados agora são, ao mesmo tempo, a evidência mais concreta de que essa transformação é real e o lembrete mais preciso de que jogos assim não têm linha de chegada — eles têm apenas a próxima rodada.
João Piccioni
Fundador, Capital Pulse
P.S.: Estou construindo a Capital Pulse com o objetivo de elevar a maturidade do investidor brasileiro e conectar o país ao que há de mais avançado no mundo. Se você quer acompanhar essas teses em tempo real, considere se inscrever na newsletter semanal.
