Tenho acompanhado, desde o fim do ano passado, uma mudança fundamental dentro do mundo da inteligência artificial. Começou ruidosa e incapaz de entregar sua promessa, mas agora se consolidou como uma das viradas estruturais mais importantes dos últimos anos, inclusive com potencial de redesenhar o funcionamento de empresas e da forma de trabalhar, além de dar um novo vetor para o nascimento dos negócios.
Nesse breve caminho, uma cena ficou comigo. Peter Steinberger é um desenvolvedor alemão que passou treze anos construindo um dos apps mais respeitados de leitura de PDFs para iPhone (uma referência do setor). Em um sábado à tarde, por curiosidade, ele pediu a uma inteligência artificial que reescrevesse seu app do zero. Em uma hora, tinha em suas mãos um substituto funcional, capaz de entregar o que treze anos de trabalho haviam entregado.

A cena tem um ar claro de anedota. O caminho está mais fácil para criarmos novos produtos e serviços, mas ainda depende de uma curva de aprendizado que poucos começaram a empilhar. No entanto, ela carrega o resumo visual do que está acontecendo: a inteligência artificial, que antes só respondia perguntas e escrevia textos, ganhou a capacidade de construir produtos inteiros por conta própria — sem a necessidade de um programador no comando linha a linha. É uma virada sutil na superfície, profunda na consequência, e se tornou o pano de fundo desta edição.
A linha do tempo que se acelera
Em fevereiro, o mercado ainda digeria o capex dos hyperscalers para 2026 — algo entre US$ 635 e 665 bilhões, salto de 67% a 74% em relação ao ano anterior. A leitura dominante tratava o número como gasto defensivo: medo dos grandes de ficarem de fora. Escrevi naquela semana que o medo não explicava a grandeza do movimento. O investimento estava sendo desenhado para uma nova classe de usuário, e esse usuário não era humano.
Em março, veio a confirmação numérica. O Gartner publicou a projeção de que 40% das aplicações empresariais terão agentes embarcados até o fim deste ano, contra menos de 5% em 2025. Mais importante que o número foi sua implicação: a curva de uso está sendo puxada por entidades que consomem infraestrutura computacional numa ordem de magnitude superior à humana. Um agente executa em paralelo dezenas de caminhos de raciocínio, consulta bancos de dados, escreve código, testa hipóteses, se corrige. Onde um usuário humano produz uma query (chamado), um agente produz cem.
E foi nesse mesmo intervalo que o Jensen subiu no palco do GTC e narrou, com sua serenidade habitual de engenheiro, a terceira transição da inteligência artificial — da generativa para a reasoning, da reasoning para a agêntica. No mesmo discurso, lançou a frase que ainda não caiu a ficha no mercado: os modelos são uma tecnologia no mesmo registro em que transistores são tecnologia. Algo que se oferece como camada de substrato, sobre a qual outros produtos se constroem.
A configuração da TSMC
É nessa frase que o arco da tese se fecha. E foi a própria TSMC que, na semana passada, entregou o dado de materialização.
No call do primeiro trimestre, a empresa reportou lucro 58% maior em relação ao mesmo período do ano anterior, receita recorde de US$ 35 bilhões e o segmento de high-performance computing — onde mora o silício para AI — respondendo por 61% do faturamento. O CEO C. C. Wei abriu o call com a mesma frase que repete há oito trimestres, carregada de peso: a demanda por AI continua extremamente robusta.
O que mudou foi o que veio depois. Wei descreveu o deslocamento do lado da demanda com uma forma que o mercado ainda não compreendeu: a transição dos modelos generativos para os sistemas agênticos exige ordens de grandeza mais altas de processamento por unidade de tarefa. Cada decisão de um agente processa muito mais dado do que cada pergunta de um humano. A empresa revisou o guidance anual para crescimento superior a 30% em dólar, projetou o segundo trimestre em US$ 39 a 40 bilhões, e elevou o capex de 2026 para sustentar o ritmo.
Por que isso importa tanto? Porque confirma a arquitetura fundamentada por Jensen: os modelos são tecnologia no mesmo registro em que transistores são tecnologia. A TSMC opera um nível abaixo: entrega a capacidade de viabilizar tudo que depende de silício, enquanto iPhones, servidores e placas de rede são os produtos construídos sobre esse substrato. Os modelos possuem exatamente o seguinte papel: uma camada sobre a qual se constroem produtos, e não o produto final em si. Quando uma tecnologia vira substrato, ela se fragmenta em arquiteturas especializadas: GPU para treino, TPU para inferência, processadores dedicados para agentes, aceleradores para classes específicas de workload. Essa fragmentação é a configuração que torna o agente economicamente possível em escala.

É nessa seara que o portfólio nascente da Capital Pulse está sendo organizado. Nas posições privadas, as grandes apostas nos unicórnios que estão escrevendo a fronteira: Anthropic e OpenAI nos modelos, SpaceX — que agora abriga a xAI — na convergência entre infraestrutura espacial e inteligência generativa. Na camada dos mercados de inovação, a Kalshi redesenhando como eventos do mundo real viram preços públicos. No Brasil, um grupo de startups em estágios iniciais, já com valuations acima de R$ 50 milhões, ganhando tração em segmentos onde a assimetria informacional ainda é larga. No mercado público, o mapa do silício e da distribuição: a Nvidia e Broadcom no tecido sobre o qual tudo roda, Quanta Service e Celestica montando a infraestrutura física dos data centers; Credo nas interconexões de alta velocidade que a nova escala exige; Micron no polo da memória; Alphabet como distribuidor natural da nova camada. O valor, ao longo dos próximos anos, se acumula em camadas distintas dessa acumulação de tecnologias.
O que acontece quando se tenta fazer isso na prática
Foi com essa tese de empilhamento em minha cabeça que voei para o Silicon Valley no mês passado. A viagem era, na origem, para ouvir e conectar. Passei alguns dias entre fundadores, investidores e engenheiros que estão construindo a fronteira agêntica. O que me chamou atenção foi a sobriedade do ambiente. A maior parte dos fundadores estava fazendo trabalho de infraestrutura: prompt engineering denso, observabilidade de agentes, orquestração de memória, pipelines de avaliação e design de ferramentas. Engenharia no sentido mais antigo da palavra: a paciência de quem está construindo os alicerces invisíveis de uma nova categoria de produto.
Duas ideias voltaram na mala. A primeira, uma convicção: os agentes saíram da categoria de demo e entraram na categoria de produto — e o produto só é bom quando a tecnologia desaparece por trás do valor que entrega. A segunda, uma urgência: quem está começando agora tem uma janela curta para construir dados proprietários e um canal de distribuição antes que a próxima geração de modelos colapse barreiras de entrada.

A AirPoint nasceu dessa dupla leitura — e ganhou, nos últimos meses, um novo contexto para se desenvolver. A Capital Pulse, que começou como canal editorial, ganhou novos ares e propósito: passou a operar também como um “venture studio” que constrói negócios AI-first e como um alocador de capital em empresas que surfam a mesma onda de inovação. Os três pilares — conteúdo, construção e capital — viraram engrenagens de um mesmo sandbox, em que cada movimento alimenta os outros dois. A AirPoint é o nosso primeiro negócio construído dentro desse sandbox.
A ideia da AirPoint veio de um incômodo comum. Quem viaja minimamente sabe do que estou falando — a aba do buscador de voos aberta num canto, a do programa de pontos em outro, a planilha tentando responder se vale mais usar milhas agora ou guardar para o próximo voo, o grupo de WhatsApp com amigos que dividem hacks e promoções fora de hora. Ninguém consegue otimizar isso tudo na mão. O resultado prático é que a maioria das pessoas acaba escolhendo combinações piores do que as disponíveis, simplesmente porque as melhores estão escondidas atrás de um atrito que ninguém tem tempo de resolver.
Desde dezembro, estamos montando um agente capaz de fazer em minutos o que hoje exige planilha, três abas e uma tarde de paciência. O caminho tem sido mais artesanal do que parece de fora — o System Prompt v0.5 já em rodagem, as conexões com APIs de provedores de passagens e os programas de milhas sendo absorvidos um a um, os bancos de dados proprietários crescendo, capturando padrões de preços, janelas de liberação de pontos, combinações assimétricas entre programas, elasticidade entre dinheiro e milhas. Cada interação do agente com um usuário real alimenta o ciclo seguinte. A base de conhecimento, crescendo, vai se tornando ela mesma o principal diferencial competitivo.
O objetivo é comprimir a assimetria informacional que ainda existe nesse mercado e entregar na mão, para quem gosta de viajar, os hacks que hoje só circulam em comunidades fechadas e canais de nicho. O brasileiro que quer viajar opera num ambiente em que dinheiro, pontos, milhas, status e timing se cruzam em uma matriz que nenhum humano otimiza sozinho. A AirPoint otimiza e traduz. Dentro do estúdio, ela é a primeira forma concreta do que a tese maior vem dizendo no editorial: IA como motor de compressão em mercados complexos e de alto valor informacional.
A mesma tese em três linguagens
A coerência entre o que se escreve, o que se constrói e o que se aloca é o que dá peso a este projeto. O editorial mapeia teses em tempo real. Nosso estúdio desenvolve os negócios que a materializam: a AirPoint é a primeira expressão concreta desse conceito. As posições presentes em nosso portfólio são guardam o mesmo argumento no mercado financeiro, em escala global. Os três pilares conversam entre si, e o que voltou do Silicon Valley começou a entrar na nossa rotina.

Quando a IA vira tijolo, o prêmio migra para quem sabe erguer uma estrutura sobre ela — para a dupla que cruza domínio de contexto com orquestração de agentes. É o mesmo arco que percorri na edição do dia 30 de janeiro, Marc Andreessen, Anthropic e a morte do especialista: como tudo se conecta. Esse casamento exige começar bem antes do consenso chegar.
Em alguma edição das próximas semanas, trarei o que estamos aprendendo com as primeiras conversas da AirPoint com usuários reais…
Forte abraço,
João Piccioni
