This website uses cookies

Read our Privacy policy and Terms of use for more information.

A Coatue projeta um salto de 5x na demanda de memória em apenas 5 anos.

Por que importa: o mercado precificou GPU. Ainda não precificou perfeitamente a memória — e, nesse caso, os multiplicadores que sustentam essa curva são exponenciais.

O número. DRAM por usuário de internet saiu de zero a 50 GB ao longo de 20 anos. A projeção da Coatue diz que vai a 250 GB nos próximos 5. Vinte anos de evolução, comprimidos em um quinto do tempo.

A virada de natureza: a memória deixou de ser repositório. Virou substrato da cognição humana.

A curva antiga acompanhou a evolução do conteúdo passivo — fotos, vídeos, backups, históricos. O usuário acumulava arquivos e a memória servia como uma espécie de gaveta digital. O setor respondia sem alarde e se expandia praticamente no ritmo da inflação digital cotidiana. Foram vinte anos em linha quase reta.

A nova curva é qualitativamente diferente. Quando você dispara um chatbot tradicional, o ciclo é simples: a pergunta entra, a resposta sai e, em seguida, o contexto é descartado. Já quando você aciona um agente, o que acontece é outro tipo de processo. Em um único pedido, ele lê arquivos no seu computador, mantém contexto das sessões anteriores, formula um plano em vários passos, aciona ferramentas externas, consulta bases de dados intermediárias e volta com uma resposta consolidada. Cada um desses passos carrega um bloco novo de contexto na memória ativa. O bloco não esvazia ao final do passo: ele persiste, acumula, é reutilizado pelo próximo.

A Coatue chama esse fenômeno de AI ambient. Já está acontecendo no Claude, no ChatGPT com memória persistente, no Cursor mantendo contexto de projeto, em cada agente comercial que sustenta uma conversa de mais de uma rodada.

Os três multiplicadores. O que torna a curva de memória peculiar é que ela é função composta de três vetores que crescem simultaneamente, e que merecem ser analisados isoladamente.

O primeiro é a adoção. Saímos de uma fração da população usando chatbot uma vez por semana para uma fração crescente integrando agentes ao fluxo profissional. A penetração ainda é baixíssima, mesmo entre profissionais de tecnologia. Há ordens de magnitude por percorrer.

O segundo é a profundidade de uso. Quem adota passa a usar muito. Quem entende como pedir bem, pede com mais frequência. Cada usuário ativo gera um número crescente de sessões por dia, com mais arquivos anexados, mais ferramentas conectadas, mais memória persistente entre conversas.

O terceiro é a complexidade do modelo. E aqui está a parte mais subestimada. Cada nova geração dos LLMs pensa por mais tempo, processa mais contexto e raciocina em camadas mais profundas. Os modelos de raciocínio prolongado consomem entre dez e cem vezes mais tokens por resposta do que a geração imediatamente anterior. Cada token é um bloco de memória ativa em uso. A inteligência ficou mais cara em memória, e essa curva não dá sinais de saturar.

Multiplique os três e a equação fica desconfortável. Mais gente, usando mais, com modelos que pensam mais. Não é uma simples soma…

Daqui a 18 meses. Anthropic, OpenAI e Google vêm sinalizando que as capacidades dos modelos de fronteira devem continuar dobrando a cada seis a nove meses. Em 18 meses, os modelos estarão de quatro a oito vezes mais capazes do que os atuais. Não vão consumir quatro a oito vezes mais memória. Vão consumir muito mais. Porque a complexidade cognitiva escala não-linearmente em uso de contexto, seja na paralelização do raciocínio, seja na coordenação multi-agente.

E há ainda os agentes que rodam em segundo plano. Sentinelas monitorando alertas, curadores processando e-mail, compiladores consolidando bases de conhecimento, copilotos cuidando de tarefas enquanto o usuário dorme. Cada um carregando contexto persistente 24 horas por dia. Memória sempre ocupada…

Vejo isso acontecendo na prática. Estou mantendo três Second Brains rodando neste momento — um na Capital Pulse, outro na AirPoint, e mais recentemente um na PulseInvest. Cada um com sua malha própria de agentes, cada agente carregando contexto que não esvazia entre execuções. Sou um único usuário. A base profissional ainda nem começou a migrar.

A pegada de cada usuário de IA, em capacidade de memória, deve crescer mais rápido do que qualquer projeção tradicional capturou — inclusive a da própria Coatue.

O gargalo. As fábricas de memória levam de 3 a 5 anos para entrar em operação. SK Hynix, Samsung e Micron já venderam toda a capacidade de HBM para 2026 e 2027. A demanda corre mais rápido do que a capacidade de expandir. E há um segundo eixo embutido nessa virada que muitas vezes passa despercebido: é a banda de transferência. A HBM, a memória de altíssima densidade que alimenta os datacenters de inteligência artificial, vende velocidade e não só o estoque. A demanda explode em ambos os eixos simultaneamente.

A leitura econômica. O mercado financeiro discute capex de inteligência artificial quase exclusivamente pelo lado da Nvidia. A memória ficou em segundo plano, apesar de ser a outra metade da equação. Coatue, na frase que sintetiza o gráfico: a conversa de infraestrutura de IA tem se concentrado em silício de processamento. Memória é a outra curva digna de observar.

Onde isso aterrissa. Carrego Micron no portfólio internacional do Capital Pulse desde antes desse gráfico circular.

A tese é simples. Se agentes vão substituir parcialmente o uso de aplicações em forma de chatbot, e se a composição de adoção, profundidade e complexidade vai multiplicar a demanda de memória de contexto em escala muito acima do que está embutido nas curvas tradicionais, então a demanda futura no preço atual dos fornecedores de DRAM ainda é conservadora.

Toda vez que uma curva exponencial encontra uma indústria com restrição estrutural de capacidade, o resultado é o mesmo — preços firmes por mais tempo do que o consenso projeta.

A maior parte dos investidores está olhando o topo da pirâmide: modelos, aplicações, agentes. Vale baixar o olhar uma camada e enxergar onde o gargalo silencioso está se formando.

Forte abraço,
João Piccioni

Reply

Avatar

or to participate

Recommended for you