Por que isso importa: A IA está acumulando algo sobre cada profissional que a usa — um modelo cada vez mais preciso de como aquela pessoa específica pensa, raciocina e toma decisões. A maioria das empresas não sabe que esse acúmulo existe, não está arquitetando sua construção, e ainda não se perguntou o que acontece com ele quando um funcionário sai.

A cena que vai se repetir

O ano é 2028. Dois analistas trabalham no mesmo ambiente, usam as mesmas ferramentas, acessam os mesmos modelos. O contratado mais recente chegou seis meses atrás com credenciais impecáveis. O outro está na empresa há três anos.

A diferença de produtividade entre eles já não pode ser fechada rapidamente.

Não é porque o analista mais antigo é mais inteligente, nem porque conhece mais o mercado. É porque a IA que ele usa todos os dias acumulou, ao longo de três anos de interação constante, um modelo funcional de como ele pensa. Ela já sabe quais as hipóteses ele tende a subestimar. Conhece o atalho mental que ele usa antes de qualquer análise formal. Entende o ritmo com que ele processa incerteza — quando aprofunda, quando corta. O analista recém-chegado começa do zero. O ponto de partida nunca mais vai ser o mesmo…

Essa cena já está acontecendo, em câmera lenta, em toda empresa que usa ferramentas de IA intensivamente. O que mudará em 2028 é que o gap vai ficar visível o suficiente para ninguém mais conseguir ignorar.

O que Jaya Gupta nomeou

Existe um modelo mental publicado recentemente que organiza esse fenômeno com precisão rara. Jaya Gupta, pesquisadora focada em futuro do trabalho, identificou quatro tipos de estado que se acumulam na relação entre humanos e sistemas de IA.

O primeiro é o estado comportamental — os padrões de uso que a ferramenta aprende: fluxos de trabalho, frequência de consultas, tipos de tarefas delegadas. O segundo é o estado de memória — o histórico explícito de interações, projetos anteriores, preferências documentadas. O terceiro é o estado de contexto organizacional — a compreensão que a IA acumula sobre a empresa, seus processos, sua linguagem interna.

Os três primeiros estados têm uma propriedade em comum: são replicáveis. Com esforço, tempo e documentação, outro profissional pode reconstituí-los.

O quarto não.

O human-AI state é o modelo que a IA constrói sobre como uma pessoa específica pensa. Não o que ela sabe, mas sim como ela raciocina. Os padrões de inferência que ela usa antes de verbalizar qualquer hipótese. As categorias mentais que estruturam sua leitura de qualquer situação nova. A forma como ela resolve ambiguidade, pondera risco, decide quando tem informação suficiente para agir.

Esse estado só se constrói com tempo de uso acumulado. Não existe atalho. Não existe importação. É o único lock-in que cresce enquanto você dorme.

Os “juros compostos” do contexto (o compounding)

A curva de acumulação do human-AI state não é linear — e essa é a parte que a maioria das análises sobre IA no trabalho ainda não capturou.

Nos primeiros meses de uso, o acúmulo é lento. A ferramenta aprende padrões gerais, comete erros previsíveis e precisa de correção frequente. A diferença entre um usuário com três semanas e um com três meses existe, mas é administrável.

A partir de um determinado ponto — por volta do nono ao décimo segundo mês de uso intensivo, dependendo da ferramenta e da pessoa — a curva muda de inclinação. O contexto acumulado começa a gerar retornos crescentes. Cada nova interação é processada sobre uma base que torna o output mais preciso, mais alinhado, mais antecipatório. A ferramenta para de ser uma calculadora que o profissional opera e começa a funcionar como uma extensão do seu processo de raciocínio.

Quem está no décimo oitavo mês de uso intensivo não está seis vezes melhor do que quem está no terceiro. A diferença é estruturalmente maior — e, crucialmente, não pode ser comprimida no tempo. Não existe versão acelerada do “compounding”. A única forma de ter dezoito meses de contexto acumulado é ter passado pelos dezoito meses.

O human-AI state é um ativo que perece se não for construído cedo. E ele está sendo construído agora, com ou sem intenção.

O que as empresas ainda não estão arquitetando

A maioria das empresas que adotou ferramentas de IA no último ano tratou a adoção como um problema de acesso. Disponibilizar a ferramenta, treinar o time para usá-la, medir ganhos de produtividade nas primeiras semanas. O raciocínio implícito é que a ferramenta é a variável e o profissional é constante.

O framework de Gupta inverte essa lógica. A ferramenta, depois de um período de uso intensivo, torna-se parcialmente específica para aquele profissional. O profissional — com o histórico de interações que acumulou — passa a ser a variável que define o valor da ferramenta para a organização.

Isso cria uma série de implicações que pouquíssimas empresas estão endereçando de forma deliberada.

A primeira é de onboarding. Profissionais novos chegam sem contexto acumulado e precisam de um período estruturado de construção — não apenas para aprender a ferramenta, mas para começar a acumular o estado que vai torná-la valiosa. Tratar o onboarding de IA como treinamento de software é um erro de categoria.

A segunda é de retenção. O custo de perder um profissional com alto human-AI state acumulado vai muito além do custo convencional de substituição. Perde-se um ativo que não estava no balanço, que ninguém quantificou, mas que impactava a produtividade de forma composta todos os dias.

A terceira é de arquitetura. Algumas organizações estão, sem perceber, construindo estruturas que fragmentam o acúmulo — trocas frequentes de ferramentas, compartilhamento de contas, ausência de continuidade nas interações. O resultado é que o estado nunca atinge o patamar onde o compounding começa a operar.

As empresas que começarem a arquitetar esse acúmulo de forma deliberada vão ter uma vantagem estrutural que vai ficar cada vez mais difícil de superar.

A pergunta que vai redesenhar contratos

Existe uma questão que paira sobre tudo isso e que ainda não encontrou resposta no mercado: quando um profissional com alto human-AI state acumulado sai da empresa, o que acontece com esse ativo?

A resposta intuitiva é que ele vai com o profissional — afinal, foi construído a partir de como aquela pessoa específica pensa, e esse padrão não muda quando ela atravessa outra porta. Mas a resposta operacional é mais ambígua. O contexto foi construído dentro de ferramentas que a empresa contratou, sobre projetos que a empresa conduziu, com informações que a empresa possui. A questão de propriedade envolve, simultaneamente, direito trabalhista, propriedade intelectual e os termos de serviço das plataformas de IA — três áreas com regulamentação ainda incipiente para esse tipo de ativo.

Nenhuma dessas perguntas tem resposta estabelecida hoje. Os contratos de trabalho atuais não contemplam o human-AI state como categoria. As políticas de propriedade intelectual corporativa foram escritas antes que esse tipo de ativo existisse. E as plataformas de IA estão, elas próprias, ainda definindo o que guardam, o que transferem e o que permanece acessível após o encerramento de um contrato.

Quem começar a fazer essas perguntas agora — no desenho dos contratos, nas políticas de retenção, na arquitetura das ferramentas — vai estar vários ciclos à frente quando o mercado finalmente parar para responder.

O que vem a seguir

O mercado financeiro tem o hábito de precificar ativos que consegue medir e ignorar os que não consegue — até o momento em que a diferença entre quem acumulou e quem não acumulou fica grande demais para ser atribuída a qualquer outra variável.

O human-AI state está nesse intervalo. Está sendo construído agora, em toda empresa com adoção intensiva de IA. Não aparece em nenhum balanço. Não tem linha no cap table. Mas vai aparecer nos resultados — na velocidade de análise, na qualidade das decisões, na distância entre os analistas que cresceram com a ferramenta e os que chegaram depois que ela já tinha aprendido a funcionar sem eles.

O ativo existe. A questão é quem está arquitetando sua construção de forma deliberada — e quem vai descobrir que estava acumulando, ou dilapidando, sem saber.

Forte Abraço,

João Piccioni

Fundador, Capital Pulse

Reply

Avatar

or to participate

Recommended for you