A Nvidia (NVDA) deixou de ser apenas uma fabricante de chips para se tornar a espinha dorsal da nova economia de inteligência artificial. Essa é a leitura central de um relatório do Safra, que descreve a companhia como uma “plataforma de infraestrutura de IA” — e não mais um negócio cíclico de semicondutores —, além de apontá-la como um dos ativos mais mal precificados do mercado global.
A mudança de narrativa está diretamente ligada à forma como a IA vem sendo consumida: menos como um investimento pontual em hardware e mais como um fluxo contínuo de demanda por capacidade computacional. “Assim como uma fábrica tradicional converte matérias-primas em produtos acabados, um data center de IA converte eletricidade em tokens por meio de computação”, escreveram os analistas.
Nesse contexto, a Nvidia negocia hoje a cerca de 24 vezes o lucro estimado para o próximo ano fiscal — abaixo da mediana de pares de tecnologia e semicondutores — ao mesmo tempo em que deve gerar cerca de US$ 1,67 trilhão em caixa operacional nos próximos cinco anos. Desse total, a expectativa é que aproximadamente 20% do valor de mercado atual (US$ 5,2 trilhões) seja devolvido aos acionistas via recompras e dividendos.
O preço-alvo estabelecido é de US$ 300 por ação, frente aos cerca de US$ 213 atuais, o que implica um potencial de valorização próximo de 40%.
A ‘fábrica de tokens’ e a nova lógica da IA
Para os analistas do Safra, os data centers de IA funcionam como fábricas: em vez de produzir bens físicos, convertem energia em tokens — a unidade básica da inteligência artificial. Nesse modelo, a eficiência dos chips — medida em tokens por watt — se torna o principal motor econômico. Cada nova geração de GPU aumenta a eficiência dessa “fábrica”, reduzindo o custo por token e criando um incentivo econômico poderoso para upgrades anuais — o que transforma receita cíclica em receita recorrente, diferente da indústria de semicondutores.
Os ganhos são expressivos. O sistema mais recente da companhia entrega até 50 vezes mais tokens por megawatt que a geração anterior, enquanto a energia necessária por token caiu cerca de 100 mil vezes na última década.
Em vez de reduzir a demanda, essa eficiência a expande. Com custos mais baixos, novas aplicações se tornam viáveis — especialmente com o avanço do agente de IA, que multiplica o uso de computação ao executar tarefas inteiras de forma autônoma. “A eficiência está expandindo o mercado endereçável, não canibalizando a demanda”, apontaram os analistas.
O dado que muda tudo
O ponto mais contundente do relatório está no chamado “agente de IA”. Diferente de chatbots tradicionais, esses sistemas executam tarefas completas de forma autônoma, encadeando múltiplas etapas, decisões e interações. O impacto disso na demanda por computação é exponencial. “Uma interação com um agente de IA pode consumir até 1.000.000 vezes mais poder computacional do que uma consulta tradicional”, escreveram.
A lógica é cumulativa. Uma consulta simples consome uma unidade de computação. Modelos de raciocínio — que “pensam” antes de responder — já exigem cerca de 100 vezes mais. Quando se adiciona a camada de agentes, capazes de utilizar ferramentas externas, revisar respostas e iterar tarefas, o consumo pode ser até 10 mil vezes maior do que o de um modelo de raciocínio. O efeito combinado leva a um salto de até 1 milhão de vezes por interação.
Esse avanço ajuda a explicar por que a demanda por IA não se limita à fase de treinamento de modelos, mas tende a crescer de forma estrutural com o uso em larga escala.
O relatório usa a Anthropic como exemplo dessa dinâmica. A empresa, criadora dos modelos Claude, viu sua receita recorrente anualizada saltar de cerca de US$ 1 bilhão para US$ 30 bilhões em apenas 15 meses, impulsionada por produtos como o Claude Code e o Claude Cowork. Segundo dados citados, 31% das empresas norte-americanas já utilizam suas soluções — toda essa demanda roda majoritariamente sobre GPUs da Nvidia.
Um fosso competitivo difícil de replicar
O Safra argumenta que a vantagem da Nvidia não está em um produto isolado, mas em um ecossistema integrado que combina quatro pilares: chips de alta performance (GPUs), redes proprietárias de data center, acesso privilegiado à cadeia de suprimentos e o software CUDA.
Esse conjunto forma uma barreira de entrada incomum até mesmo para o setor de tecnologia. “O maior fosso da Nvidia não é apenas técnico, mas institucional: o mundo da IA foi treinado para operar em CUDA”, aponta o relatório.
Os analistas afirmam que essas quatro camadas precisam ser replicadas simultaneamente para que qualquer concorrente se torne relevante — algo altamente improvável. A empresa mantém liderança em chips com ciclos anuais de inovação, controla a infraestrutura de rede dentro e entre racks de data centers e concentra acesso a gargalos críticos da indústria, como a memória HBM, da qual consome mais de 50% da oferta global.
Além disso, o ecossistema CUDA — com cerca de 7,5 milhões de desenvolvedores e centenas de bibliotecas otimizadas — cria um alto custo de migração para outras plataformas.
“Um potencial concorrente precisaria replicar todas as quatro camadas ao mesmo tempo. Replicar uma, duas ou três não é suficiente. Quando seu produto chega ao mercado, a próxima geração da Nvidia já elevou o padrão de performance”, escreveram.
Crescimento, margens e geração de caixa
As projeções do Safra reforçam a tese de longo prazo da Nvidia, com números que combinam expansão acelerada e alta rentabilidade:
- Crescimento de receita de cerca de 29,5% ao ano até 2031;
- Margens elevadas (bruta próxima de 74% e líquida ao redor de 56%);
- Geração de caixa operacional estimada em US$ 1,67 trilhão nos próximos cinco anos.
Parte relevante desse montante deve ser devolvida aos acionistas. “A empresa pode devolver cerca de 20% do valor e mercado atual via dividendos e recompras”, aponta o relatório.
O documento também destaca a chamada demanda soberana — governos investindo em infraestrutura de IA não com base em retorno financeiro, mas por razões estratégicas. Segundo o banco, esse vetor já gerou mais de US$ 30 bilhões em receita no último ano fiscal, mais que o triplo do período anterior.
Esse tipo de demanda tende a ser menos sensível a preço e a ciclos econômicos. Uma pesquisa da McKinsey & Company citada no relatório mostra que 71% de executivos, investidores e autoridades públicas consideram a IA um “imperativo estratégico” ou uma “preocupação existencial”. Hoje, mais de 50 países já desenvolvem infraestrutura de IA baseada nas plataformas da empresa.
Além dos projetos de “IA soberana” e das big techs como principais clientes, os analistas ressaltam outros motores estruturais de crescimento: a expansão contínua de data centers por hyperscalers e a migração corporativa de CPU para GPU.
Esse último vetor sugere que a IA tende a se consolidar como infraestrutura básica em diversos setores da economia.
O relatório também confronta um dos principais receios do mercado: uma eventual desaceleração nos investimentos em IA pelas big techs. A avaliação é que esse risco é superestimado.
Primeiro, porque reduzir investimentos enquanto concorrentes avançam pode gerar perdas competitivas difíceis de recuperar. Segundo, porque o grupo de hyperscalers ainda possui balanços sólidos e ampla capacidade de alavancagem — o que abriria espaço para até US$ 1,7 trilhão adicionais em investimentos nos próximos anos.
Por fim, a monetização já começa a aparecer. A Meta Platforms, por exemplo, tem conseguido expandir simultaneamente o volume e o preço dos anúncios, impulsionada por melhorias em recomendação de conteúdo via IA — um sinal de que o retorno sobre esses investimentos já começa a se materializar.
O que está em jogo
O Safra não ignora os riscos. O principal é a concentração de clientes: cinco hyperscalers (Google, Amazon, Microsoft, Meta e Oracle) respondem por cerca de 60% da receita de data centers, divisão que representa aproximadamente 90% do faturamento da companhia. Qualquer mudança no ritmo de investimento desses gigantes pode ter impacto direto nos resultados.
Outro ponto de atenção é o avanço dos ASICs — chips desenvolvidos internamente por essas mesmas empresas, como TPU (Google), Trainium (AWS) e MTIA (Meta). Hoje, a Nvidia ainda domina cerca de 78% do mercado de aceleradores de IA, mas a expectativa é de uma leve erosão dessa fatia, para algo próximo de 72% até 2031, à medida que essas alternativas ganhem escala.
Há também o componente geopolítico. A dependência da Taiwan Semiconductor Manufacturing Company (TSMC), em Taiwan, para a produção dos chips mais avançados expõe a empresa a riscos de cadeia de suprimentos e tensões regionais — com alternativas fora da ilha ainda distantes em escala relevante.
Ainda assim, a conclusão do Safra é direta: o mercado segue subestimando a magnitude da transformação em curso. A Nvidia não está mais atrelada apenas ao próximo ciclo de semicondutores. Ela ocupa uma posição central em uma mudança de infraestrutura global, que conecta computação, energia e inteligência artificial. “A demanda por IA está se tornando estrutural — e não apenas um ciclo tecnológico”, concluíram.












Leave a Reply