Voltar ao blog
·13 min de leitura·IA, SaaS, Times de produto, Pesquisa

Adoção de IA em times pequenos de produto SaaS: o que Gartner, McKinsey e DORA realmente mediram em 2025

88% das organizações dizem usar IA; só 5,5% veem retorno real. Em times pequenos de produto SaaS o gap é mais agudo, o modo de falha é mais rápido, e uma fração não trivial sai positiva. Um passeio pelas pesquisas de 2025 sobre adoção, produtividade, e o que decide em qual lado da curva o time cai.

Gabriel Fernandes
Gabriel Fernandes
Analista de Dados Sênior
Read in English

Em novembro de 2025, a McKinsey publicou que 88% das organizações usam IA em pelo menos uma função de negócio, contra 78% no ano anterior. Na mesma pesquisa, só 5,5% dessas organizações conseguem atribuir retorno financeiro relevante a esse uso de IA. Cerca de dois terços das iniciativas de IA continuam em piloto ou experimentação. Apenas um terço chegou a escalar de fato.

A maior parte da análise feita em cima desses números é escrita para o leitor da Fortune 500, onde estratégia de IA significa um programa em nível de board com CIO, chief data officer, e contrato de muitos milhões com algum provedor de modelo. Esse texto é sobre o outro extremo do mercado: times de produto SaaS de cinco a cinquenta pessoas que precisam entregar algo que um cliente pagante vá renovar no trimestre seguinte.

Esse grupo se comporta diferente do que a manchete da McKinsey sugere. O gap entre adoção e valor é mais agudo. O modo de falha é mais rápido. E, para uma fração não trivial, o upside é maior. Os dados de 2025 já são bons o suficiente para dizer algo concreto sobre em qual lado da curva um time pequeno tende a cair. As fontes estão no fim; tudo o que está citado é público.

O número de adoção, e o que se esconde nele

A Stack Overflow Developer Survey 2025, com cerca de 49 mil respondentes em 177 países, encontrou que 84% dos desenvolvedores usam ou pretendem usar ferramentas de IA, contra 76% no ano anterior. Entre desenvolvedores profissionais, 51% relatam usar IA todos os dias. A mesma pesquisa registrou queda forte na confiança: o sentimento positivo sobre as ferramentas caiu de 70%+ em 2023 e 2024 para 60% em 2025, e só 29% dos desenvolvedores em 2025 disseram que de fato confiam no que as ferramentas produzem, 11 pontos a menos que em 2024.

Uso de IA por desenvolvedores versus confiança, 2025

O que devs fazem com ferramentas de IA, e o quanto confiam no resultado

Usam ou planejam usar ferramentas de IA84%
Usam diariamente (devs profissionais)51%
Confiam no que a IA produz29%
Stack Overflow Developer Survey 2025 (~49 mil respondentes, 177 países)

Lendo a manchete ao lado do número de confiança, o padrão fica mais específico do que adoção em alta. Os desenvolvedores estão usando IA porque a empresa pagou e a pressão de produtividade dos pares é real, e ao mesmo tempo perdendo confiança no que sai do outro lado. Sessenta e seis por cento dos respondentes citaram "respostas de IA quase certas, mas não exatamente" como a maior frustração. Quarenta e cinco por cento disseram que depurar código gerado por IA consome mais tempo do que escrever na mão.

Esse é o cotidiano de um time pequeno de produto em 2026. Todo mundo no time está usando Copilot ou Cursor ou Claude. A maior parte deles não tem certeza de que o output está deixando o time mais rápido.

O gap de escala da McKinsey

A State of AI 2025 da McKinsey, em campo entre junho e julho, recebeu respostas de 1.993 executivos em 105 países e organizações de todos os portes. O 88% da manchete é o topo do funil; os números mais embaixo são a parte que importa.

Das organizações que usam IA, cerca de dois terços continuam em piloto ou experimentação. Aproximadamente um terço escalou pelo menos um caso de uso. Só 39% da amostra completa consegue atribuir qualquer impacto em EBIT à IA, e a maioria desse grupo reporta menos de 5% de impacto. Apenas 5,5% das organizações relatam retorno financeiro relevante. Vinte e três por cento estão escalando sistemas agentivos; outros 39% estão experimentando agentes sem ainda ter colocado em produção.

Onde as organizações que adotaram IA realmente estão

Distribuição das organizações com IA, por estágio de maturidade

  • Piloto ou experimentação67%
  • Escalando, sem retorno mensurável27.5%
  • Retorno financeiro real5.5%
McKinsey State of AI 2025 (1.993 executivos, junho a julho de 2025)

Algumas conclusões explicam o gap. A coorte de "high performers" da McKinsey, as organizações que efetivamente extraem retorno financeiro, são três vezes mais propensas a relatar engajamento direto da liderança sênior nas iniciativas de IA. São várias vezes mais propensas a ter redesenhado processos em torno da IA, em vez de encaixar IA em processos pré-existentes. E são mais propensas a ter investido em fundação de dados antes de abrir os casos de uso. O padrão é consistente: as organizações que ganham com IA fizeram o trabalho chato primeiro, e as que não fizeram estão rodando provas de conceito muito caras que não conseguem entregar.

A pesquisa Forrester 2025 com 800 executivos americanos confirma o mesmo formato por outro ângulo. Setenta e três por cento das empresas estavam gastando pelo menos US$1 milhão por ano em IA generativa em meados de 2025, mas só cerca de um terço viam algum retorno. Sessenta e dois por cento dos executivos esperavam que o ROI levasse três anos ou mais.

O barbell do SaaS

A SaaS Capital fez sua pesquisa anual de benchmarking no início de 2025, com cerca de mil empresas SaaS respondendo. A quebra por ARR é o dado mais interessante que já vi sobre comportamento de IA em SaaS pequeno, porque mostra a distribuição bimodal que some nas médias do mercado.

Entre empresas SaaS abaixo de US$3M de ARR, 32% relataram "nenhuma IA no produto". Entre empresas SaaS acima de US$20M de ARR, só 12% disseram a mesma coisa. Ou seja, as empresas menores são bem mais propensas a rejeitar IA por completo. Ao mesmo tempo, 26% da coorte abaixo de US$3M se descreveram como "AI-only" ou "AI-first", contra só 18% da coorte acima de US$20M. As empresas menores são, ao mesmo tempo, mais céticas em relação à IA e mais AI-nativas.

O barbell do SaaS

Como empresas SaaS se posicionam em relação à IA, por tamanho

Sem IA no produto (abaixo de US$3M ARR)32%
Sem IA no produto (acima de US$20M ARR)12%
AI-first ou AI-only (abaixo de US$3M ARR)26%
AI-first ou AI-only (acima de US$20M ARR)18%
SaaS Capital 2025 AI Update (~1.000 SaaS, fevereiro de 2025)

É o padrão de um mercado imaturo se organizando. A coorte abaixo de US$3M de ARR contém mais ou menos duas populações distintas: times SaaS bootstrappados ou de fundador-único que decidiram conscientemente construir um produto sem IA, e um cluster crescente de novas startups AI-nativas cujo produto inteiro é generativo ou agentivo. O meio, o caminho de "IA como feature anexa", é onde a maioria das empresas em fase de crescimento está, e também é onde mora a maior parte das iniciativas que são abandonadas.

Para um time pequeno de produto decidindo o papel da IA, o dado é tranquilizador num sentido e duro em outro. Tranquilizador: optar por não colocar IA no produto é uma posição defensável que 32% dos seus pares abaixo de US$3M também tomaram. Duro: se você for pelo caminho da IA, a população que ganha nesse ARR é a coorte AI-nativa, não a coorte de feature anexa. Features de IA pluggadas em produtos existentes são onde mora a maior parte dos PoCs abandonados.

O paradoxo produtividade-versus-qualidade

O DORA Report 2025, do time de pesquisa do Google Cloud e um dos estudos longitudinais mais citados sobre desempenho de entrega de software, foi inequívoco sobre o trade-off que a IA introduz. Cerca de 90% dos desenvolvedores na pesquisa relataram usar assistência de IA de alguma forma. Cerca de dois terços disseram que dependiam fortemente dela para escrever código, gerar documentação, debugar, ou explorar frameworks novos.

Os números de throughput são genuinamente impressionantes. Tarefas concluídas por dev por semana subiram 21%. Pull requests mergeados subiram 98%. O braço de pesquisa DX relatou, em média, 3,6 horas por semana economizadas por dev no corpus deles. O estudo aleatorizado da Microsoft de 2024-2025 mostrou conclusão 55% mais rápida em tarefas isoladas de código com Copilot.

Os números de estabilidade no mesmo relatório DORA são a parte que a maior parte da cobertura pula:

Ferramentas de IA para código: throughput e estabilidade, ano a ano

Variação percentual em métricas selecionadas de entrega e qualidade, 2024 a 2025

Tarefas concluídas por dev por semana21%
Pull requests mergeados98%
Bugs por desenvolvedor54%
Incidentes por pull request242.7%
Tempo médio em revisão de PR441%
DORA 2025 Report (Google Cloud, ~5.000 tecnólogos)

A interpretação do próprio DORA: "IA não conserta um time; ela amplifica o que já está lá." Times fortes, com CI maduro, boa cobertura de testes, ciclos de feedback rápidos e revisão de código disciplinada, absorveram o ganho de throughput e converteram em valor entregue. Times fracos usaram o mesmo ganho de throughput para entregar mais bugs mais rápido.

O CodeRabbit, num estudo de dezembro de 2025 analisando 470 pull requests open-source no GitHub (320 com co-autoria de IA, 150 só humanos), chegou à mesma conclusão por análise estática. PRs com IA produziram 10,83 issues cada; PRs só humanos produziram 6,45, aproximadamente 1,7x mais. Achados de lógica e correção foram 75% mais frequentes em PRs com IA. Achados de segurança, 1,5x mais frequentes. Ineficiências de performance, especialmente excesso de I/O, apareceram quase 8x mais.

Issues por pull request, com IA versus só humano

Análise estática sobre 470 PRs open-source no GitHub

PRs com co-autoria de IA10.8 issues por PR
PRs só com autor humano6.5 issues por PR
CodeRabbit, State of AI vs Human Code Generation, dezembro de 2025

Um ensaio controlado e aleatorizado da METR com desenvolvedores experientes de open-source, publicado em meados de 2025, foi mais longe. Os desenvolvedores usando ferramentas de IA ficaram 19% mais lentos em tarefas reais de código que o grupo de controle, achando que estavam mais rápidos. O gap entre produtividade percebida e medida é a parte da história de produtividade da IA que não cabe em nenhum slide de fornecedor.

O cemitério dos PoCs

O Gartner, numa previsão de julho de 2024, disse que pelo menos 30% dos projetos de IA generativa seriam abandonados após a prova de conceito até o fim de 2025, citando má qualidade de dados, controles de risco insuficientes, custos crescentes e valor de negócio pouco claro. Numa atualização do Gartner circulada no início de 2026, a taxa real chegou a pelo menos 50%.

Custo é parte da história. A análise do Gartner colocou implantações de IA generativa numa faixa de US$5 milhões a US$20 milhões; mesmo um sistema simples de busca documental por retrieval-augmented-generation custava a partir de US$750 mil para configurar. Esses números são maiores do que o orçamento inteiro de engenharia da maioria dos times SaaS pequenos. Sessenta e três por cento das organizações na pesquisa de gestão de dados do Gartner em 2024 ou não tinham as práticas de dados certas para IA, ou não sabiam se tinham. É a superfície do problema que todos os PoCs abandonados compartilham.

Numa pesquisa separada do Gartner com 782 líderes de infraestrutura e operações conduzida entre novembro e dezembro de 2025, só 28% dos casos de uso de IA tiveram pleno sucesso e atingiram as expectativas de ROI. Vinte por cento falharam por completo. Os 52% do meio entregaram valor parcial, o que na prática significa que consumiram orçamento e produziram resultados inconclusivos.

Para um time SaaS pequeno, os números de gasto do Gartner não são a régua. O PoC de um time pequeno talvez custe US$15 mil em créditos de API e um mês-engenheiro, não US$15 milhões. Mas a taxa de abandono se comporta da mesma forma. As razões são as mesmas: o dado que a feature de IA lê está fragmentado, a métrica que a feature deveria mexer nunca foi definida com clareza, o sinal do cliente não foi coletado, e depois de doze meses de investimento ninguém consegue escrever um parágrafo resumindo o que foi entregue e o que mudou.

O que separa os times SaaS pequenos que dão certo

Atravessando os estudos, quatro traços aparecem de forma consistente nos times SaaS pequenos que efetivamente extraem retorno mensurável de IA em 2025-2026.

Um. Tratam IA como um componente do sistema de engenharia, não como substituto do sistema. Testes, revisão de código, observabilidade, e resposta a incidente são inegociáveis. O ganho de throughput do Copilot ou do Cursor passa por esse sistema; o sistema pega as saídas ruins antes de chegarem no cliente. A conclusão do DORA cai certinho aqui: os times que saem positivos com IA tinham a higiene primeiro.

Dois. Pegam um caso de uso de IA por vez e levam até produção. O dado do Gartner sobre abandono de PoC é mais cruel com times que abriram cinco frentes generativas ao mesmo tempo, nenhuma com dono claro. Times pequenos que escolhem um — RAG sobre a documentação, ou um assistente de revisão de código, ou uma feature de IA para o cliente — e fecham antes de abrir o segundo, têm um track record de uma ordem de grandeza melhor.

Três. Têm alguém no time responsável pela qualidade do dado. O mesmo warehouse, schema, métricas e definições que falham nos dashboards de BI são os que as features de IA leem. Sessenta e três por cento das organizações na pesquisa de gestão de dados do Gartner ou não têm as práticas certas, ou não sabem se têm. O subgrupo de SaaS pequeno desse número é ainda mais alto, porque raramente há uma pessoa dedicada a dado no time. Escrevi sobre por que esse papel é importante especificamente em transição de IA em empresas em transição para IA precisam de um data concierge.

Quatro. Precificam a feature de IA em linha com os dados de willingness to pay. O estudo de pricing SaaS da FTI Consulting de 2025 encontrou que 66% dos provedores SaaS veem IA como direcionador de aumento de WTP, e 83% empacotam IA com o produto principal. Os times que capturam esse uplift de pricing fizeram o trabalho de demonstrar o valor da feature de IA separado do resto do produto. Os que não fizeram acabam dando a feature de IA de bandeja como adicional e absorvendo a conta de inferência.

A pergunta de 2026

Os dados de 2025 desaguam numa única pergunta empírica para qualquer time pequeno de produto SaaS. As fundações para IA estão em pé — dado limpo, CI forte, métricas definidas, alguém responsável — ou não estão?

Se estão, os ganhos de throughput documentados em DORA, GitHub e DX são reais e compostos. O time consegue usar IA como multiplicador de capacidade de engenharia e entrega mais produto por engenheiro. Os 5,5% de organizações que a McKinsey identificou com retorno real estão majoritariamente nessa categoria, e o subgrupo de SaaS pequeno dentro desses 5,5% está super-representado em relação ao enterprise — tinham menos coisa para arrumar.

Se as fundações não estão em pé, as mesmas ferramentas de IA amplificam a fraqueza existente. Throughput sobe. Taxa de defeito sobe mais rápido. O time acumula dívida técnica em forma de código gerado por IA que ninguém entende totalmente, em cima de uma infraestrutura de dados que ninguém documentou. A curva de abandono do Gartner se manifesta no nível do time, não do projeto: doze a dezoito meses de investimento, uma história pouco clara para contar na próxima reunião de board, e um risco de churn no lado do cliente porque a feature de IA nunca funcionou direito.

Os dois cenários estão acontecendo em paralelo no mercado de SaaS pequeno agora. A pergunta para qualquer time é qual está acontecendo com ele, e a resposta raramente é o que o time prevê de dentro. O modo de falha das iniciativas de IA é silêncio, não crise: as métricas vão à deriva em silêncio, as reclamações de cliente são atribuídas a outras causas, e o orçamento acaba doze meses antes de alguém perceber.

Se o seu time SaaS está entregando features de IA e você não tem certeza em qual lado da curva está, o diagnóstico é mais rápido que a construção. 30 minutos de conversa para entender o ponto, e uma auditoria de uma a duas semanas se valer a pena.

Auditar a sua fundação de IA

Pensamento final

Os dados públicos sobre adoção de IA são inequívocos sobre duas coisas: a curva é real, e a taxa de falha é alta. O dado que ninguém publica é como está a fundação de engenharia e de dados dentro de cada time SaaS individual, porque esse dado é caro de produzir. Ele exige alguém andando pelo código, pelo warehouse, pela pipeline de CI, pelas definições de métrica, e escrevendo o que de fato é verdade.

É esse trabalho que decide em qual lado dos 5,5% da McKinsey um time SaaS pequeno cai. Os números acima são o inventário. O trabalho é todo o resto.

Leituras relacionadas

Para o enquadramento estratégico do gap de fundação, veja arrumar os dados antes de adotar IA generativa. Para a versão brasileira do mesmo boom de adoção, veja o boom de adoção de IA no Brasil em números públicos. Para a disciplina que transforma iniciativa de IA em time pequeno em produção real, veja dbt para times pequenos.

Fontes

McKinsey State of AI 2025 (release de novembro de 2025): McKinsey QuantumBlack State of AI; aprofundamento sobre o gap de escala e características dos high performers: State of AI in 2025 PDF.

Stack Overflow Developer Survey 2025: seção de IA; análise do gap de confiança: blog Stack Overflow.

DORA 2025 Report sobre desenvolvimento assistido por IA (Google Cloud): anúncio Google Cloud; site do DORA; PDF completo: State of AI-assisted Software Development 2025.

CodeRabbit, State of AI vs Human Code Generation Report (dezembro de 2025): pesquisa CodeRabbit; cobertura: The Register.

Estudo METR sobre o impacto da IA no início de 2025 em devs experientes de open-source: blog de pesquisa da METR; preprint: arXiv 2507.09089.

Previsões do Gartner sobre abandono de projetos de IA generativa (julho de 2024): press release Gartner; pesquisa Gartner sobre ROI de IA em I-and-O (release de abril de 2026): anúncio Gartner I-and-O; pesquisa Gartner sobre prontidão de dados: press release sobre dado pronto para IA.

SaaS Capital 2025 Q1 AI Update e AI Assessment Framework: atualização Q1; framework SaaS Capital.

Forrester State of AI 2025: pesquisa Forrester; previsões Forrester sobre ROI de IA: previsões 2025.

Estudo FTI Consulting 2025 sobre pricing de IA em SaaS: Beyond Subscriptions: SaaS AI Pricing.

Pesquisa de produtividade e adoção do GitHub Copilot: GitHub Copilot impact measurement; estudo longitudinal: arXiv 2509.20353.

Quer conversar sobre o seu cenário?

Vamos transformar seus dados em decisões.