O protocolo que virou infraestrutura da IA: MCP ultrapassa 97 milhões de instalações

Entercast Consulting·

Em apenas 16 meses, o Model Context Protocol (MCP) passou de experimento técnico da Anthropic a padrão global de infraestrutura para agentes de IA — e fez isso na velocidade mais rápida de adoção de qualquer padrão de infraestrutura de IA da história. Para efeito de comparação, segundo dados da comunidade MCP, o Kubernetes levou quase quatro anos para alcançar escala equivalente. Hoje, quando um agente de IA acessa o GitHub, o Salesforce ou o Notion da sua empresa, provavelmente está fazendo isso via MCP.

O que começou como uma proposta técnica para resolver um problema básico — como conectar modelos de linguagem a sistemas externos de forma padronizada — virou, na prática, a gramática universal dos agentes de IA em produção. E os números desta semana confirmam que essa transição já é irreversível.

O que é o MCP e por que ele passou a importar tanto

O Model Context Protocol é um padrão aberto que define como agentes de IA se comunicam com ferramentas externas, APIs e fontes de dados. Em linguagem simples: é o protocolo que permite que um agente de IA "peça" ao GitHub para criar um pull request, ao Salesforce para atualizar um lead ou ao Notion para registrar uma reunião — tudo de forma padronizada, sem exigir integrações customizadas para cada par de sistema.

Antes do MCP, cada empresa de IA e cada fornecedor de software construía bridges proprietárias. O resultado era um emaranhado incompatível de conectores, com alto custo de manutenção e risco de lock-in. O MCP atacou exatamente esse problema ao propor uma linguagem comum — e o setor respondeu com uma adesão sem precedentes.

Em dezembro de 2025, a Anthropic doou o protocolo à Linux Foundation, que o abrigou sob a Agentic AI Foundation (AAIF). Com Anthropic, Block e OpenAI como co-fundadores, e AWS, Google, Microsoft, Cloudflare e Bloomberg como membros Platinum, o protocolo deixou de ser propriedade de uma única empresa. Para empresas que hesitavam em adotar o padrão por receio de dependência de fornecedor, esse movimento removeu o último obstáculo.

De experimento a padrão global: os números

Segundo dados da comunidade MCP e análises de mercado, o protocolo cruzou a marca de 97 milhões de instalações mensais do SDK em março de 2026 — e estimativas mais recentes apontam para 150 milhões de instâncias considerando servidores em produção.

O suporte é praticamente universal entre as grandes plataformas. Como clientes MCP: Claude, ChatGPT, Google Gemini, Cursor, Windsurf, VS Code, JetBrains AI Assistant e Microsoft Copilot. No lado dos servidores: Google Drive, Slack, Notion, GitHub, Jira, Salesforce e Postgres já têm implementações estáveis disponíveis.

O Gartner projeta que até o final de 2026, 75% dos fornecedores de API gateways e 50% das plataformas de integração incluirão suporte nativo ao MCP. Testes em produção na Twilio mostraram que a migração para integrações baseadas no protocolo elevou as taxas de sucesso de tarefas de 92% para 100%, com redução de até 30% nos custos computacionais.

O ecossistema que se formou — e a novidade desta semana

Nesta semana, a Atlassian anunciou novos servidores MCP e ferramentas CLI em beta, com acesso mais granular ao Teamwork Graph da empresa. Os resultados reportados são concretos: 44% mais precisão em buscas contextuais e redução de até 48% nos custos com tokens para agentes operando nos sistemas da Atlassian.

Outras movimentações recentes relevantes:

  • Microsoft lançou o Agent 365 com suporte nativo a MCP, agora disponível para clientes comerciais
  • Blend Labs lançou um "Autopilot MCP Server" que permite a instituições financeiras construir fluxos de originação de crédito com agentes de IA via MCP
  • Appian adotou o protocolo e fechou parceria com a Snowflake para oferecer agentes com mais estrutura e controle em operações empresariais

O padrão deixou de ser território exclusivo de empresas de tecnologia e avança rapidamente para setores como finanças, saúde e logística.

O lado sombrio: riscos de segurança na escala de 150 milhões

Com grande adoção vêm grandes responsabilidades — e riscos. Um relatório da Cloud Security Alliance identificou vulnerabilidades críticas em servidores MCP que podem permitir takeover remoto de servidores, comprometendo toda a cadeia de integrações conectada a um agente.

O ponto de atenção é estrutural: como o MCP opera com permissões amplas para executar ações em nome do agente — criar tickets, enviar e-mails, modificar documentos — um servidor comprometido pode se tornar vetor de ataque dentro de sistemas críticos. A maioria das implementações ainda não conta com controles adequados de autenticação, auditoria de permissões e monitoramento de chamadas MCP.

Para empresas que estão colocando agentes em produção, esse é um risco que precisa de atenção imediata — antes, não depois, de um incidente.

Implicação prática: o que sua empresa deve fazer agora

Para organizações brasileiras que estão construindo ou avaliando agentes de IA, o MCP é hoje a aposta mais segura para garantir interoperabilidade no longo prazo. Ele evita lock-in em integrações proprietárias e permite conectar agentes a sistemas já existentes — CRMs, ERPs, plataformas de gestão — com muito menos esforço de desenvolvimento.

Algumas ações concretas:

  • Priorize fornecedores com suporte nativo a MCP ao avaliar novas plataformas de IA ou agentes em 2026
  • Mapeie quais sistemas internos já têm servidores MCP disponíveis — Google Drive, Notion, GitHub, Jira e Salesforce têm implementações estáveis hoje
  • Estabeleça políticas de segurança para chamadas MCP antes de colocar agentes em produção com permissões amplas
  • Acompanhe a evolução do protocolo A2A (Agent-to-Agent), que complementa o MCP para comunicação entre agentes distintos

Se a sua organização ainda trata o MCP como "assunto de engenharia", é hora de elevar essa conversa para decisões de produto, arquitetura e compra de software. O protocolo já está moldando o que é possível — e o que é caro — em operações de IA. Com 75% dos API gateways incorporando suporte nativo até o final deste ano, ignorar esse padrão é acumular dívida técnica desnecessária.

A Entercast acompanha de perto a evolução dos padrões de infraestrutura para agentes de IA e pode ajudar sua organização a estruturar esse caminho com foco em resultado.


Esta matéria foi publicada em 06/05/2026. Siga a Entercast para não perder as próximas atualizações.