Em apenas 16 meses, o Model Context Protocol (MCP) passou de experimento técnico da Anthropic a padrão global de infraestrutura para agentes de IA — e fez isso na velocidade mais rápida de adoção de qualquer padrão de infraestrutura de IA da história. Para efeito de comparação, segundo dados da comunidade MCP, o Kubernetes levou quase quatro anos para alcançar escala equivalente. Hoje, quando um agente de IA acessa o GitHub, o Salesforce ou o Notion da sua empresa, provavelmente está fazendo isso via MCP.
O que começou como uma proposta técnica para resolver um problema básico — como conectar modelos de linguagem a sistemas externos de forma padronizada — virou, na prática, a gramática universal dos agentes de IA em produção. E os números desta semana confirmam que essa transição já é irreversível.
O que é o MCP e por que ele passou a importar tanto
O Model Context Protocol é um padrão aberto que define como agentes de IA se comunicam com ferramentas externas, APIs e fontes de dados. Em linguagem simples: é o protocolo que permite que um agente de IA "peça" ao GitHub para criar um pull request, ao Salesforce para atualizar um lead ou ao Notion para registrar uma reunião — tudo de forma padronizada, sem exigir integrações customizadas para cada par de sistema.
Antes do MCP, cada empresa de IA e cada fornecedor de software construía bridges proprietárias. O resultado era um emaranhado incompatível de conectores, com alto custo de manutenção e risco de lock-in. O MCP atacou exatamente esse problema ao propor uma linguagem comum — e o setor respondeu com uma adesão sem precedentes.
Em dezembro de 2025, a Anthropic doou o protocolo à Linux Foundation, que o abrigou sob a Agentic AI Foundation (AAIF). Com Anthropic, Block e OpenAI como co-fundadores, e AWS, Google, Microsoft, Cloudflare e Bloomberg como membros Platinum, o protocolo deixou de ser propriedade de uma única empresa. Para empresas que hesitavam em adotar o padrão por receio de dependência de fornecedor, esse movimento removeu o último obstáculo.
De experimento a padrão global: os números
Segundo dados da comunidade MCP e análises de mercado, o protocolo cruzou a marca de 97 milhões de instalações mensais do SDK em março de 2026 — e estimativas mais recentes apontam para 150 milhões de instâncias considerando servidores em produção.
O suporte é praticamente universal entre as grandes plataformas. Como clientes MCP: Claude, ChatGPT, Google Gemini, Cursor, Windsurf, VS Code, JetBrains AI Assistant e Microsoft Copilot. No lado dos servidores: Google Drive, Slack, Notion, GitHub, Jira, Salesforce e Postgres já têm implementações estáveis disponíveis.
O Gartner projeta que até o final de 2026, 75% dos fornecedores de API gateways e 50% das plataformas de integração incluirão suporte nativo ao MCP. Testes em produção na Twilio mostraram que a migração para integrações baseadas no protocolo elevou as taxas de sucesso de tarefas de 92% para 100%, com redução de até 30% nos custos computacionais.
O ecossistema que se formou — e a novidade desta semana
Nesta semana, a Atlassian anunciou novos servidores MCP e ferramentas CLI em beta, com acesso mais granular ao Teamwork Graph da empresa. Os resultados reportados são concretos: 44% mais precisão em buscas contextuais e redução de até 48% nos custos com tokens para agentes operando nos sistemas da Atlassian.
Outras movimentações recentes relevantes:
- Microsoft lançou o Agent 365 com suporte nativo a MCP, agora disponível para clientes comerciais
- Blend Labs lançou um "Autopilot MCP Server" que permite a instituições financeiras construir fluxos de originação de crédito com agentes de IA via MCP
- Appian adotou o protocolo e fechou parceria com a Snowflake para oferecer agentes com mais estrutura e controle em operações empresariais
O padrão deixou de ser território exclusivo de empresas de tecnologia e avança rapidamente para setores como finanças, saúde e logística.
O lado sombrio: riscos de segurança na escala de 150 milhões
Com grande adoção vêm grandes responsabilidades — e riscos. Um relatório da Cloud Security Alliance identificou vulnerabilidades críticas em servidores MCP que podem permitir takeover remoto de servidores, comprometendo toda a cadeia de integrações conectada a um agente.
O ponto de atenção é estrutural: como o MCP opera com permissões amplas para executar ações em nome do agente — criar tickets, enviar e-mails, modificar documentos — um servidor comprometido pode se tornar vetor de ataque dentro de sistemas críticos. A maioria das implementações ainda não conta com controles adequados de autenticação, auditoria de permissões e monitoramento de chamadas MCP.
Para empresas que estão colocando agentes em produção, esse é um risco que precisa de atenção imediata — antes, não depois, de um incidente.
Implicação prática: o que sua empresa deve fazer agora
Para organizações brasileiras que estão construindo ou avaliando agentes de IA, o MCP é hoje a aposta mais segura para garantir interoperabilidade no longo prazo. Ele evita lock-in em integrações proprietárias e permite conectar agentes a sistemas já existentes — CRMs, ERPs, plataformas de gestão — com muito menos esforço de desenvolvimento.
Algumas ações concretas:
- Priorize fornecedores com suporte nativo a MCP ao avaliar novas plataformas de IA ou agentes em 2026
- Mapeie quais sistemas internos já têm servidores MCP disponíveis — Google Drive, Notion, GitHub, Jira e Salesforce têm implementações estáveis hoje
- Estabeleça políticas de segurança para chamadas MCP antes de colocar agentes em produção com permissões amplas
- Acompanhe a evolução do protocolo A2A (Agent-to-Agent), que complementa o MCP para comunicação entre agentes distintos
Se a sua organização ainda trata o MCP como "assunto de engenharia", é hora de elevar essa conversa para decisões de produto, arquitetura e compra de software. O protocolo já está moldando o que é possível — e o que é caro — em operações de IA. Com 75% dos API gateways incorporando suporte nativo até o final deste ano, ignorar esse padrão é acumular dívida técnica desnecessária.
A Entercast acompanha de perto a evolução dos padrões de infraestrutura para agentes de IA e pode ajudar sua organização a estruturar esse caminho com foco em resultado.
Esta matéria foi publicada em 06/05/2026. Siga a Entercast para não perder as próximas atualizações.