Em 27 de maio de 2026, o plenário da Câmara dos Deputados deve votar o PL 2338/2023 — o projeto que vai definir as regras do jogo da inteligência artificial no Brasil. Com 72% das empresas brasileiras já usando IA em algum nível, segundo levantamento citado por especialistas do setor, a regulação chega tardia para muitos e urgente para todos.
O PL 2338/2023 foi aprovado pelo Senado Federal em dezembro de 2024 e tramitou na Câmara ao longo de 2025. A votação, inicialmente prevista para o fim do ano passado, foi adiada por impasses políticos e divergências sobre pontos considerados sensíveis — em especial, o equilíbrio entre proteção de direitos e estímulo à inovação.
Agora, o presidente da Câmara, Hugo Motta (Republicanos-PB), alinhou com o relator do projeto, deputado Aguinaldo Ribeiro (PP-PB), a apresentação do relatório final no dia 19 de maio, seguida de votação em plenário no dia 27. O cenário é de votação iminente — e o relógio corre para empresas que ainda não iniciaram qualquer processo de adequação.
Por que a votação é urgente agora
Para o Brasil, o timing não poderia ser mais carregado. Enquanto o país debate o texto, o mercado global de IA acelerou: em 2025 e 2026, as grandes plataformas lançaram agentes autônomos, sistemas multimodais e modelos de uso corporativo que já estão embarcados nas operações de empresas brasileiras.
Regulamentar agora não é mais teoria — é lidar com tecnologia que já decidiu crédito, filtrou currículos e direcionou publicidade para milhões de brasileiros. Segundo dados do setor, 54% dos brasileiros já usam IA de alguma forma, e o número de startups com "IA" no nome cresceu 857% entre 2023 e 2025.
O contexto internacional também pesa. A União Europeia já aplica o AI Act desde 2024. Os Estados Unidos estão construindo seu próprio arcabouço federal. O Brasil corre o risco de operar em vácuo regulatório justamente quando as plataformas globais expandem seus produtos no mercado nacional.
O que diz o PL 2338/2023
O projeto cria um arcabouço regulatório baseado em risco. Na prática, isso significa: quanto maior o potencial de impacto negativo de um sistema de IA sobre pessoas, maiores as obrigações de quem desenvolve ou usa esse sistema.
O texto define categorias de aplicação — de sistemas de baixo impacto, como recomendações de conteúdo em plataformas, até sistemas de alto risco, que incluem aplicações em saúde, educação, processos seletivos, concessão de crédito, segurança pública e infraestrutura crítica.
Para aplicações de alto risco, o projeto prevê um conjunto de obrigações:
- Transparência algorítmica: o usuário deve ser informado quando uma decisão que o afeta foi tomada ou apoiada por IA
- Avaliação de impacto algorítmico: empresas precisarão documentar os riscos dos seus sistemas antes de colocá-los em produção
- Direito à revisão humana: toda pessoa sujeita a uma decisão automatizada poderá solicitar revisão por um ser humano
- Proteção de dados no treinamento: o uso de dados pessoais para treinar modelos estará sujeito a regras mais rígidas, em diálogo com a LGPD
- Auditabilidade: sistemas de alto risco deverão ser passíveis de auditoria por autoridades competentes
Quem será mais impactado
O projeto não mira só as big techs. Ele atinge qualquer organização que use IA em processos que afetam pessoas. Isso inclui bancos que usam modelos de crédito, planos de saúde que analisam autorizações de procedimentos, plataformas de recrutamento com triagem automatizada, fintechs, seguradoras e qualquer empresa com sistemas de atendimento ao cliente baseados em IA generativa.
Empresas como Nubank e iFood, que já testaram conformidade antecipada, reportaram que a documentação de algoritmos e auditoria de viés geram custo inicial, mas reduzem riscos legais e aumentam a confiança dos clientes a longo prazo — segundo relatos do setor.
Startups e pequenas empresas são o ponto mais delicado. A carga regulatória prevista pelo PL pode ser desproporcional para organizações menores, que muitas vezes constroem produtos baseados em IA sem equipes jurídicas estruturadas.
As críticas ao texto atual
O debate parlamentar em torno do PL 2338/2023 é intenso. As críticas se concentram em três frentes principais.
A primeira é a inspiração europeia sem adaptação local: parte do texto é influenciada pelo AI Act da União Europeia, criado para um mercado com características muito diferentes do Brasil. Críticos argumentam que a transposição direta pode prejudicar a competitividade do ecossistema de inovação nacional.
A segunda é a ambiguidade nas definições: termos como "sistema de IA" e "alto risco" ainda carecem de delimitação precisa no texto, o que pode gerar insegurança jurídica e litígios entre empresas e reguladores.
A terceira é o custo de conformidade: a implementação de processos de governança, documentação e auditoria tem custo real. Para startups em estágio inicial, pode representar uma barreira de entrada no mercado.
O relator Aguinaldo Ribeiro declarou, em março de 2026, que o texto está "90% pronto" e que as alterações finais buscam justamente equilibrar proteção e inovação. A versão final só será conhecida com a apresentação do relatório em 19 de maio.
O que sua empresa deve fazer agora
Com o voto marcado para 27 de maio, não há mais tempo para uma postura de espera. Independentemente da aprovação imediata, o alinhamento antecipado com os princípios do PL é um movimento estratégico — e as empresas que chegarem preparadas ao cenário pós-votação sairão na frente.
Algumas ações práticas para iniciar agora:
- Mapeie seus sistemas de IA: identifique quais ferramentas e processos automatizados a sua organização já usa e se algum deles afeta decisões sobre pessoas
- Avalie o nível de risco de cada sistema: pergunte se a ferramenta é usada em crédito, saúde, seleção de pessoas, segurança ou infraestrutura — essas categorias provavelmente se enquadram em alto risco
- Documente os modelos em produção: tenha registros sobre origem dos dados de treinamento, finalidade do modelo e critérios de decisão, mesmo que de forma simplificada por ora
- Envolva jurídico e compliance desde já: a conformidade com IA não é só pauta de TI — precisa de alinhamento com as áreas de risco, privacidade e governança da organização
- Acompanhe o relatório de 19 de maio: o texto final pode alterar obrigações específicas; assine alertas legislativos ou acompanhe portais especializados
O Brasil entra na era da IA regulada
A votação do marco legal da IA não é apenas um evento legislativo — é o sinal de que o Brasil escolheu ter regras para essa tecnologia. O modelo baseado em risco segue a tendência global de evitar regulação genérica e focar onde o impacto é maior.
Para as empresas brasileiras, a mensagem é clara: a janela para "testar sem pensar em conformidade" está se fechando. As organizações que iniciarem a jornada de governança de IA antes da aprovação sairão na frente — não só juridicamente, mas também na confiança de clientes, parceiros e investidores.
Acompanhe a Entercast para análises sobre o impacto do marco legal da IA no seu setor e em suas operações.
Esta matéria foi publicada em 05 de maio de 2026. Siga a Entercast para não perder as próximas atualizações.