Do ChatGPT à vigilância: as propostas polêmicas para limitar o poder da IA
Imagine acordar e descobrir que seu rosto foi identificado erroneamente como um criminoso. Ou receber uma negativa de emprego decidida por um algoritmo que você nunca conhecerá. Essas situações deixaram de ser ficção científica. O cenário regulatório da inteligência artificial no Brasil e no mundo está ganhando forma rapidamente, impulsionado por novidades legislativas que reforçam a centralidade do tema na agenda nacional.
A corrida pela regulação da IA tornou-se uma das batalhas mais importantes deste século. O Marco Legal da Inteligência Artificial, representado pelo Projeto de Lei 2.338/2023, segue como o principal eixo das discussões no Congresso Nacional, sugerindo as bases para o desenvolvimento e a utilização da IA no Brasil. O debate não é apenas técnico – trata da forma como sociedades democráticas vão conviver com máquinas cada vez mais poderosas.

Este artigo investiga as principais propostas de controle da inteligência artificial que estão sendo debatidas em diversos países. Você vai entender por que governos, empresas e cidadãos travam essa disputa acirrada, e como essas decisões vão afetar seu dia a dia nos próximos anos.
Por que regular IA virou urgência mundial?
O relatório do Órgão Consultivo de Alto Nível sobre Inteligência Artificial criado pelo secretário-geral da ONU aponta um “deficit” de regulações, normas e instituições globais capazes de gerir o uso da IA, potencializando seus benefícios e minimizando seus riscos. A tecnologia avança mais rápido que qualquer legislação consegue acompanhar.
As preocupações são reais e variadas. Sistemas de IA podem reproduzir preconceitos históricos, tomar decisões opacas que afetam vidas e até ser usados como armas autônomas. Para os especialistas da ONU, sistemas de IA “rápidos, opacos e autônomos” podem desafiar os sistemas regulatórios tradicionais, impactar cada vez mais o mundo do trabalho e gerar armas autônomas, levantando sérios problemas jurídicos, de segurança e questões humanitárias.
O custo de não regular
O secretário-executivo do Ministério da Fazenda, Dario Durigan, afirmou que a regulação traz previsibilidade e atração de investimento ao país, e que é ruim não haver uma resposta do Estado brasileiro ao tema da inteligência artificial. Especialistas alertam que a falta de regras claras cria um ambiente onde apenas grandes corporações ditam as normas.
A questão também envolve soberania tecnológica. Países que não regularem podem ficar à mercê de tecnologias desenvolvidas em outras jurisdições, sem controle sobre como seus cidadãos são impactados.
Qual é a proposta brasileira de regulação?
O Projeto de Lei 2338/2023 já foi aprovado pelo Senado Federal e agora está sob análise dos deputados federais na Câmara, tratando da regulamentação do uso da IA no Brasil. O texto passou por intensa discussão e sofreu alterações significativas durante sua tramitação.
Como funciona o modelo baseado em risco
A abordagem brasileira segue uma tendência internacional: classificar sistemas de IA conforme o nível de risco que representam. A regulação tenta equilibrar inovação, proteção de direitos e se alinhar com a Estratégia Brasileira de Inteligência Artificial, definindo quais são os setores prioritários e como promover essa transformação digital.
Sistemas de alto risco, como os usados em decisões judiciais ou saúde, teriam regras mais rígidas. Aplicações de baixo risco enfrentariam menos barreiras. O desafio está em definir exatamente onde traçar essas linhas.
O Plano Brasileiro de Inteligência Artificial prevê investimentos de até R$ 23 bilhões nos próximos quatro anos, estabelecendo diretrizes para o desenvolvimento ético, seguro e sustentável da IA no país. O governo brasileiro demonstra que quer regulamentar sem frear a inovação.
A pressão da indústria tecnológica
Organizações da indústria, incluindo a Confederação Nacional da Indústria (CNI), alertaram que o projeto original levaria o país ao “isolamento tecnológico”, e uma versão enfraquecida do projeto acabou sendo aprovada no Senado em dezembro. Essa resistência não é exclusiva do Brasil.
Grandes empresas como Google, Microsoft, Meta e Amazon organizaram oposição contra propostas de regulação abrangente em diversos países. O argumento central é que regras muito rígidas impediriam a inovação e colocariam empresas em desvantagem competitiva.

Quais países já têm leis de controle de IA?
União Europeia: o pioneiro global
A União Europeia adotou em junho de 2024 as primeiras regras mundiais sobre inteligência artificial, com o Regulamento relativo à Inteligência Artificial que será aplicável na íntegra 24 meses após sua entrada em vigor. O AI Act europeu estabelece o padrão mais abrangente até agora.
A proibição dos sistemas de IA que apresentem riscos inaceitáveis começou a partir de 2 de fevereiro de 2025, incluindo manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos e inteligência artificial para pontuação social. A Europa deixou claro: certos usos de IA simplesmente não serão tolerados.
As penalidades são pesadas. O AI Act prevê multas de até 35 milhões de euros ou 7% do faturamento global anual para infrações relacionadas a práticas proibidas. Valores que fazem até gigantes da tecnologia pensarem duas vezes.
Estados Unidos: o mercado sem freios?
Os Estados Unidos não têm nenhuma proposta de lei com regras abrangentes sobre IA para apreciação a sério pelo Congresso. A abordagem americana privilegia a autorregulação e leis setoriais específicas.
Entre 2020 e 2025, houve uma proliferação de leis estaduais de privacidade nos Estados Unidos, com estados como Califórnia, Virgínia, Colorado, Utah e Connecticut aprovando legislações que compartilham fundamentos como garantir transparência no uso de dados e dar controle ao usuário. Cada estado segue seu próprio caminho.
A Califórnia lidera as iniciativas. O governador da Califórnia sancionou recentemente 17 projetos sobre IA que foram convertidos em lei, com disposições que vão desde a proteção contra réplicas digitais de artistas até a proibição de deepfakes relacionados às eleições.
Como a vigilância por IA está sendo regulada?
O reconhecimento facial representa um dos usos mais controversos da inteligência artificial. Após sediar a Copa do Mundo em 2014, o Brasil se tornou um vasto campo de vigilância digital onde as tecnologias de Reconhecimento Facial encontraram solo fértil para se espalhar, graças à promessa de facilitar a identificação de criminosos e a localização de pessoas desaparecidas.
Os números da vigilância no Brasil
São 442 os projetos que utilizam tecnologias de reconhecimento facial na segurança pública no Brasil, com governos de todas as regiões realizando investimentos milionários na tecnologia. A expansão é impressionante e preocupante.
Em abril de 2025, havia no Brasil ao menos 376 projetos de reconhecimento facial ativos, com potencial de vigiar quase 83 milhões de pessoas. Quase metade da população brasileira está sob o olhar de câmeras inteligentes.
Casos que expõem os riscos
O caso mais conhecido de falha dos sistemas de reconhecimento facial ocorreu com o personal trainer João Antônio Trindade Bastos, de 23 anos, que em abril de 2024 foi retirado da arquibancada do Estádio Lourival Batista, em Aracaju (SE), durante a partida final do Campeonato Sergipano, após o sistema confundi-lo com um foragido.
Bastos é negro. E não é coincidência. Estudos têm mostrado que a tecnologia de reconhecimento facial é mais propensa a cometer erros de identificação de rostos de negros e de outras minorias do que de pessoas brancas. A tecnologia reproduz e amplifica preconceitos existentes na sociedade.
O Centro de Estudos de Segurança e Cidadania mapeou 24 casos ocorridos entre 2019 e abril de 2025 nos quais identificou falhas dos sistemas de reconhecimento facial. Cada número representa uma pessoa injustiçada por um erro de máquina.
A falta de transparência preocupa
Especialistas apontam que o uso do reconhecimento facial na segurança pública ocorre apesar das críticas que indicam uma baixa taxa de acerto em relação ao custo e aos riscos envolvidos. Os contratos são frequentemente opacos, sem prestação de contas adequada.
O Ministério da Justiça e Segurança Pública licenciou o uso do Clearview, um controverso software de reconhecimento facial que treinou inicialmente a IA utilizando o rosto de pessoas sem nenhum consentimento delas, para servir na expansão do Projeto Excel. A tecnologia opera em uma zona cinzenta legal.
ChatGPT e IA generativa: como regular o incontrolável?
A explosão dos sistemas de IA generativa como o ChatGPT trouxe novos desafios regulatórios. O ChatGPT alcançou 300 milhões de usuários semanais em 2025, consolidando-se como tecnologia disruptiva enquanto enfrenta desafios éticos, regulatórios e de concorrência.
A OpenAI anunciou mudanças significativas na forma como treina seus modelos, com nova diretriz que enfatiza a busca pela “liberdade intelectual”, permitindo que o ChatGPT responda a uma gama mais ampla de perguntas e ofereça múltiplas perspectivas sobre temas polêmicos.
A empresa enfrenta pressões contraditórias. A OpenAI enfrenta crescentes desafios regulatórios, incluindo uma reclamação de privacidade na Europa relacionada a alucinações difamatórias geradas pelo ChatGPT, destacando os riscos associados a modelos de IA que podem gerar informações falsas sobre indivíduos reais.
Restrições necessárias em áreas sensíveis
A OpenAI atualizou suas Políticas de Uso e Termos de Serviço em outubro de 2025, reforçando que o ChatGPT e demais modelos de linguagem da empresa não devem ser utilizados para oferecer diagnósticos, tratamentos ou qualquer tipo de aconselhamento médico personalizado sem o envolvimento de um profissional licenciado.
A medida reconhece que certos domínios exigem responsabilidade humana inegociável. Máquinas não podem substituir médicos, advogados ou outros profissionais em decisões críticas.
Existe um modelo ideal de regulação?
O Conselho Nacional de Justiça publicou a Resolução nº 615 de 11 de março de 2025, estabelecendo diretrizes para o desenvolvimento, governança, auditoria, monitoramento e uso responsável de soluções que adotam técnicas de inteligência artificial no âmbito do Poder Judiciário. O Brasil busca regular setor por setor.
Princípios fundamentais
O desenvolvimento e uso responsável de soluções de IA pelo Poder Judiciário têm como fundamentos o respeito aos direitos fundamentais e aos valores democráticos, a promoção do bem-estar dos jurisdicionados e a participação e supervisão humana em todas as etapas dos ciclos de desenvolvimento e utilização.
Esses princípios deveriam guiar toda regulação: transparência, supervisão humana, proteção de direitos e possibilidade de contestação de decisões automatizadas.
De acordo com o relatório da ONU, os regimes de governança da IA devem ser globais para evitar “corridas armamentistas” e perda de direitos, e a regulação global teria o papel de detectar e responder a incidentes que emanam de decisões ao longo do ciclo de vida da IA, que abrangem múltiplas jurisdições.
A inteligência artificial não respeita fronteiras nacionais. Um sistema treinado nos Estados Unidos pode afetar brasileiros. Dados coletados na Europa podem alimentar algoritmos na Ásia. A cooperação internacional não é opcional, é imperativa.
Em suma, regulação da inteligência artificial não trata de frear o progresso tecnológico. Trata de garantir que esse progresso beneficie a humanidade sem criar novas formas de opressão, discriminação ou controle social.
O consenso é de que a IA precisa ser regulada, pois não regular seria deixar o cidadão brasileiro à mercê de sistemas que podem ser discriminatórios e que muitas vezes decidem o futuro com base no passado, sem a possibilidade de correção ou supervisão. O futuro que escolhermos construir hoje determinará o tipo de sociedade que teremos nas próximas décadas.
As propostas existentes representam diferentes visões sobre o equilíbrio entre inovação e proteção. A Europa aposta em regras rígidas. Os Estados Unidos preferem a liberdade de mercado. O Brasil tenta encontrar um caminho intermediário. Não existe resposta fácil, mas a conversa precisa incluir todos os afetados – não apenas empresas e governos, mas cidadãos comuns cujas vidas serão transformadas por essas tecnologias.
Perguntas Frequentes
Quando a lei brasileira de IA entra em vigor?
O PL 2338/2023 ainda tramita na Câmara dos Deputados. Após aprovação, haverá período de adaptação antes da aplicação integral.
O reconhecimento facial é proibido no Brasil?
Não há proibição geral. Existem 442 projetos ativos de reconhecimento facial no país, principalmente em segurança pública.
Como a Europa pune violações da lei de IA?
Multas podem chegar a 35 milhões de euros ou 7% do faturamento global anual para práticas proibidas.
ChatGPT pode dar diagnósticos médicos?
Não. A OpenAI proíbe uso do ChatGPT para diagnósticos ou tratamentos sem supervisão de profissional licenciado.
Qual país tem a regulação de IA mais rigorosa?
A União Europeia, com o AI Act aprovado em 2024, estabelece as regras mais abrangentes globalmente.


