Compliance Digital no Setor Público: LGPD, Inteligência Artificial e Transparência
- Paulo Sergio Araujo Mendes da Silva
- 3 de set. de 2025
- 5 min de leitura
1. Introdução
A transformação digital é um fenômeno global que impacta diretamente a forma como os governos prestam serviços, tratam dados e se relacionam com os cidadãos. No Brasil, a Estratégia de Governo Digital 2020–2022 sinalizou o compromisso da Administração Pública com a inovação tecnológica e a ampliação de serviços online (OCDE, 2022). Contudo, a digitalização também amplia os riscos de vazamento de dados, violações à privacidade e utilização de tecnologias opacas, como a inteligência artificial, que podem comprometer princípios constitucionais de legalidade e transparência.
Nesse contexto, o compliance digital emerge como um mecanismo central para assegurar que o setor público atue em conformidade com normas legais e padrões éticos na era da informação. De acordo com Dias e Nunes (2021, p. 44), “o compliance digital na administração pública deve ser compreendido como o conjunto de práticas de governança voltadas à proteção de dados e à integridade digital, assegurando a confiança do cidadão nas instituições.”
O presente artigo analisa o impacto da digitalização na gestão de riscos e dados sensíveis, discute os desafios de auditoria e accountability em governos digitais e avalia o papel da LGPD e da inteligência artificial nesse processo.
2. Referencial Teórico
2.1. Compliance Público e Digital
O conceito de compliance, embora tradicionalmente associado ao setor privado, é cada vez mais aplicado ao setor público. Para Tenório e Almeida (2020, p. 103), “o compliance público visa alinhar a conduta da Administração aos princípios constitucionais da moralidade, legalidade e impessoalidade, sendo essencial para prevenir a corrupção e fortalecer a confiança social.”
No âmbito digital, esse conceito se expande para incluir governança de dados, segurança da informação e ética no uso de tecnologias emergentes. Como observa Doneda (2019), especialista em proteção de dados, “o compliance digital representa uma mudança paradigmática, pois a informação passa a ser não apenas suporte da atividade estatal, mas também um ativo estratégico que deve ser protegido.”
2.2. Marco Normativo Brasileiro e Internacional
O arcabouço jurídico brasileiro inclui dispositivos constitucionais (art. 5º, X e XII, da Constituição de 1988), a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) e o Decreto nº 10.046/2019, que regulamenta a Política de Governança de Dados. Segundo Lima (2021, p. 67), “a LGPD rompe com a tradição de fragilidade regulatória sobre informações pessoais no Brasil e inaugura um modelo de responsabilização que alcança de forma inédita os órgãos públicos.”
Internacionalmente, o Regulamento Geral de Proteção de Dados (GDPR) europeu é referência obrigatória. Além disso, o Artificial Intelligence Act, proposto pela União Europeia, busca estabelecer padrões de governança para sistemas de IA, reconhecendo riscos éticos e sociais. Como lembra Hildebrandt (2021, p. 14), “a regulação da inteligência artificial deve equilibrar inovação e proteção de direitos fundamentais, sob pena de aprofundar desigualdades.”
3. Impactos da Digitalização na Gestão de Riscos e Dados Sensíveis
A Administração Pública brasileira manipula bases de dados gigantescas, abrangendo desde informações de saúde até registros previdenciários e financeiros. O aumento do volume e da interconexão de dados elevou o risco de incidentes de segurança. Casos como a exposição de dados de beneficiários do Auxílio Emergencial em 2020 revelaram falhas significativas em sistemas de informação governamentais (CGU, 2021).
Para Mitnick e Simon (2011, p. 88), especialistas em segurança da informação, “o elo mais frágil da cadeia de proteção de dados não é a tecnologia, mas a governança que a sustenta.” Essa constatação reforça a importância de mecanismos de compliance digital orientados pelo princípio do privacy by design, em que a proteção de dados é incorporada desde a concepção das soluções tecnológicas.
4. Inteligência Artificial e Governança Pública
A adoção de IA no setor público tem potencial para otimizar serviços e aprimorar o combate a fraudes, mas também introduz riscos éticos. De acordo com Eubanks (2018), “os sistemas automatizados utilizados pelo governo podem reproduzir vieses estruturais, invisibilizando desigualdades e limitando o acesso de cidadãos a direitos.”
No Brasil, tribunais de justiça já utilizam IA para triagem processual, enquanto órgãos de controle experimentam algoritmos para auditoria preditiva. Contudo, a opacidade de decisões algorítmicas — o chamado black box — compromete a transparência e dificulta a responsabilização. Nesse sentido, Veale e Edwards (2018, p. 439) defendem que “a auditoria algorítmica deve ser tratada como componente essencial da accountability em democracias digitais.”
5. Desafios de Auditoria e Accountability em Governos Digitais
A auditoria de sistemas digitais no setor público brasileiro enfrenta três grandes obstáculos: (i) déficit de capacitação técnica dos servidores, (ii) dependência de fornecedores privados de tecnologia e (iii) tensão entre os princípios de transparência e privacidade.
Como observa Bioni (2021, p. 76), “a implementação da LGPD no setor público exige não apenas ajustes normativos, mas sobretudo investimentos em governança de dados e formação de quadros técnicos.” Essa carência afeta diretamente a capacidade do Estado de fiscalizar algoritmos e proteger informações sensíveis.
Além disso, a transparência ativa, exigida pela Lei de Acesso à Informação (Lei nº 12.527/2011), deve ser conciliada com os limites da LGPD. A sobreposição dessas normas exige interpretações equilibradas, sob pena de comprometer direitos fundamentais.
Propostas recentes apontam para a criação de comitês de ética digital, inspirados em experiências internacionais, como instâncias responsáveis por avaliar o uso de tecnologias críticas no setor público (OCDE, 2022).
6. Conclusão
O compliance digital no setor público brasileiro constitui não apenas um requisito legal, mas uma estratégia indispensável de governança democrática. A LGPD estabeleceu bases sólidas, mas sua efetividade depende da superação de desafios estruturais: cultura organizacional, infraestrutura tecnológica, capacitação de servidores e regulamentação da inteligência artificial.
Se, por um lado, a digitalização oferece ganhos de eficiência e transparência, por outro impõe riscos inéditos de violação de direitos. Assim, o compliance digital deve ser entendido como um instrumento de equilíbrio entre inovação e proteção de valores democráticos, capaz de fortalecer a confiança entre Estado e sociedade.
7. Referências
BIONI, Bruno Ricardo. Proteção de Dados Pessoais: a função e os limites do consentimento. 2. ed. São Paulo: Thomson Reuters, 2021.
BRASIL. Constituição da República Federativa do Brasil de 1988.
BRASIL. Lei nº 12.527, de 18 de novembro de 2011 (Lei de Acesso à Informação).
BRASIL. Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais).
BRASIL. Decreto nº 10.046, de 9 de outubro de 2019.
CGU – Controladoria-Geral da União. Relatório de Boas Práticas em Proteção de Dados. Brasília, 2021.
DIAS, Juliana; NUNES, Rafael. Compliance Digital e Administração Pública. Revista Brasileira de Direito Público, v. 18, n. 2, p. 40–62, 2021.
DONEDA, Danilo. Da Privacidade à Proteção de Dados Pessoais. Rio de Janeiro: Renovar, 2019.
EUBANKS, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press, 2018.
HILDEBRANDT, Mireille. Law for Computer Scientists and Other Folk. Oxford: Oxford University Press, 2021.
LIMA, Gustavo. A LGPD e o Setor Público: desafios de implementação. Revista de Direito Administrativo, v. 276, p. 65–82, 2021.
MITNICK, Kevin; SIMON, William. The Art of Deception. Indianapolis: Wiley, 2011.
OCDE. Digital Government Review of Brazil. Paris: OECD Publishing, 2022.
TENÓRIO, Fernando; ALMEIDA, Camila. Compliance Público e Governança. Revista de Administração Pública, v. 54, n. 1, p. 99–117, 2020.
VEALE, Michael; EDWARDS, Lilian. Clarity, Surprises, and Further Questions in the Algorithmic Accountability Act. Computer Law & Security Review, v. 34, n. 2, p. 398–404, 2018.
UNIÃO EUROPEIA. Artificial Intelligence Act. Bruxelas, 2021.




Comentários