IA: entre algoritmos e direitos

O avanço da inteligência artificial impõe ao Brasil o desafio urgente de estabelecer uma regulação que proteja os direitos fundamentais, sem travar a inovação tecnológica

Por Paulo Henrique Nobre

No Brasil e no mundo, a inteligência artificial (IA) se tornou tema central de debates públicos, legislativos e acadêmicos. À medida que a tecnologia avança em ritmo acelerado, cresce também a urgência em estabelecer um marco regulatório capaz de proteger direitos fundamentais — como privacidade, liberdade de expressão e não discriminação — sem engessar a inovação. Esse é o ponto de partida da grande disputa contemporânea: regular ou não regular, e, principalmente, como regular.

“O grande desafio hoje no Brasil é encontrar esse ponto de equilíbrio delicado. Como protegemos os direitos fundamentais sem, ao mesmo tempo, frear a inovação que a IA pode trazer?”, questiona Karina Santos, coordenadora de Democracia e Tecnologia no Instituto de Tecnologia e Sociedade (ITS), mestre em Comunicação Política e uma das principais especialistas brasileiras no tema. “O que está em jogo é enorme. Se a gente olha para o Projeto de Lei 2.338/2023, por exemplo, ele traz uma carga regulatória mais pesada, inspirada no modelo europeu, e que pode acabar freando a inovação, especialmente no serviço público, onde a IA tem um potencial transformador”, afirma, destacando também que o País precisa de uma regulação que seja indutora da inovação responsável, garantindo segurança jurídica para desenvolvedores e protegendo direitos fundamentais sem criar muitos freios.

De fato, a proposta em discussão no Senado segue uma linha próxima à do Artificial Intelligence Act europeu, que prioriza a mitigação de riscos. Mas, segundo Santos, o Brasil precisa de um caminho próprio: “Não diria que estamos atrasados, mas estamos em um momento crucial. Precisamos definir uma posição que reflita nossas próprias necessidades e capacidades, buscando um caminho original que promova a inovação nacional e proteja direitos, sem necessariamente adotar modelos que não se encaixam tão bem à nossa realidade”.

Eleições sob influência algorítmica

Uma das áreas mais sensíveis à ação de tecnologias baseadas em IA é o processo eleitoral. Automação de conteúdo, manipulação de dados e o uso de deepfakes já fazem parte do debate político, e não sem riscos.

“Os principais riscos incluem a manipulação de conteúdo e a desinformação”, aponta Karina Santos. “Alguns estudos já mostram que quando um candidato usa IA generativa em seus anúncios, ele pode ser percebido como menos confiável. Há um efeito bumerangue em que a tentativa de manipular com IA pode acabar prejudicando o próprio candidato”. No entanto, ela alerta que o “apocalipse” esperado ainda não se concretizou no Brasil.

A Resolução 23.732/2024 do Tribunal Superior Eleitoral (TSE) passou a exigir que peças de propaganda indiquem o uso de IA, mas a especialista avalia que ainda há um longo caminho. “A eficácia desses avisos ainda é um ponto de interrogação. Muitos eleitores não os percebem. A forma como esses alertas são redigidos e apresentados impacta diretamente a percepção pública.”

A urgência da vigilância

A IA já está em uso no Poder Judiciário brasileiro. Ferramentas como predição de sentenças ou triagem de processos prometem mais eficiência, mas também trazem riscos sérios de viés, opacidade e discriminação.

“O principal risco é o viés e a discriminação. Se não tivermos protocolos muito claros e uma supervisão humana rigorosa, podemos ver a IA reproduzindo e até amplificando preconceitos que já existem nos dados com os quais ela foi treinada”, alerta Santos. “Já tivemos casos de decisões baseadas em precedentes que a IA inventou”. Segundo ela, é fundamental que o uso da IA seja acompanhado de padrões de auditoria, monitoramento e transparência nos sistemas. “Nós precisamos auditar como essas decisões foram tomadas. E a capacitação de juízes e advogados é essencial e imprescindível para que eles entendam como essas ferramentas funcionam e garantam a proteção dos dados e o sigilo processual.”

Na formulação de políticas públicas, o dilema é semelhante. A IA pode ajudar a distribuir melhor os recursos e otimizar ações governamentais, mas, sem controle democrático e transparência, ela pode apenas reforçar desigualdades. “É vital que os sistemas sejam transparentes, que possamos entender como eles chegam a determinadas conclusões e que haja possibilidade de revisão humana. A IA deve ser uma ferramenta para ampliar o acesso a direitos, não para restringi-los”, continua Santos

Santos destaca ainda a experiência feita no estado de Goiás — que aprovou uma legislação de IA com foco em modelos de código aberto e regulação a posteriori como uma alternativa viável à hiper-regulação prévia.

Um marco para o futuro

O projeto de lei em discussão no Congresso define princípios e diretrizes para o uso da IA, mas ainda enfrenta críticas por possíveis excessos e lacunas. A especialista Karina Santos aponta elementos essenciais para que uma regulação seja efetiva: “Precisamos de mecanismos robustos de auditoria e transparência, garantia de revisão humana em decisões críticas, fomento a modelos de código aberto, incentivos para pesquisa e desenvolvimento e capacitação de profissionais. A regulação deve buscar um equilíbrio em que a IA seja um motor de progresso, mas sempre alinhada aos nossos valores democráticos e aos direitos dos cidadãos”.

Para isso, é preciso investir em governança algorítmica, o que Santos define como “um conjunto de regras e processos que garantem que a IA seja desenvolvida e usada de forma ética e responsável”. E isso vai além da transparência: exige auditabilidade, responsabilização e canais acessíveis para denúncias, além de educação digital e letramento em IA para que a sociedade compreenda e questione os impactos dessas tecnologias em suas vidas.

Sem regulação, os riscos são claros: agravamento de desigualdades, violações de direitos, manipulação de informações e perda de confiança em instituições. Por outro lado, uma regulação excessivamente restritiva pode isolar o Brasil da chamada “corrida global da IA”.

“O Brasil tem um potencial gigantesco para ser protagonista na IA. Mas o papel da sociedade civil e da imprensa é insubstituível. A sociedade deve ser voz ativa na defesa de direitos, e a imprensa tem uma responsabilidade vital de informar, fiscalizar e promover um debate público qualificado sobre os impactos e as oportunidades da IA em nossas vidas”, diz Santos.

x

Utilizamos cookies e outras tecnologias para lhe oferecer uma experiência de navegação melhor, analisar o tráfego do site e personalizar o conteúdo, de acordo com a nossa Política de Privacidade. Ao continuar navegando, você concorda com estas condições.