O Direito à Explicabilidade: quando o algoritmo deixa de ser uma caixa-negra

Decisão do Supremo espanhol sobre o direito à explicabilidade redefine a transparência algorítmica na Europa.

Foto de EyeEm em Freepik

O direito à explicabilidade, até há pouco um conceito reservado aos debates sobre ética da inteligência artificial, ganhou expressão jurídica com a decisão histórica do Tribunal Supremo de Espanha. Ao obrigar o Estado espanhol a revelar o código-fonte do algoritmo que decide quem tem acesso ao “bono social” elétrico, o Supremo abriu uma nova frente no direito europeu: os cidadãos passam a poder exigir que a Administração explique como as máquinas decidem.

O caso, movido pela Fundación Civio, pôs a nu um dilema essencial da era digital: quando o poder público transfere decisões para algoritmos, o dever de transparência não desaparece, transforma-se. O Supremo foi claro ao afirmar que o segredo técnico ou a propriedade intelectual não se sobrepõem ao direito à informação quando estão em causa direitos fundamentais. É uma viragem histórica: o algoritmo, antes protegido pela opacidade técnica e jurídica, passa a integrar o domínio público da responsabilidade democrática.

Foto de Coffeemill em Freepik

Um precedente com impacto europeu

Esta decisão antecipa o espírito do Regulamento Europeu da Inteligência Artificial (AI Act), que obriga à explicabilidade e rastreabilidade de todos os sistemas classificados como “de alto risco”. A jurisprudência espanhola dá-lhe corpo prático: não basta garantir que o sistema é seguro, é preciso garantir que é compreensível.

O impacto ultrapassa as fronteiras espanholas. Por um lado, pressiona os restantes Estados-membros a criarem mecanismos de auditoria e divulgação da lógica algorítmica nas suas administrações públicas. Por outro, estabelece um precedente que reforça a leitura dos direitos consagrados no AI Act e no Regulamento Geral de Proteção de Dados (RGPD): o cidadão tem o direito de saber “porquê” e “como” foi alvo de uma decisão automatizada.

Com efeito, o Regulamento Europeu da Inteligência Artificial (AI Act), aprovado em 2024, já introduziu o conceito de “explicabilidade algorítmica” como dever de todas as entidades que utilizem sistemas de decisão automatizada. Para a União Europeia, transparência, rastreabilidade e responsabilidade tornam-se os três pilares da confiança digital. A decisão do Tribunal Supremo de Espanha funciona, assim, como primeiro teste real à sua aplicação prática.

Foto de Wahyu T em Freepik

O que muda para os cidadãos

A decisão abre caminho a uma nova forma de cidadania digital. O direito à explicabilidade deixa de ser privilégio técnico e torna-se garantia jurídica: qualquer pessoa afetada por uma decisão automatizada, seja na atribuição de um subsídio, na avaliação de um crédito ou na definição de um perfil de risco, pode exigir acesso aos critérios que determinaram o resultado.

Mais do que conhecer o código, trata-se de compreender a lógica: que variáveis pesaram mais? Que ponderações foram aplicadas? O sistema discrimina, ainda que de forma indireta? Estas perguntas, antes sem resposta, passam a ter fundamento legal. O Supremo espanhol reconhece que a opacidade algorítmica é incompatível com o Estado de direito.

E para as empresas?

O precedente também redefine o contexto empresarial. À medida que as empresas incorporam sistemas automatizados ‑ na triagem de candidatos, na concessão de crédito ou na segmentação de clientes ‑ a exigência de explicabilidade transforma-se em critério de conformidade legal e ética.

As organizações que tratam dados pessoais ou utilizam IA para decisões com impacto em pessoas terão de reforçar a rastreabilidade dos seus sistemas. Isso implica documentação técnica, auditorias internas e capacidade de explicar, de forma compreensível, decisões complexas. Num mercado atento à ética digital, a opacidade pode custar caro: multas, perda de confiança e danos reputacionais. A transparência, pelo contrário, é um ativo competitivo.

Foto de Freepik

Portugal e o desafio da explicação

Em Portugal, ainda sem jurisprudência comparável, o precedente espanhol e o AI Act colocam o país perante uma inevitabilidade. A administração pública portuguesa já recorre a algoritmos em áreas sensíveis, da fiscalidade à saúde, e terá de garantir que esses sistemas são auditáveis e compreensíveis.

O desafio é tanto jurídico como cultural. É necessário formar técnicos, juristas e decisores para uma nova gramática da transparência, onde o cidadão não apenas “aceita” a decisão, mas compreende a sua lógica. O direito à explicabilidade é, no fundo, o prolongamento natural do direito à dignidade: ninguém deve ser classificado ou excluído por um processo que não possa entender.

A decisão do Supremo espanhol marca um ponto de viragem na relação entre tecnologia e democracia. Ao afirmar que a transparência é inseparável da automatização, o tribunal resgata um princípio essencial: o poder, mesmo quando digital, continua a dever explicações.

A partir de agora, cada algoritmo que decide sobre a vida das pessoas carrega também uma obrigação: a de se explicar.

DEIXE UMA RESPOSTA

Por favor escreva o seu comentário!
Por favor coloque o seu nome aqui

2 × 1 =