• Notícias
  • Eventos
  • Entrar
    Registar
    Sobre
    Ajuda

Notícia 

  • Todos
  • Atualidade
  • Emprendedorismo
  • Economia
  • Tecnologia
  • Empresas
  • Eventos
  • Guias
  • Entrevista
  • Voltar

O Direito à Explicabilidade: quando o algoritmo deixa de ser uma caixa-negra

José Mendes  José Mendes
  4 min

Decisão do Supremo espanhol sobre o direito à explicabilidade redefine a transparência algorítmica na Europa.

O direito à explicabilidade, até há pouco um conceito reservado aos debates sobre ética da inteligência artificial, ganhou expressão jurídica com a decisão histórica do Tribunal Supremo de Espanha. Ao obrigar o Estado espanhol a revelar o código-fonte do algoritmo que decide quem tem acesso ao “bono social” elétrico, o Supremo abriu uma nova frente no direito europeu: os cidadãos passam a poder exigir que a Administração explique como as máquinas decidem.

O caso, movido pela Fundación Civio, pôs a nu um dilema essencial da era digital: quando o poder público transfere decisões para algoritmos, o dever de transparência não desaparece, transforma-se. O Supremo foi claro ao afirmar que o segredo técnico ou a propriedade intelectual não se sobrepõem ao direito à informação quando estão em causa direitos fundamentais. É uma viragem histórica: o algoritmo, antes protegido pela opacidade técnica e jurídica, passa a integrar o domínio público da responsabilidade democrática.

Foto de Coffeemill em Freepik

Um precedente com impacto europeu

Esta decisão antecipa o espírito do Regulamento Europeu da Inteligência Artificial (AI Act), que obriga à explicabilidade e rastreabilidade de todos os sistemas classificados como “de alto risco”. A jurisprudência espanhola dá-lhe corpo prático: não basta garantir que o sistema é seguro, é preciso garantir que é compreensível.

O impacto ultrapassa as fronteiras espanholas. Por um lado, pressiona os restantes Estados-membros a criarem mecanismos de auditoria e divulgação da lógica algorítmica nas suas administrações públicas. Por outro, estabelece um precedente que reforça a leitura dos direitos consagrados no AI Act e no Regulamento Geral de Proteção de Dados (RGPD): o cidadão tem o direito de saber “porquê” e “como” foi alvo de uma decisão automatizada.

Com efeito, o Regulamento Europeu da Inteligência Artificial (AI Act), aprovado em 2024, já introduziu o conceito de “explicabilidade algorítmica” como dever de todas as entidades que utilizem sistemas de decisão automatizada. Para a União Europeia, transparência, rastreabilidade e responsabilidade tornam-se os três pilares da confiança digital. A decisão do Tribunal Supremo de Espanha funciona, assim, como primeiro teste real à sua aplicação prática.

Foto de Wahyu T em Freepik

O que muda para os cidadãos

A decisão abre caminho a uma nova forma de cidadania digital. O direito à explicabilidade deixa de ser privilégio técnico e torna-se garantia jurídica: qualquer pessoa afetada por uma decisão automatizada, seja na atribuição de um subsídio, na avaliação de um crédito ou na definição de um perfil de risco, pode exigir acesso aos critérios que determinaram o resultado.

Mais do que conhecer o código, trata-se de compreender a lógica: que variáveis pesaram mais? Que ponderações foram aplicadas? O sistema discrimina, ainda que de forma indireta? Estas perguntas, antes sem resposta, passam a ter fundamento legal. O Supremo espanhol reconhece que a opacidade algorítmica é incompatível com o Estado de direito.


E para as empresas?

O precedente também redefine o contexto empresarial. À medida que as empresas incorporam sistemas automatizados ‑ na triagem de candidatos, na concessão de crédito ou na segmentação de clientes ‑ a exigência de explicabilidade transforma-se em critério de conformidade legal e ética.

As organizações que tratam dados pessoais ou utilizam IA para decisões com impacto em pessoas terão de reforçar a rastreabilidade dos seus sistemas. Isso implica documentação técnica, auditorias internas e capacidade de explicar, de forma compreensível, decisões complexas. Num mercado atento à ética digital, a opacidade pode custar caro: multas, perda de confiança e danos reputacionais. A transparência, pelo contrário, é um ativo competitivo.

Foto de Freepik

Portugal e o desafio da explicação

Em Portugal, ainda sem jurisprudência comparável, o precedente espanhol e o AI Act colocam o país perante uma inevitabilidade. A administração pública portuguesa já recorre a algoritmos em áreas sensíveis, da fiscalidade à saúde, e terá de garantir que esses sistemas são auditáveis e compreensíveis.

O desafio é tanto jurídico como cultural. É necessário formar técnicos, juristas e decisores para uma nova gramática da transparência, onde o cidadão não apenas “aceita” a decisão, mas compreende a sua lógica. O direito à explicabilidade é, no fundo, o prolongamento natural do direito à dignidade: ninguém deve ser classificado ou excluído por um processo que não possa entender.

A decisão do Supremo espanhol marca um ponto de viragem na relação entre tecnologia e democracia. Ao afirmar que a transparência é inseparável da automatização, o tribunal resgata um princípio essencial: o poder, mesmo quando digital, continua a dever explicações.

A partir de agora, cada algoritmo que decide sobre a vida das pessoas carrega também uma obrigação: a de se explicar.


Image
José Mendes
Jornalista e sociólogo, sou um entusiasta das relações humanas e interesso-me particularmente por questões de liderança e problemáticas organizacionais. Encontra-se desde 201...
Invest Smart. Choose Boston.
Ao inscrever-me na MyBusiness.com aceito os termos e condições do serviço . O utilizador poderá qualquer momento proceder à actualização ou eliminação dos dados fornecidos.
BE INSPIRED!
  • Discover People
  • Learn New Skills
  • Find New Markets
  • Digitize Your Business
Eu não sei qual é a chave para o sucesso, mas a chave para o fracasso é tentar agradar a todos
Bill Cosby
Comediante Americano
Próximos Eventos
  • © 2026 MyBusiness.com
  • Política de Privacidade
  • Termos e Condições
Powered By