A aceleração da inteligência artificial colocou a Europa perante um dilema estrutural: como promover inovação aberta e competitiva sem perder controlo sobre tecnologias com impacto direto na segurança, nas infraestruturas críticas e na autonomia política. A soberania europeia em inteligência artificial deixou de ser um conceito abstrato para se tornar um problema concreto de arquitetura regulatória, económica e institucional.
Relatórios recentes da Comissão Europeia evidenciam essa tensão. Por um lado, a União Europeia aposta num ecossistema de IA aberto, colaborativo e assente em software open source. Por outro, enfrenta as implicações de tecnologias de uso dual, desenvolvidas em contexto civil mas facilmente aplicáveis a domínios sensíveis como defesa, segurança ou resiliência estatal.

Quando a inovação civil encontra a segurança
A chamada dual-use AI refere-se a sistemas criados para fins civis — como análise de dados, otimização logística ou visão computacional — que podem ser rapidamente adaptados a usos estratégicos. É nesta zona cinzenta que surgem alguns dos principais bloqueios do modelo europeu.
A Europa investe fortemente em investigação e inovação civil, mas mantém uma separação rígida entre os universos civil e militar. O resultado é um ecossistema onde startups e centros de I&D desenvolvem tecnologia avançada, mas enfrentam incerteza regulatória quando essa tecnologia se aproxima de aplicações sensíveis. Para fundadores e investidores, essa ambiguidade traduz-se em risco acrescido e dificuldade em escalar.

Inovação forte, escala frágil
Este desfasamento ajuda a explicar um padrão recorrente no ecossistema europeu: elevada capacidade científica e tecnológica, mas fraca transformação dessa inovação em soluções de escala global. O “vale da morte” entre protótipo e adoção institucional é particularmente profundo quando a tecnologia toca em áreas reguladas ou estratégicas.
Ao contrário do que sucede nos Estados Unidos, onde o procurement público e o setor da defesa funcionam como motores de escala tecnológica, a Europa mantém processos fragmentados e prudentes, frequentemente incompatíveis com o ritmo da inovação. O risco não é apenas económico. É também estratégico, já que muitas tecnologias desenvolvidas na Europa acabam por ser adquiridas ou exploradas fora do continente.

Open source como resposta estrutural
É neste contexto que o open source surge, nos documentos europeus, não como uma opção ideológica, mas como uma resposta estrutural possível. Um ecossistema de IA baseado em modelos abertos permite maior transparência, auditabilidade e controlo coletivo sobre tecnologias críticas. Ao reduzir a dependência de plataformas proprietárias externas, o open source é apresentado como um instrumento de soberania tecnológica.
Esta aposta responde também a uma preocupação central dos decisores públicos: a opacidade dos sistemas de IA. Em contextos de uso dual, a capacidade de compreender, auditar e adaptar modelos é tão relevante quanto a sua performance. O open source oferece uma base mais compatível com estes requisitos, ainda que não elimine todos os riscos.

Onde os dois caminhos se cruzam
A ligação entre IA de uso dual e open source é mais implícita do que assumida nos relatórios oficiais. Ainda assim, o cruzamento é evidente. Muitos dos riscos associados ao uso dual, como falta de transparência, dificuldade de supervisão, dependência tecnológica, são precisamente aqueles que os modelos abertos procuram mitigar.
Deste cruzamento emerge uma estratégia europeia em construção. Em vez de competir diretamente com os grandes modelos proprietários globais em escala ou capital, a Europa procura desenhar uma arquitetura alternativa, baseada em standards abertos, confiança regulada e governação pública. Não se trata apenas de vencer uma corrida tecnológica, mas de definir as regras do terreno onde essa corrida se desenrola.

Startups no centro do paradoxo
As startups europeias estão no centro deste dilema. São o principal motor da inovação em IA, mas também as mais expostas à incerteza regulatória e à ausência de caminhos claros entre inovação civil e adoção em contextos estratégicos. Sem mecanismos de transição bem definidos, o risco é travar a inovação ou empurrá-la para fora da Europa.
Ao mesmo tempo, estas empresas podem beneficiar de um modelo europeu mais coerente, onde open source, regulação e política industrial funcionem de forma articulada, e não como forças contraditórias.

Portugal no mapa da soberania europeia
Neste contexto, Portugal assume relevância. O país tem vindo a ganhar peso em áreas de core AI, apoiado por centros de investigação, talento qualificado e um ecossistema de startups em crescimento. Esta posição cria oportunidades para integrar cadeias de valor europeias ligadas à IA aberta e a aplicações críticas.
Mas também expõe fragilidades. Sem alinhamento entre políticas europeias e execução nacional, Portugal arrisca-se a permanecer como fornecedor de talento e protótipos, sem capturar valor estratégico ou económico de longo prazo.

A arquitetura invisível da competitividade
A soberania europeia em inteligência artificial não será decidida apenas por avanços técnicos ou anúncios políticos. Dependerá da capacidade de alinhar inovação, regulação e estratégia industrial num modelo coerente. Entre o open source e o uso dual, a Europa está a tentar construir uma arquitetura invisível de competitividade.
O sucesso desse modelo não se medirá apenas em quotas de mercado, mas na capacidade de a Europa manter controlo sobre as tecnologias que moldam a sua segurança, a sua economia e o seu futuro digital.






