Agenda do Governo para a Inteligência Artificial: O Futuro em Giratórias

BOX DE FACTOS
- Portugal apresentou nova Agenda Nacional para a Inteligência Artificial.
- O plano assenta em financiamento europeu, parcerias público-privadas e contratação externa.
- Especialistas alertam para riscos jurídicos, éticos e de exclusão das PME.
- A Administração Pública continua sem quadros técnicos próprios em IA.
- Persistem dúvidas sobre transparência, auditoria algorítmica e supervisão humana.
Agenda do Governo para a IA
O Futuro em Giratórias
A nova Agenda do Governo para a Inteligência Artificial chega envolta no ritual habitual: gráficos coloridos, promessas visionárias e uma narrativa triunfalista onde Portugal surge invariavelmente «na linha da frente da inovação europeia». É um discurso ensaiado, repetido há décadas, mudando apenas o nome da tecnologia da moda — ontem era a internet, depois a cloud, a seguir o blockchain, hoje a IA.
O problema não está na ambição. Está no vazio que a sustenta.
O país das estratégias circulares
Portugal desenvolveu uma competência singular: a capacidade de produzir estratégias que nunca saem do papel. Documentos perfeitos, cheios de palavras anglo-saxónicas e métricas vagas, que giram sobre si próprios como rotundas administrativas — entram fundos europeus, circulam consultoras, saem relatórios finais. O trânsito anda, mas ninguém chega a destino.
A Agenda para a IA não foge a esta geometria circular. Promete transformação estrutural sem tocar na estrutura. Fala de inovação sem reformar o Estado. Invoca eficiência enquanto preserva intacta a máquina burocrática que historicamente sufoca qualquer iniciativa tecnológica.
Quem realmente beneficiará da IA estatal
O risco é evidente e já foi identificado até nos parágrafos mais cautelosos do próprio documento: as medidas tenderão a beneficiar sobretudo os actores com maior capacidade administrativa e financeira.
Traduzindo para linguagem corrente: as grandes consultoras internacionais, os integradores históricos do Estado e os habituais intermediários do orçamento público.
As PME tecnológicas portuguesas — aquelas que inovam de facto — continuarão excluídas por concursos públicos labirínticos, requisitos financeiros absurdos e prazos de pagamento incompatíveis com a sobrevivência empresarial.
A IA pública portuguesa arrisca nascer concentrada, dependente e estruturalmente capturada.
Tecnologia sem soberania é dependência
Não existe soberania digital quando o Estado não compreende os sistemas que utiliza. Comprar soluções de IA «chave-na-mão» pode ser rápido, mas transforma a Administração Pública numa utilizadora passiva de algoritmos que não controla.
Sem código aberto, sem auditoria independente e sem capacidade técnica interna, a decisão automatizada deixa de ser instrumento e passa a ser autoridade.
O Estado deixa de decidir — limita-se a aceitar resultados estatísticos produzidos por sistemas opacos, treinados em dados que ninguém escrutinou e optimizados para critérios que raramente coincidem com o interesse público.
O abismo jurídico e ético
A pressa em «não ficar para trás» encerra talvez o maior perigo desta agenda: a criação de soluções tecnologicamente avançadas, mas juridicamente frágeis.
Na Administração Pública, isto não é um detalhe técnico. É uma bomba constitucional.
Decisões automatizadas tocam directamente em direitos fundamentais: igualdade, não discriminação, proteção de dados, direito à explicação, contraditório e responsabilização do decisor humano.
Um algoritmo não responde em tribunal. Um modelo estatístico não presta contas ao cidadão. E nenhum despacho ministerial substitui o Estado de Direito.
A ausência gritante de pessoas
Curiosamente, quase tudo na Agenda fala de tecnologia — e muito pouco de pessoas.
Não existem carreiras técnicas atractivas para especialistas em IA no Estado. Não existe formação séria para dirigentes públicos. Não existe cultura de engenharia de desenvolvimento de software público. Não existe capacidade interna de validação dos sistemas adquiridos.
Fala-se em inovação como quem compra maquinaria, esquecendo que a inteligência — artificial ou não — nasce sempre de pessoas competentes, livres e bem pagas.
A ilusão do salto tecnológico
A história recente ensina-nos algo incómodo: não se salta etapas com tecnologia. Países sem produtividade não se tornam avançados por decreto digital. Economias frágeis não se reinventam com dashboards.
Sem indústria, sem ciência aplicada, sem mercado interno robusto e sem administração reformada, a IA será apenas mais uma camada cosmética sobre um edifício estruturalmente degradado.
Um verniz futurista sobre paredes antigas.
A IA como novo instrumento de desigualdade
Há ainda um efeito colateral raramente dito em voz alta: a IA, quando implementada sem desenho social e sem mecanismos de correção, tende a amplificar desigualdades pré-existentes.
Num país onde a assimetria de recursos é estrutural — entre Estado central e autarquias, entre grandes empresas e PME, entre áreas metropolitanas e interior — a introdução acelerada de IA pode funcionar como uma máquina de concentração: quem já tem dados, pessoas e capacidade administrativa melhora rapidamente; quem não tem, perde terreno a cada iteração.
O resultado é previsível: uma Administração Pública modernizada apenas nas vitrines mais visíveis, enquanto vastas zonas do país ficam entregues a serviços mais lentos, menos assistidos e, paradoxalmente, mais opacos. A cidadania torna-se desigual não por lei, mas por latência — o tempo de resposta passa a ser um marcador invisível de classe e território.
Se, além disso, os modelos forem treinados com dados históricos contaminados por discriminação, burocracia e desigualdade, a IA não corrige o passado: cristaliza-o. E fá-lo com uma aura de neutralidade matemática que desarma o contraditório e anestesia a crítica.
É aqui que a rotunda se torna perigosa: a propaganda dirá «eficiência», mas a realidade poderá dizer «exclusão automatizada».
Conclusão: a rotunda do futuro
A Inteligência Artificial pode ser uma ferramenta extraordinária de modernização do Estado português. Mas apenas se for tratada como política pública séria — e não como exercício de marketing institucional.
Sem soberania tecnológica, sem inclusão das PME, sem rigor jurídico e sem competência interna, esta agenda arrisca transformar-se em mais uma giratória estratégica: muito movimento, nenhuma direcção.
O futuro não se governa em PowerPoint.
Governa-se com coragem, conhecimento e verdade.
Portugal: como copiar o que resulta (sem copiar o que falha)
Há países que não "compraram o futuro" a fornecedores predadores: construíram-no com soberania técnica, padrões abertos, infra-estruturas públicas e modelos reutilizáveis. O segredo não está em ter mais slides. Está em ter menos dependências.
O caminho português — se quiser ser sério — tem de assumir uma verdade simples: IA sem infraestrutura pública e sem regras anti-lock-in é apenas outsourcing de poder. E outsourcing de poder, num Estado frágil, é sempre captura.
1) Infra-estrutura pública primeiro: dados, interoperabilidade, auditoria
Antes de "chatbots", o Estado precisa de uma espinha dorsal digital: interoperabilidade, identidade, registo de acessos, rastreabilidade e auditoria. O modelo X-Road (Estónia/Finlândia e adopções internacionais) mostra que a chave é uma camada aberta e segura de troca de dados entre entidades — invisível, mas decisiva.
- Medida: criar uma Camada Nacional de Interoperabilidade com padrões abertos, logging obrigatório e controlo granular de acessos.
- Regra: qualquer sistema novo só entra se falar "a língua comum" (APIs e contratos públicos padronizados).
- Anti-captura: separar infra-estrutura (pública e aberta) de aplicações (competitivas, substituíveis).
2) "Soberania na camada de governo": modelos abertos + dados oficiais + controlo público
A França avançou com "Albert", um assistente para agentes públicos, hospedado em infra-estrutura governamental e apoiado em modelos open-source. A lição não é "copiar a ferramenta"; é copiar o princípio: o Estado controla a camada de serviço (dados, fontes oficiais, políticas de uso, rastreabilidade), em vez de depender de uma caixa-preta externa.
- Medida: lançar um Assistente Público Português (para trabalhadores da Administração), com fontes oficiais, "respostas citadas" e supervisão humana.
- Regra: toda a resposta gerada em contexto público deve vir com rastreio de fontes, registo de prompt e justificação operacional.
- Anti-captura: alojamento em cloud soberana/contratada com cláusulas de portabilidade; modelos substituíveis; dados nunca "presos" ao fornecedor.
3) Activos financiados publicamente têm de ser reutilizáveis pelo ecossistema (PME incluídas)
O projecto europeu OpenGPT-X disponibilizou um modelo multilingue (Teuken-7B) em regime open-source, para uso e adaptação por investigação e empresas. Isto é o oposto do "rendimento perpétuo" do fornecedor predador: o investimento público cria um activo público reutilizável.
- Medida: todo o financiamento público em IA (pilotos, modelos, datasets, pipelines) deve exigir licenças abertas (ou, no mínimo, reutilização ampla pelo ecossistema nacional).
- Medida: criar um Catálogo Nacional de Componentes de IA (modelos, embeddings, RAG, avaliadores, guardrails, ferramentas de auditoria) para reutilização por PME e Estado.
- Anti-captura: impedir que "projectos-piloto" terminem como propriedade de consultora com dependência técnica total.
4) Procurement anti-lock-in: regras simples que mudam tudo
O maior veneno da modernização portuguesa é o procurement que selecciona músculo administrativo em vez de seleccionar qualidade técnica. Se o Estado continuar a comprar "soluções completas" sem portabilidade, fica refém.
- Cláusula 1 — Portabilidade: dados, prompts, logs e configurações exportáveis; documentação completa; APIs abertas.
- Cláusula 2 — Transparência operacional: métricas, limites, taxas de erro, auditoria e relatórios públicos (quando não houver segredo legítimo).
- Cláusula 3 — Substituibilidade: arquitectura modular; fornecedores diferentes podem manter e evoluir o sistema.
- Cláusula 4 — Open-source por defeito: componentes não sensíveis desenvolvidos com fundos públicos devem ser publicados.
- Cláusula 5 — Pagamento em tempo útil: prazos reais para PME; sem isto, não há ecossistema, há cartel.
5) Sandbox jurídico e ético: inovar sem rebentar o Estado de Direito
O risco maior não é "errar tecnicamente". É errar juridicamente e normalizar a fragilidade legal sob a máscara de modernidade. Alguns países têm apoiado sandboxes e mecanismos de teste controlado em serviços públicos, com supervisão de autoridades e critérios claros.
- Medida: criar uma Sandbox Nacional de IA Pública com participação da CNPD, academia e auditoria independente.
- Regra: proibir decisões automatizadas em matérias sensíveis sem supervisão humana efectiva, registo e via de recurso.
- Medida: obrigar a avaliações de impacto (jurídico, ético, segurança, enviesamentos) antes de escalar.
6) Roteiro operacional (0–24 meses): menos propaganda, mais aço
- 0–3 meses: regras anti-lock-in; catálogo de standards; requisitos mínimos de auditoria e logging.
- 3–9 meses: pilotos internos (assistente para agentes públicos) com fontes oficiais e rastreabilidade; criação do Catálogo de Componentes.
- 9–18 meses: Camada Nacional de Interoperabilidade em operação (APIs comuns + contratos de dados); expansão para serviços prioritários.
- 18–24 meses: industrialização com auditoria contínua; publicação de componentes open-source; contratação simplificada e aberta a PME.
Conclusão prática
Portugal não precisa de "mais uma agenda". Precisa de um mecanismo de execução que reduza dependências e crie soberania técnica. O futuro não se escreve em PowerPoint: constrói-se em camadas abertas, regras anti-captura e competência interna. O resto é rotunda.
Fontes e referências (para nota editorial)
- OECD (caso "Albert", França): https://www.oecd.org/en/publications/2025/06/governing-with-artificial-intelligence_398fa287/full-report/ai-in-public-service-design-and-delivery_09704c1a.html
- Fraunhofer IAIS (OpenGPT-X / Teuken-7B): https://www.iais.fraunhofer.de/en/industries_and_cross-sector_solutions/cross-sector_solutions/generative-ai/opengpt-x.html
- Forschungszentrum Jülich (Teuken-7B release): https://www.fz-juelich.de/en/ias/jsc/news/news-items/news-flashes/successful-training-on-juwels-booster-opengpt-x-releases-multilingual-ai-language-model
- Interoperable Europe (X-Road em múltiplos países): https://interoperable-europe.ec.europa.eu/collection/open-source-observatory-osor/x-road-data-exchange-layer
- Repositório X-Road (licença e código): https://github.com/nordic-institute/X-Road
- UN DESA (AuroraAI, Finlândia): https://publicadministration.desa.un.org/good-practices-for-digital-government/compendium/aurora-ai-finland
- Governo da Finlândia (AuroraAI): https://valtioneuvosto.fi/en/-/10623/the-auroraai-national-artificial-intelligence-programme-begins-with-the-aim-of-using-artificial-intelligence-to-bring-people-and-services-together-in-a-better-way
Fragmentos do Caos — Crónica crítica sobre tecnologia, poder e democracia.
Coautoria editorial: Augustus Veritas