Paulo Cunha: “Do ponto de vista político, esta é uma espécie de Constituição para a IA”
As comissões de Liberdades Cívicas, Justiça e Assuntos Internos (LIBE) e do Mercado Interno e Proteção dos Consumidores (IMCO) do Parlamento Europeu aprovaram, esta semana, o relatório que recomenda o consentimento da União Europeia à Convenção-Quadro sobre Inteligência Artificial, Direitos Humanos, Democracia e Estado de Direito. Após a luz verde destas comissões, o Parlamento Europeu deverá agora aprovar formalmente o texto final já no próximo mês de março, em sessão plenária. Este é o primeiro instrumento jurídico internacional vinculativo dedicado à IA, unindo a UE a parceiros como os Estados Unidos, Reino Unido e Japão, num esforço de regulação que extravasa as fronteiras do mercado único europeu.
O processo foi liderado pelo eurodeputado português Paulo Cunha (PSD/PPE), que nesta entrevista — realizada na sequência da votação conjunta — detalha o equilíbrio sensível entre a liberdade criativa dos operadores e a necessidade de proteger as democracias contra ingerências externas e a manipulação de cidadãos. Para o relator do processo, a Europa não pode ser uma “ilha tecnológica” e o sucesso deste tratado dependerá da sua capacidade de se tornar um padrão global de referência.
De que forma este documento se coordena com o AI Act europeu, as normas comunitárias de regulação para a Inteligência Artificial?
A grande diferença é que esta Convenção, que tem caráter vinculativo, tem um espetro que vai muito além da União Europeia. A questão do perímetro da regulação na Inteligência Artificial (IA) é fundamental porque não existem “ilhas tecnológicas”. Não é possível pensarmos que nós, europeus, podemos ter um regime muito protetor e estarmos seguros se, fora do nosso contexto, essa proteção não existir. Não podemos construir muros em nosso redor. Ainda que as nossas normas internas sejam inteligentes, se à escala global não houver instrumentos vinculativos, o resultado final não será alcançado. Esta Convenção [que foi redigida no seio] do Conselho da Europa, tem essa propensão de escala global.
Mas como se garante essa escala num mundo sem uma instituição global que decida por todos?
Temos de avançar com uma geometria variável. É preciso dar abrangência territorial ao texto e convencer os países a aderirem. Os Estados Unidos e o Reino Unido [que se comprometeram com o documento] são dois bons exemplos. A Europa tem aqui um papel relevante de “efeito de contágio”. Estamos seguros de que, após a aprovação do meu relatório no Plenário [do Parlamento Europeu] de março, em Estrasburgo, outros continentes farão o mesmo caminho.
Enquanto relator, qual foi a batalha mais difícil que travou para chegar a este texto final que as comissões LIBE e IMCO validaram esta semana?
A batalha prende-se com o âmago da questão: o conflito permanente entre a necessidade de espaço para o desenvolvimento tecnológico e a exigência de controlo para a proteção de potenciais vítimas. É um trade-off. Queremos que a IA progrida e que haja inovação e arrojo criativo, mas queremos proteção. E esta proteção tem uma escala alargada. Não falamos apenas de direitos individuais, mas da proteção de democracias e soberanias. Vimos recentemente o caso da Roménia, onde uma eleição foi anulada por ingerência externa através destes mecanismos. O grande desafio foi compatibilizar estas duas dimensões a priori antagónicas.
Há quem tema que a regulação seja um travão excessivo à inovação. Esta Convenção consegue encontrar a fórmula certa do ponto de vista jurídico?
Ela é apenas uma etapa num processo longo que está longe de terminar. A Convenção não é uma panaceia. Estamos a fazer um caminho regulatório passo a passo — às vezes com passos curtos, mas consistentes. Uma propensão regulatória desajustada poderia ter efeitos fatais no crescimento da IA. É a velha questão: queremos o lado bom da tecnologia, mas não o mau. Temos de ser cuidadosos para que, ao tentar travar o lado mau, não acabemos por obstaculizar o lado bom.
Relativamente a casos práticos, como é que este documento protege um cidadão que se veja vítima de uma deepfake ou de manipulação de imagem?
A Convenção não diz “como” se protege no detalhe técnico, mas fixa que “tem” de se proteger. O grande objetivo é fixar limiares e contingentes de proteção. Isto é inédito. Até há poucos meses, não havia qualquer freio; quem estava do lado da tecnologia algorítmica tinha uma estrada completamente aberta. Agora dizemos: “Continuem a criar, mas há barreiras”. Seja na proteção de faixas vulneráveis, como as crianças, ou no combate aos conteúdos falsos que hoje qualquer pessoa com um telemóvel consegue criar.
Mencionou também a proteção dos regimes políticos como um dos pontos mais complexos do debate parlamentar. Porquê?
Foi difícil convencer alguns deputados de que o problema não se esgota na proteção das crianças, apesar de isso ser absolutamente essencial. Coloca-se também na proteção dos regimes. Esta dimensão coletiva é complexa porque existe uma tendência mais radical, generalizada na Europa, que não vê como um problema colocar em causa os modelos de regime atuais. Existem vocações imperialistas e colonialistas que procuram sensibilizar outros povos a seguir os seus passos. Garantir que a IA não é usada para este tipo de manipulação política foi, talvez, o ângulo mais difícil das negociações.
Neste processo, ouviu técnicos e engenheiros. Qual foi a receção das empresas tecnológicas?
Reunimos com vários operadores e recebemos contributos para nos sensibilizar para as dificuldades de implementação. Ouvimos tanto operadores diretos como associações independentes. Um bom exemplo é o chat control [a proposta de fiscalização de comunicações entre cidadãos da UE que implicaria vigiar automaticamente por IA todas as mensagens trocadas]: tecnicamente, é difícil monitorizar conteúdos para impedir abusos, como violência sexual contra menores, e, ao mesmo tempo, assegurar a privacidade e a liberdade de expressão. O setor das SMS, por exemplo, refere que é impossível criar um filtro preventivo sem cair numa vigilância generalizada. Nós não queremos isso. A questão central é: como direcionar a inovação para que ela seja nativamente protetora e não apenas criativa?
E qual é a estratégia para convencer as grandes operadoras, muitas delas sediadas fora da Europa?
A nossa estratégia é sensibilizá-las para um facto simples: se as operadoras não criarem algoritmos onde os filtros funcionem, a tendência dos reguladores (europeus ou nacionais) será usar o “travão de mão” e proibir. Já vemos isso com a proibição de telemóveis em escolas ou restrições de idade em redes sociais. Se a tecnologia falha na proteção, o legislador aniquila o crescimento por via da proibição. Portanto, o desenvolvimento de uma IA ética e protetora é do interesse das próprias empresas para que possam continuar a operar com liberdade.
Muitas destas empresas são americanas, mas o mercado chinês opera com outras regras. Receia que os programadores fujam para jurisdições desreguladas na Ásia?
A globalização deste processo é fulcral. O facto de os EUA e o Reino Unido terem aderido é um sinal fortíssimo. Acredito que o mercado europeu, com o seu elevado volume de consumo, não deixará as operadoras indiferentes. Sobre a China, é curioso notar o paralelismo com a indústria automóvel: muitos achavam que a China seria o “patinho feio” nas questões ambientais, mas hoje lideram nos carros elétricos e baterias, ultrapassando europeus e americanos. Às vezes, as forças de mercado e a necessidade de operar em espaços regulados provocam mudanças inesperadas.
Em caso de violação grave por uma entidade externa, a Convenção tem força para aplicar sanções reais?
Neste momento, a capacidade de enforcement imediato não existe da forma efetiva que todos desejaríamos. Esta Convenção é o início de um processo. As normas ainda não têm a densidade ou o grau de concretização para dizer amanhã que o operador X ou Y não cumpriu e será punido assim. Mas é a primeira vez que temos um instrumento à escala global com força vinculativa.
Podemos então chamar-lhe uma “Constituição Internacional para a IA”?
Do ponto de vista técnico-jurídico, haverá quem critique essa definição, mas do ponto de vista da carga política associada — e as constituições também são documentos políticos — concordo com essa afirmação... Sim, é uma espécie de Constituição para a IA. É o documento que fixa os princípios fundamentais sobre os quais a tecnologia se deve erguer.

