Dia 6 de Dezembro terá lugar uma nova ronda de negociações entre representantes do Parlamento Europeu, da Comissão Europeia e do Conselho Europeu sobre a letra da Lei de Inteligência Artificial (IA) da União Europeia (UE).
Lei essa que se traduz num passo audacioso com o qual Bruxelas espera (i) estabelecer regras harmoniosas para o mercado interno (daí a opção por um Regulamento que não requer transposição para o direito interno dos Estados Membros, entrando em vigor, simultaneamente em todos o Estados em data pré-definida, tal como sucedeu, por exemplo, com o Regulamento Geral de Protecção de Dados) e (ii) abrir caminho para a implementação de padrões globais inspirados nos valores que norteiam a EU.
Contudo, as negociações deparam-se com inúmeros obstáculos, o que justifica uma breve análise da actual conjuntura.
O processo legislativo teve início em Abril de 2021 com a apresentação de uma Proposta de Regulamento sobre IA pela Comissão Europeia. Em Junho de 2023 o Parlamento Europeu adoptou a sua posição de negociação e findo o Verão teve início a negociação da versão final do regulamento no âmbito do trílogo (que inclui representantes do Parlamento Europeu, da Comissão Europeia e do Conselho Europeu) com o objectivo de alcançar um consenso até ao final do corrente ano.
Lembremos que a Comissão Europeia pretendia que os sistemas de IA fossem classificados de acordo com o seu grau de risco no que respeita aos direitos fundamentais (risco inaceitável, risco elevado, risco limitado e risco mínimo ou sem risco).
Recordemos, ainda, que à sombra das alterações aprovadas pelo Parlamento Europeu (COM(2021)0206 - C9-0146/2021 - 2021/0106(COD), por exemplo:
· Certos sistemas de IA, como os sistemas de vigilância biométrica, reconhecimento de emoções e policiamento preditivo, são proibidos;
· Os sistemas de IA utilizados para manipular eleitores são considerados de alto risco;
· Os sistemas de IA generativa, como o ChatGPT, devem cumprir certos requisitos de transparência, nomeadamente identificando conteúdos gerados por IA (contribuindo assim para a distinção entre deepfakes e conteúdos reais) bem como conteúdos protegidos pelo Direito de Autor utilizados no seu processo de aprendizagem automática (incentivando o cumprimento desse direito) e
· As coimas estabelecidas pelo Parlamento Europeu são mais elevadas que as coimas inicialmente previstas, tendo passado de 30 milhões de Euros (ou 6% do volume de negócios anual global) para 40 milhões de Euros (ou 7% do volume de negócios anual global).
Seguiram-se intensos debates no âmbito do trílogo, no seio do qual as nuances da Lei da IA foram minuciosamente examinadas, tendo surgido um impasse centrado na visão regulatória respeitante a modelos de IA como o GPT-4 da OpenAI, que alicerça o célebre ChatGPT.
Inicialmente verificou-se um entendimento no que toca à aplicação de um sistema escalonado para modelos de base para IA (foundation models). Subsequentemente alguns membros do Parlamento Europeu defenderam, à cautela, a aplicação de normas mais rigorosas aos actores de maior peso nesta equação, ou seja, aos fornecedores de modelos de base de impacto elevado (high-impact foundation model providers), designadamente quando tais modelos sejam desenvolvidos por empresas que não pertençam à UE. Foram, nesta sequência, recomendados critérios para identificação dos modelos de maior impacto, tais como (i) a dimensão da amostra, (ii) a dimensão dos parâmetros do modelo, (iii) os recursos de computação e (iv) os padrões (benchmarks) de desempenho.
Esta proposta não foi acolhida por Estados Membros como a França, a Alemanha e a Itália, que propuseram, em documento conjunto, a implementação de uma abordagem mais leve sob a forma de um código de conduta vinculativo ao invés de «normas não testadas».
Para ultrapassar o impasse, a 19 de Novembro do ano em curso a Comissão Europeia preconizou uma solução de compromisso que passava (i) pela substituição do termo «modelos de base para IA» (foundation models) por «modelos de IA de uso geral» (general-purpose AI models), (ii) por uma distinção entre «modelos» e «sistemas» de IA de uso geral e (iii) pela previsão de um código de conduta com medidas de transparência destinadas a tais «modelos».
A 24 de Novembro de 2023, o Parlamento Europeu afirmou apoiar, em traços gerais, a solução avançada pelo Comissão Europeia, exigindo, todavia, que o referido código de conduta fosse elaborado por representantes de pequenas e médias empresas, da sociedade civil e da academia e que fosse acompanhado por requisitos de transparência extensivos a todos os modelos de base para IA (foundation models).
Outras áreas da Lei de IA que requerem negociação e um acordo final incluem, por exemplo, (i) o próprio conceito de IA (na sequência da definição recentemente actualizada pela Organização para a Cooperação e Desenvolvimento - OCDE), (ii) a revisão do significado e das fronteiras de «sistemas de IA alto risco» no seguimento de uma proposta de 2 de Outubro de 2023 favorável à configuração de excepções em benefício de quem desenvolva esses sistemas, (iii) a revisão da noção e das balizas de «sistemas de IA proibidos» atenta a vontade que alguns países expressaram (sobretudo a França) de se permitir a vigilância biométrica em sede de segurança nacional ou para fins bélicos e (iv) o estabelecimento de normas que regulem especificamente o uso de conteúdos protegidos pelo Direito de Autor por entidades como a OpenAI.
A Lei de IA que parecia ter colocado a UE na vanguarda da regulamentação da IA enfrenta acentuados revezes que testam a sua resiliência e a sua adaptabilidade perante interesses variados e, por vezes, opostos.
Subsistem, claramente, múltiplos temas por acordar entre as partes envolvidas nas negociações em curso - especialmente, como acima referido, a questão dos modelos de base para IA (foundation models).
Se não for alcançado um consenso global em Dezembro de 2023, sob a égide da presidência espanhola (cujo mandato está prestes a cessar) esta poderá não encontrar estímulo para prosseguir as necessárias discussões técnicas. Ainda que a motivação permaneça poderá não conseguir levar a controversa questão dos modelos de base para IA (foundation models) a bom porto em tempo útil.
Caso a presidência espanhola não seja bem-sucedida, a presidência belga terá parcas semanas para concluir este complexo dossier - vista a dissolução do Parlamento Europeu que precede as respectivas eleições que ocorrerão em Junho de 2024.
Face a este quadro existe forte pressão política para conduzir os legisladores mais relutantes na direcção de deliberação, decisão e resolução conjunta. Resta saber se surtirá efeito.
Não obstante a sua data de aprovação, a Lei de IA da UE deverá garantir, acima de tudo, que a IA desenvolvida e utilizada na UE se encontra centrada no ser humano, respeitando plenamente os valores reconhecidos e tutelados pelo direito da União, incluindo os direitos fundamentais em geral, a saúde, a segurança e a democracia, apoiando concomitantemente a inovação.
Ainda que não se configure como regulamento pioneiro da IA, releva, antes de mais, que a Lei de IA da UE cumpra os princípios que norteiam a União, nunca esquecendo a protecção dos cidadãos.
(A autora não escreve de acordo com o novo acordo ortográfico)
Patricia Akester é fundadora de GPI/IPO, Gabinete de Jurisconsultoria