À margem da entrega do prémio “My Data is Mine” na edição deste ano da Web Summit, Marco Scialdone explicou ao Dinheiro Vivo qual a importância da proteção de dados num mundo globalmente digitalizado, e de que forma a inteligência artificial (IA) pode contribuir para uma utilização responsável e ética dos dados, em benefício de toda a sociedade..Esta é a 5ª edição do prémio “My Data is Mine Award”, atribuído pelo Consumer Empowerment Project (CEP), que junta a Euroconsumers à Google. Qual o objetivo desta iniciativa e que impacto tem tido na sociedade?.Trata-se de um projeto destinado a jovens investigadores, até aos 35 anos, na área da proteção de dados, que apresentem os seus white papers sobre o trabalho que estão a desenvolver nesta temática. A iniciativa partiu da declaração “My Data is mine”, por parte da Euroconsumers em 2017, uma declaração onde os consumidores europeus tentaram mover o foco da proteção de dados da perspetiva dos valores fundamentais puros para a perspetiva económica. Ou seja, os dados como ativos económicos. Desde então, o sucesso tem sido crescente, com a qualidade dos trabalhos a aumentar, bem como a notoriedade da iniciativa..O prémio tem sido entregue na Web Summit, tal como este ano, e o trabalho partilhado um pouco por toda a Europa. O ano passado foi partilhado no Simpósio de Privacidade em Veneza, uma das maiores conferências na Europa e no mundo sobre proteção de dados, por exemplo. Estamos muito satisfeitos com o impacto do projeto e é muito satisfatório ver tantos jovens investigadores interessados em participar, e estamos muito orgulhosos de apoiar a geração mais jovem interessada no tema da proteção de dados. Aliás, este ano temos o vencedor mais jovem de todos porque a Tea Mustac tem apenas 25 anos. .Qual é o propósito da Euroconsumers ao apoiar esses investigadores?.Queremos contribuir para o debate político do tema, e é ótimo termos a perspetiva de jovens académicos neste tópico. Eles permitem ter uma visão ampla e distinta de temas que por vezes são polémicos e que nem sempre são debatidos. É muito importante para nós termos essas perspetivas diferentes nos diversos temas relacionados com a proteção de dados. Nos últimos dois anos dedicámos o Call for Papers ao intercâmbio entre a IA e a proteção de dados, porque é um dos tópicos mais relevantes neste momento, também para os consumidores, e percebemos que isso tem um impacto concreto no mercado. Atualmente, na Europa, existem muitos produtos que não estão disponíveis para utilizadores europeus exatamente por questões relacionadas com a proteção de dados..Então, a maneira de estimular o debate é ver se podemos encontrar uma solução diferente para o problema que possa encaixar o mercado, nos direitos dos consumidores, e na sociedade como um todo. Conseguirmos significa um grande sucesso para o nosso trabalho..Sendo a IA um tópico ‘quente’, quais são os principais desafios que identifica?.Atualmente temos dois problemas principais. Um é com os dados que são usados para treinar a IA generativa e, especificamente, qual é a base legal para usar esses dados que vêm dos utilizadores, dos consumidores. Então, o grande debate neste momento é sobre estas questões, e o outro ponto é sobre os resultados dos sistemas de IA generativos. Como podemos ter a certeza de que podemos confiar nas informações que são fornecidas pelos sistemas? No ano passado, fizemos um teste com a primeira versão do Bing Chat, apenas para descobrir que muitas informações incorretas foram fornecidas aos consumidores, quando procuram por um tipo específico de aconselhamento. Mas o que nos assustou mais não foi apenas a informação incorreta, que é, claro, algo disponível online, mas o facto de que a maneira como é apresentada aos consumidores é tão realista que algumas pessoas tendem a concordar e não procuram confirmar se a resposta está certa ou errada. Como parece tão real, deve ser real..É preciso, por isso, mudar essa perceção e explicar às pessoas que só porque uma resposta vem de um sistema de IA não significa que está certa. É fundamental verificar, e voltar a verificar, tal como se fazia no passado, mudar mentalidades e não confiar a 100% na máquina, testar e verificar..Outro desafio é descobrir como evitar o preconceito da máquina. Acredita que para combater este problema basta ter regulação?.A qualidade dos dados é um dos principais desafios. O tema é abordado no AI Act, da União Europeia (UE) e será uma obrigação que entrará vigor em breve. Mas, em geral, isto também tem a ver com a disponibilidade dos dados. Por isso é importante que os dados inseridos no sistema sejam avaliados e verificados, porque existe o risco de reproduzir todas as desigualdades que existem na sociedade dentro do sistema. Esse é o principal problema neste momento. E, claro, há obrigações legais para isso, mas eu acho que, além da regulamentação, que tem um papel importante, há também a necessidade de criar um tipo de pacto entre as empresas, a sociedade, o consumidor, o utilizador, porque este sistema impactará todos os aspetos da nossa vida. Não estamos apenas a falar de produtos comerciais, mas sobre decisões de saúde, sobre democracia, sobre tudo. Então, este é um ponto que precisamos de endereçar juntos, como sociedade..De que forma é que a Euroconsumers avalia o AI Act? É um bom ponto de partida? É muito restrito ou burocrático?.O lado positivo é que a União Europeia foi a primeira a avançar nesse campo. Claro que, como qualquer pioneiro, o resultado não pode ser perfeito e deve ser ajustado ao longo dos anos. O ponto positivo é que a maioria das disposições incluídas no AI Act assentam em standards técnicos que precisam ser implementados. Isto significa que há espaço para ajustar ao tipo de utilização que o mercado proporcionará em dois ou três anos, e por aí adiante. Nessa perspetiva é uma legislação muito pesada, é preciso ser digerida, mas haverá tempo para fazê-lo. Isso exige, contudo, algumas ações de compliance por parte das empresas, com custos inerentes, mas o benefício para a sociedade como um todo é mais importante do que as dificuldades com que será necessário lidar no início.