"Não podemos confiar cegamente nas máquinas sem perceber o que está a acontecer, ou seja, podemos usar um automóvel sem saber como o motor funciona, mas queremos saber o estado do sistema, se há alguma avaria ou algo a funcionar mal". Pedro Saleiro, natural de Esposende (onde nasceu em 1986) é o diretor de investigação da Feedzai, o mais recente unicórnio português (empresa que vale mais de mil milhões de dólares).
Em 2019 deixou a Universidade Chicago onde se especializou em ética em inteligência artificial (IA) para ingressar na Feedzai e voltar ao país natal. Em Chicago destacou-se ao criar uma ferramenta (Aequitas) para auditar sistemas de apoio à decisão baseados em inteligência artificial e detetar vários tipos de discriminações: raciais, de género, etárias, de localização geográfica ou até religiosas. Desde então tem expandido a área de ética na inteligência artificial (IA) da empresa que combate o crime financeiro com tecnologia, onde lidera uma equipa de sete pessoas (no total a área de investigação tem mais de 20 especialistas).
Numa entrevista ao podcast Made in Tech, explica que "a maioria das pessoas ainda não tem noção que a IA já está a ter grande influência nas suas vidas e ainda terá mais, seja para saber se temos um crédito, podemos abrir conta, se ficamos na prisão, somos despedidos ou contratados, há muitos modelos já a ajudar nestas decisões e temos de garantir que são modelos justos".
Na Feedzai criou já uma ferramenta que promete fazer a diferença nas instituições financeiras da Ásia aos EUA que trabalham com a empresa portuguesa. Chama-se Fairband e foi finalista nos prémios World Changing Ideas 2021, da publicação Fast Company, venceu o prémio da categoria de fraude nos FinTech Breakthrough Awards e teve já distinções na Ásia.
Pode ouvir a entrevista aqui:
Ouça e subscreva em: Apple Podcasts | Spotify | Google
Aceda a todos os episódios do Made in Tech (sobre criptomoedas; exploração espacial; guerra Austrália-Facebook com entrevista ao pai do código australiano; Clubhouse; ciência na pandemia; impostos digitais com Margrethe Vestager; ensino à distância): dinheirovivo.pt/podcast/made-in-tech
"Trata-se de um algoritmo focado no que é mais justo e transparente que tenta acrescentar a modelos existentes outras métricas além de performance (99% dos modelos de IA atuais só usam performance) para não discriminar certos subgrupos".
O Fairband procura, assim, evitar a discriminação destes modelos de IA em pessoas de uma certa zona geográfica (por haver mais fraude lá, por exemplo), de determinado sexo, etnia, religião ou grupo etário. Saleiro dá o exemplo frequente nos clientes da Feedzai: numa abertura de conta online pode acontecer que muitas pessoas mais velhas ou de certa zona da cidade sejam rejeitadas porque os modelos consideram como tentativa de fraude.
"Com o Fairband em ação conseguimos ver já uma melhoria de quase 100% de resultados menos injustos, com um pequeno sacrifício de 5% na performance global ou seja, em certas situações vimos num mês mais de mil pessoas legítimas a conseguirem abrir conta graças à integração do Fairband e isso também é mais negócio para estes bancos".
Pedro Saleiro admite que isto tira pressão nas reclamações, gera maior satisfação porque há menos erros e mais negócio porque certos grupos vão privilegiar as empresas que não os discriminam, "além da vantagem ética que é a mais relevante". O modelo de IA criado poderá ser usado noutras áreas e serve para os próprios clientes da Feedzai criarem os seus próprios modelos, mas dando-lhes mais métricas de justiça.
Citaçãocitacao"Só vamos criar essa simbiose entre homem e máquina quando houver confiança e controlo no funcionamento da máquina"centro
O investigador admite que nem tudo está bem no uso desenfreado da IA dos últimos 10 anos, "uma autêntica corrida ao ouro", mas há cada vez mais empresas a lutar por sistemas mais justos, admitindo que os média têm ajudado à maior exigência na área. "Acredito na inteligência aumentada cada vez mais presente e que a IA deve ser um complemento de nós próprios nos vários aspetos da vida para tomarmos melhores decisões, mas só vamos criar essa simbiose entre homem e máquina quando houver confiança e controlo no funcionamento da máquina", explica.
É preciso adicionar a justiça e ética aos algoritmos, que não podem ser só focados na eficiência, daí que admita que o maior desafio é por os sistemas a explicar como chegaram a uma previsão - uma explicação que pode ser dada aos programadores, ao humano que vai tomar a decisão com base nos algoritmos e aos humanos que vão ser afetados pela decisão.
A verdade é que os ganhos em eficiência em vários setores são tão evidentes, "que a maior parte do investimento na área tecnológica é canalizada para a IA". "Não há dúvida dos benefícios e que a revolução vai continuar a ter impacto tangível na melhoria da qualidade de vida de toda a gente", explica o investigador.
Saleiro lembra ainda que é fácil para os seres humanos começarem a confiar em demasia em algoritmos eficientes que dão resultados, mas deve haver um limite e uma monitorização do sistema para não correr riscos.
Dá ainda o exemplo que em situações como aquelas em que há modelos a ajudar na contratação ou no despedimento de pessoas, é importante perceber o contexto, o caso de uso do algoritmo em concreto, a proveniência dos dados e quais são usados e que qualidade têm, bem como perceber como a previsão do modelo vai ser integrada no fluxo de tomada de decisão (o mesmo modelo pode ser para ações diferentes).
Pedro Saleiro dá o exemplo que o mesmo modelo de IA pode prever o risco de haver clientes fraudulentos numa abertura de conta num banco digital, mas também pode ajudar a definir os clientes que vão dar maior retorno com a oferta de serviços personalizados do banco ou calcular o risco do incumprimento num crédito. "A forma como os modelos são usados eleva questões éticas diferentes".
O investigador mostra ainda preocupação com os algoritmos das redes sociais. Apesar de elogiar a Europa por apresentar regulação em inteligência artificial, admite que ainda tem recomendações muito vagas "e não deve ficar por aí". "A Europa tem sido progressista e a proposta mais recente foca-se nas áreas críticas de reconhecimento facial, saúde, policiamento, vigilância, vistos, acesso a crédito e educação em termos de risco ético", admite.
No caso do RGPD (Regulamento Geral de Proteção de Dados), explica que na área de navegação online ainda continua a ter grandes problemas: "continuamos num paradigma em que o utilizador não tem controlo nenhum sobre os seus dados - é uma relação binária, ou aceito as condições deste site ou não tenho acesso aos conteúdos".
Nesse aspeto as redes sociais também continuam por regular a nível europeu. "Os algoritmos de recomendação automática que vemos muito no YouTube, por exemplo, a reproduzir em loop constante vídeos, levam o utilizador para opiniões cada vez mais extremadas porque criam o efeito de imersão para se continuar a consumir". Saleiro admite mesmo que há estudos que mostram essa evidência "preocupante", daí que comece "a ser mais cético sobre a utilização dos algoritmos de recomendação sem o utilizador ter controlo sobre eles" e isso inclui Facebook ou Twitter.
Mesmo que as plataformas deem algum tipo de controlo (Twitter já o dá e Facebook também já começou a permitir), "o problema é que podemos tê-lo mas muitos não estão ainda educados o suficiente para avaliar os riscos inerentes às recomendações dos algoritmos".
Saleiro admite que as bolhas em que os algoritmos colocam algumas pessoas "são um problema e serão a próxima grande discussão em torno destes modelos". "Muitos utilizadores não têm noção do impacto de causa efeito que os algoritmos provocam em si", admite.