"Não dá para confiar cegamente nas máquinas", diz especialista em ética da Feedzai

Diretor de investigação da portuguesa Feedzai explica como a ética na inteligência artificial não só pode ser boa para o negócio, mas é crucial para a sociedade. Nova ferramenta da empresa, Fairband, tem amealhado prémios e já está a fazer a diferença para evitar discriminação. Algoritmos das redes sociais "sem controlo" preocupam.
Publicado a

"Não podemos confiar cegamente nas máquinas sem perceber o que está a acontecer, ou seja, podemos usar um automóvel sem saber como o motor funciona, mas queremos saber o estado do sistema, se há alguma avaria ou algo a funcionar mal". Pedro Saleiro, natural de Esposende (onde nasceu em 1986) é o diretor de investigação da Feedzai, o mais recente unicórnio português (empresa que vale mais de mil milhões de dólares).

Em 2019 deixou a Universidade Chicago onde se especializou em ética em inteligência artificial (IA) para ingressar na Feedzai e voltar ao país natal. Em Chicago destacou-se ao criar uma ferramenta (Aequitas) para auditar sistemas de apoio à decisão baseados em inteligência artificial e detetar vários tipos de discriminações: raciais, de género, etárias, de localização geográfica ou até religiosas. Desde então tem expandido a área de ética na inteligência artificial (IA) da empresa que combate o crime financeiro com tecnologia, onde lidera uma equipa de sete pessoas (no total a área de investigação tem mais de 20 especialistas).

Numa entrevista ao podcast Made in Tech, explica que "a maioria das pessoas ainda não tem noção que a IA já está a ter grande influência nas suas vidas e ainda terá mais, seja para saber se temos um crédito, podemos abrir conta, se ficamos na prisão, somos despedidos ou contratados, há muitos modelos já a ajudar nestas decisões e temos de garantir que são modelos justos".

Na Feedzai criou já uma ferramenta que promete fazer a diferença nas instituições financeiras da Ásia aos EUA que trabalham com a empresa portuguesa. Chama-se Fairband e foi finalista nos prémios World Changing Ideas 2021, da publicação Fast Company, venceu o prémio da categoria de fraude nos FinTech Breakthrough Awards e teve já distinções na Ásia.

Pode ouvir a entrevista aqui:

Ouça e subscreva em: Apple Podcasts | Spotify | Google

Aceda a todos os episódios do Made in Tech (sobre criptomoedas; exploração espacial; guerra Austrália-Facebook com entrevista ao pai do código australiano; Clubhouse; ciência na pandemia; impostos digitais com Margrethe Vestager; ensino à distância): dinheirovivo.pt/podcast/made-in-tech

"Trata-se de um algoritmo focado no que é mais justo e transparente que tenta acrescentar a modelos existentes outras métricas além de performance (99% dos modelos de IA atuais só usam performance) para não discriminar certos subgrupos".

O Fairband procura, assim, evitar a discriminação destes modelos de IA em pessoas de uma certa zona geográfica (por haver mais fraude lá, por exemplo), de determinado sexo, etnia, religião ou grupo etário. Saleiro dá o exemplo frequente nos clientes da Feedzai: numa abertura de conta online pode acontecer que muitas pessoas mais velhas ou de certa zona da cidade sejam rejeitadas porque os modelos consideram como tentativa de fraude.

"Com o Fairband em ação conseguimos ver já uma melhoria de quase 100% de resultados menos injustos, com um pequeno sacrifício de 5% na performance global ou seja, em certas situações vimos num mês mais de mil pessoas legítimas a conseguirem abrir conta graças à integração do Fairband e isso também é mais negócio para estes bancos".

Pedro Saleiro admite que isto tira pressão nas reclamações, gera maior satisfação porque há menos erros e mais negócio porque certos grupos vão privilegiar as empresas que não os discriminam, "além da vantagem ética que é a mais relevante". O modelo de IA criado poderá ser usado noutras áreas e serve para os próprios clientes da Feedzai criarem os seus próprios modelos, mas dando-lhes mais métricas de justiça.

Citaçãocitacao"Só vamos criar essa simbiose entre homem e máquina quando houver confiança e controlo no funcionamento da máquina"centro

O investigador admite que nem tudo está bem no uso desenfreado da IA dos últimos 10 anos, "uma autêntica corrida ao ouro", mas há cada vez mais empresas a lutar por sistemas mais justos, admitindo que os média têm ajudado à maior exigência na área. "Acredito na inteligência aumentada cada vez mais presente e que a IA deve ser um complemento de nós próprios nos vários aspetos da vida para tomarmos melhores decisões, mas só vamos criar essa simbiose entre homem e máquina quando houver confiança e controlo no funcionamento da máquina", explica.

É preciso adicionar a justiça e ética aos algoritmos, que não podem ser só focados na eficiência, daí que admita que o maior desafio é por os sistemas a explicar como chegaram a uma previsão - uma explicação que pode ser dada aos programadores, ao humano que vai tomar a decisão com base nos algoritmos e aos humanos que vão ser afetados pela decisão.

A verdade é que os ganhos em eficiência em vários setores são tão evidentes, "que a maior parte do investimento na área tecnológica é canalizada para a IA". "Não há dúvida dos benefícios e que a revolução vai continuar a ter impacto tangível na melhoria da qualidade de vida de toda a gente", explica o investigador.

Saleiro lembra ainda que é fácil para os seres humanos começarem a confiar em demasia em algoritmos eficientes que dão resultados, mas deve haver um limite e uma monitorização do sistema para não correr riscos.

Dá ainda o exemplo que em situações como aquelas em que há modelos a ajudar na contratação ou no despedimento de pessoas, é importante perceber o contexto, o caso de uso do algoritmo em concreto, a proveniência dos dados e quais são usados e que qualidade têm, bem como perceber como a previsão do modelo vai ser integrada no fluxo de tomada de decisão (o mesmo modelo pode ser para ações diferentes).

Pedro Saleiro dá o exemplo que o mesmo modelo de IA pode prever o risco de haver clientes fraudulentos numa abertura de conta num banco digital, mas também pode ajudar a definir os clientes que vão dar maior retorno com a oferta de serviços personalizados do banco ou calcular o risco do incumprimento num crédito. "A forma como os modelos são usados eleva questões éticas diferentes".

O investigador mostra ainda preocupação com os algoritmos das redes sociais. Apesar de elogiar a Europa por apresentar regulação em inteligência artificial, admite que ainda tem recomendações muito vagas "e não deve ficar por aí". "A Europa tem sido progressista e a proposta mais recente foca-se nas áreas críticas de reconhecimento facial, saúde, policiamento, vigilância, vistos, acesso a crédito e educação em termos de risco ético", admite.

No caso do RGPD (Regulamento Geral de Proteção de Dados), explica que na área de navegação online ainda continua a ter grandes problemas: "continuamos num paradigma em que o utilizador não tem controlo nenhum sobre os seus dados - é uma relação binária, ou aceito as condições deste site ou não tenho acesso aos conteúdos".

Nesse aspeto as redes sociais também continuam por regular a nível europeu. "Os algoritmos de recomendação automática que vemos muito no YouTube, por exemplo, a reproduzir em loop constante vídeos, levam o utilizador para opiniões cada vez mais extremadas porque criam o efeito de imersão para se continuar a consumir". Saleiro admite mesmo que há estudos que mostram essa evidência "preocupante", daí que comece "a ser mais cético sobre a utilização dos algoritmos de recomendação sem o utilizador ter controlo sobre eles" e isso inclui Facebook ou Twitter.

Mesmo que as plataformas deem algum tipo de controlo (Twitter já o dá e Facebook também já começou a permitir), "o problema é que podemos tê-lo mas muitos não estão ainda educados o suficiente para avaliar os riscos inerentes às recomendações dos algoritmos".

Saleiro admite que as bolhas em que os algoritmos colocam algumas pessoas "são um problema e serão a próxima grande discussão em torno destes modelos". "Muitos utilizadores não têm noção do impacto de causa efeito que os algoritmos provocam em si", admite.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt