Ética e Inteligência Artificial – é necessário passar das palavras às ações

Publicado a

Nos últimos anos, temos verificado uma mudança nas empresas. Deixaram de simplesmente se preocuparem apenas com as implicações técnicas das suas soluções tecnológicas, para agora tentarem garantir que as suas soluções, por exemplo as que usam Inteligência Artificial (IA), sejam eticamente responsáveis.

De acordo com o mais recente estudo de "AI Ethics" do IBM Institute for Business Value, que entrevistou 1200 executivos em 22 países de 22 indústrias, cerca de 80% dos CEOs estão preparados para tomar medidas por forma a aumentar a responsabilização da IA. O mesmo estudo, realizado em 2018, esse número era apenas de 20%. A importância de a IA ser eticamente responsável está também a aumentar entre os membros do Board, sendo que 80% dos entrevistados referem um executivo não técnico como o principal embaixador para a ética na IA, uma subida face aos 15% de 2018.

É, sem dúvida, encorajador, mas há ainda muito por fazer para assegurar que os benefícios da IA suportam todos os indivíduos da mesma forma e com sucesso. Apesar de 85% das empresas sentirem que é importante endereçarem este tema, apenas 40% dos consumidores dizem confiar que as empresas são responsáveis e éticas no desenvolvimento de novas aplicações de IA, surpreendentemente a mesma proporção que disse confiar nas empresas em 2018.

Os benefícios da IA continuam a aumentar

Não há dúvida que a IA tem um potencial transformador. Em 2021, a "AI Augmentation" - definida como a parceria entre humanos e IA a trabalharem em conjunto - criou cerca de 2,9 mil milhões de dólares em negócio, de acordo com a Gartner, e poupou um valor estimado de 6,2 mil milhões de horas de produtividade dos trabalhadores. À medida que o investimento e a adoção continuam a crescer exponencialmente, juntamente com o desenvolvimento de soluções sem código ou de baixo código que permite que as pessoas customizem a sua IA sem terem conhecimento técnico avançado, a IA irá continuar a ser cada vez mais acessível e impactante para todos. A IA é capaz de aumentar a capacidade humana em inúmeras áreas, desde a investigação e análise até à execução de tarefas básicas diárias como a gestão da nossa agenda e das nossas finanças.

Garantir que a IA é de confiança é um exercício de equilíbrio fundamental

Apesar das promessas de a IA serem grandiosas, as armadilhas também o poderão ser se não assegurarmos que a IA é de confiança. Ou seja, que é justa, explicável, transparente, robusta e respeitadora dos dados e conhecimento.

No entanto, conseguir uma IA de confiança pode ser um desafio se considerarmos o equilíbrio pragmático que é muitas vezes necessário, por exemplo, entre a "explicabilidade" - a capacidade de compreender o racional por detrás dos resultados de um algoritmo de IA - e a "robustez" - a precisão de um algoritmo para chegar a um determinado resultado.

Este equilíbrio não é sempre fácil, mas há passos concretos que as empresas podem tomar hoje para avançarem na direção certa.

Estabelecer uma abordagem para implementar a ética na IA

O passo seguinte é estabelecer uma abordagem de ética com um modelo próprio de governo. Há que incorporar todas as perspetivas (líderes de negócio, clientes, decisores, sociedade de uma forma geral) em tópicos como a privacidade, robustez, explicabilidade, transparência e imparcialidade.

Também significa assegurar a diversidade de identidades e de perspetivas, garantindo que temos uma população de trabalhadores [homens, mulheres, LGBT, caucasianos, negros, indígenas e pessoas de cor (BIPOC), etc.] nestas áreas que representem, na sua proporcionalidade, a sociedade onde estamos inseridos.

Estabelecer uma abordagem formal para esta temática exige que as empresas identifiquem uma estrutura, políticas, processos e um sistema interno para poderem monitorizar a sua ética na IA interna e externamente.

Integrar a ética em todo o ciclo de vida da IA

A ética na IA não é um processo que se implemente e depois se esqueça. Há que continuar a endereçar os intervenientes internos e externos, assim como, recolher, reportar e rever a conformidade dos dados com a realidade.

Apenas pouco mais de metade, 57% das empresas, integraram a ética da IA nas suas orientações de conduta empresarial tradicionais existentes. Menos de metade das empresas inquiridas tem formação periódica mandatória, avaliações de risco ou uma linha telefónica anónima para reportar preocupações. Apenas 47% das organizações inquiridas incorporaram a ética da IA em algum tipo de declaração de missão ou declaração de valores.

Neste processo há também que incluir fornecedores, clientes e outros parceiros do ecossistema. Uma empresa ainda pode causar danos se continuar a trabalhar com fornecedores e outros parceiros de negócio que usam dados de IA ou de consumo imprudentemente. Os especialistas do setor chamam a isto "interoperabilidade ética", que se refere à ideia de que não precisamos só de incorporar a ética na forma como atuamos como empresa, mas que também devemos começar a incorporar a ética na forma como trabalhamos em conjunto com outros. Ao colaborarem com os parceiros de negócio para estabelecer uma maior interoperabilidade ética, as empresas também podem distinguir-se dos concorrentes e proteger-se dos riscos indiretos.

O que sabemos é que a IA irá cada vez mais fazer parte da nossa vida. É por isso que na IBM acreditamos que os avanços na IA devem ser feitos com responsabilidade e de uma forma que garanta que os princípios éticos estão no centro de qualquer tecnologia. Está nas mãos de todos - indústria, governos, investigação e universidades - garantirmos isso mesmo.

António Pedro Ribeiro, diretor Executivo da IBM Consulting em Portugal

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt