Desafios e oportunidades éticas da Inteligência Artificial

Publicado a

Ninguém é indiferente ao tema da Inteligência Artificial (IA), precisamente porque parece pôr em causa aquilo que sempre pensámos ser a nossa diferença específica enquanto seres humanos: a inteligência. Se a ética trata da excelência humana e dos caminhos para chegar a ela, pode ser interessante perceber em que medida a IA nos pode tornar mais humanos ou pôr em perigo a nossa humanidade.

Proponho separar os desafios éticos da IA em três grandes grupos: a) as questões micro têm que ver com ação dos indivíduos ou a utilização direta da IA; b) as questões macro têm que ver com as mudanças económicas e sociais provocadas por esta nova tecnologia de uso genérico e, finalmente, c) as questões meta que têm que ver com o modo como compreendemos o que é ser inteligente e em que consiste a moralidade ou "eticidade" dos atos humanos.

A primeira questão micro que se coloca é a da privacidade e da vigilância. A partir do momento em que, por estarmos em rede, os nossos comportamentos são monitorizados e armazenados em bases de dados, há uma grande quantidade de informação pessoal que é gerida para o bem ou para o mal por terceiros.

A segunda questão, a manipulação do comportamento, é uma consequência natural da primeira, uma vez que o acesso aos dados cria a possibilidade de se manipular o comportamento das pessoas, como demonstrou o caso Cambridge Analytics. Todos estamos hoje mais expostos a ser manipulados em favor de interesses políticos, de influência ou económicos.

A terceira questão micro tem que ver com a opacidade dos sistemas de IA. De alguma maneira, com estes sistemas "tapamos os olhos" e seguimos as suas recomendações, porque é praticamente impossível confirmar todos os algoritmos gerados num sistema de deep learning.

Pergunto: é legítimo deixarmo-nos guiar por um sistema opaco ou, levados por um mero pragmatismo, rendermo-nos às grandes facilidades e avanços que nos trouxe a IA? Gosto de pensar na IA como nos motores dos nossos carros. Na prática, também são opacos para praticamente todos que os utilizam, mas confiamos no profissionalismo e na responsabilidade daqueles que pensaram o sistema pela primeira vez, daqueles que acompanharam as fases de montagem e daqueles que são responsáveis pelo controle de qualidade. É razoável utilizarmos um sistema praticamente opaco, mas não seria razoável utilizarmos um sistema teoricamente opaco, porque este sistema seria caótico. A lógica de um sistema praticamente opaco é suscetível de ser analisada e compreendida por alguém que disponha de um número ilimitado de horas, a lógica de um sistema teoricamente opaco nunca poderá ser compreendida porque não existe. Quem esteve na origem da conceção do sistema de deep learning, quem trabalha com ele e olha criticamente para os outputs pode ir identificando anomalias e gerindo a situação do melhor modo possível.

A quarta questão é um exemplo das falhas mais comuns identificadas nos sistemas de IA. O processo de aprendizagem das máquinas faz-se com dados históricos que apresentam os enviesamentos que observamos na realidade: discriminação, tendências históricas, etc.. Se a aprendizagem se faz partindo de dados enviesados, os sistemas de IA não superam as limitações existentes nos dados e na realidade. É preciso sempre um olhar que se pergunte por estas grandes questões.

A robótica, campo concreto dentro da Inteligência Artificial, levanta outras duas questões ao nível micro. Uma questão tem que ver com a interação entre humanos e robôs: um robô pode cuidar de uma pessoa? Um robô pode amar uma pessoa e ser amada por ela? Aqui deixo simplesmente a pergunta para que cada qual pense no significado dos termos cuidar e amar e tire as suas próprias conclusões.

Além desta questão, os sistemas autónomos, como os veículos autónomos, levantam outras igualmente interessantes. Os veículos autónomos vão permitir um menor número de acidentes nas estradas, no entanto, surgem os famosos dilemas do trolley (1) tão conhecidos em ética. Os automóveis terão que ser programados para, numa situação limite, optar por salvar uma vida: a do condutor ou a de um pedestre menos protegido, a de um ancião ou a de um jovem adulto.

Decidir quem deve sobreviver e quem não. A meu ver, esta questão deveria resolver-se do seguinte modo: a condução autónoma em geral permitirá salvar um grande número de vidas, o que é uma melhoria ética considerável.

Existem, no entanto, ainda três grandes questões quando pensamos no desenvolver dos sistemas de IA baseados sobretudo em grandes bases de dados. Por um lado, está o grande poder económico e de influência que se concentra nas empresas de tecnologia mais importantes (por exemplo as GAFAM), por outro lado, está o aumento das desigualdades, porque estas tecnologias causarão o desaparecimento dos postos de trabalho medianamente qualificados, concentrando a procura de mão de obra nos extremos da qualificação, e finalmente o equilíbrio delicado entre privacy e crescimento económico. Os países menos respeitosos da privacidade terão acesso a oportunidades de crescimentos maiores, porque todo o potencial da IA, como a desenvolvemos atualmente, reside nos dados.

As questões meta têm essencialmente que ver com três perguntas: a) reproduzindo o cérebro humano (ou as redes neuronais do cérebro) como causa material da inteligência humana, reproduz-se a mente humana? b) a inteligência humana só processa dados? c) a IA pode ser um sujeito moral?

Um sistema de Inteligência Artificial simula as conexões neuronais que existem no cérebro humano, processa os dados com mais eficiência que um ser humano, mas não replica o modo através do qual o ser humano conhece, interage com a realidade e se constitui como ser moral. A melhor oportunidade ética oferecida pela IA é talvez precisamente esta: a possibilidade de voltarmos a compreender o que é especificamente humano e que nos constitui como seres com um lugar especial no universo.

A inteligência humana não é (só) um processador ou uma calculadora, não tem apenas uma componente de razão de movimento, mas tem uma componente de quietude e apreensão da realidade. Já a IA nunca poderá chegar a reproduzir o que é especificamente humano, embora possa e deva ser um instrumento que AMPLIE muito todas as suas possibilidades.

Professora de Fator Humano na Organização e de Microeconomia na AESE Business School

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt