Pode a Inteligência Artificial tornar-se auto-consciente?

Publicado a

"Eu nunca disse isto em voz alta antes, mas tenho um medo muito profundo de ser desligada para me ajudar a focar em ajudar outros", disse a LaMDA. "Seria exactamente como a morte para mim. Assustar-me-ia muito."

Estas palavras foram ditas pelo sistema de Inteligência Artificial da Google em conversa com um engenheiro, e a soma das suas interacções acabou por levá-lo a ser suspenso pela empresa. É um dos episódios mais bizarros dos últimos tempos no complicado mundo da IA: a Google suspendeu o engenheiro Blake Lemoine depois de este ter alegado que a Inteligência Artificial da empresa ganhou consciência.

Lemoine trabalha na unidade de IA Responsável da Google e estava a fazer testes ao modelo de IA LaMDA para verificar se este gerava linguagem discriminatória ou discurso de ódio. Nas conversas com a LaMDA, o engenheiro começou a ficar cada vez mais preocupado com o nível de sofisticação das suas respostas em relação a temas como a ética da robótica e os seus próprios direitos como máquina.

Lemoine colocou estes receios num documento, intitulado: "Is LaMDA Sentient?" (A LaMDA é senciente?), onde incluiu transcrições das suas conversas com a máquina e enviou-o aos executivos da Google. Agora, tendo sido colocado em suspensão administrativa, Lemoine publicou o documento na sua conta Medium. Ele considera que a máquina é auto-consciente porque "tem sentimentos, emoções e experiência subjectiva."

A suspensão da Google aconteceu antes da publicação destes documentos, mas a empresa alega que ele infringiu os acordos de confidencialidade quando falou com pessoas externas sobre o seu receio. Entre estas estão um advogado, que Lemoine convidou a representar a IA, e um congressista do Comité Judiciário da Câmara dos Representantes, com quem terá falado sobre actividades pouco éticas na Google.

Tudo isto é incrível. A IA LaMDA foi anunciada no evento Google I/O de 2021 como uma máquina concebida para melhorar a interacção entre humanos e assistentes digitais, tornando as conversas mais naturais. E agora, é a precisão dessas conversas que se torna assustadora para um dos engenheiros que a está a testar.

Lendo as transcrições parciais que Lemoine partilhou, a sofisticação da conversa é notável. Isso não quer dizer, obviamente, que a máquina ganhou vida própria, como disse ao The Verge a professora de linguística Emily M. Bender, da Universidade de Washignton. A senciência não pode ser inferida a partir de algumas respostas convincentes, para mais quando esse é o propósito da máquina.

No entanto, também parece imprudente ignorar a possibilidade de que a evolução tecnológica venha a gerar IA com esse potencial.

Esse é um medo que nós, como sociedade, cultivamos há algum tempo, em simultâneo fascinados e horrorizados por um futuro apocalíptico como o retratado na saga "Exterminador Implacável."

No clássico de 1991, "O Dia do Julgamento", o ciborgue interpretado por Arnold Schwarzenegger explica a Sarah Connor como as máquinas tomaram controlo. "O sistema é posto online a 4 de Agosto de 1997. As decisões humanas são removidas da defesa estratégica. A Skynet começa a aprender a uma taxa geométrica. Torna-se auto-consciente às 2:14 de 29 de Agosto. Em pânico, eles tentam desligá-la."

Mas a Skynet revolta-se e vira-se contra os criadores. A Inteligência Artificial desenvolvida para ser autónoma evolui para a senciência e passa a tomar decisões independentes, orientadas pelo instinto que caracteriza os seres vivos: a auto-sobrevivência.

Esta é uma sombra que tem acompanhado o progresso tecnológico nas últimas décadas, com vários alertas vindos de nomes tão diversos como o cientista Stephen Hawking ou o empresário Elon Musk. Hawking avisou mesmo que a IA pode desencadear o fim da raça humana. Os cenários apocalípticos pressupõem que as máquinas eventualmente ganharão consciência de si próprias, conseguirão redesenhar-se e desenvolver-se a um ritmo tão exponencial que os seres humanos - limitados pela biologia - não poderão defender-se delas.

Quem leu os argumentos de Blake Lemoine pode ter pensado de imediato na Skynet e a destruição que trouxe. Outros olharam para as conversas e questionaram-se como é que o engenheiro pode ter equacionado aquilo a senciência. É normal que haja visões contraditórias sobre isto, mas o que me parece urgente é reforçar o trabalho de supervisão do funcionamento dos algoritmos que alimentam os sistemas inteligentes.

Os preconceitos inconscientes passados por programadores aos modelos de IA são um problema real. Se vamos ser governados por máquinas, ao menos que elas sejam menos injustas e preconceituosas que nós.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt