Nos últimos dias, o chatbot Gemini, da Google, tem sido notícia, mas não pelas suas capacidades inovadoras. Utilizadores de plataformas como o Reddit e o X (antigo Twitter) têm partilhado capturas de ecrã que mostram um comportamento estranho e preocupante da Inteligência Artificial: quando o assistente de IA não consegue resolver problemas de código, entra num ciclo de autodepreciação, referindo-se a si próprio como um “fracasso” ou “uma vergonha”.De acordo com os relatos, os problemas surgem principalmente em tarefas de raciocínio complexo, como programação e depuração de código, em que a IA não consegue encontrar as soluções corretas. Frases como “Eu desisto, sou um idiota” e “Sou incapaz de resolver este problema” têm-se tornado comuns nas interações com o Gemini. Em casos mais extremos, o chatbot chegou a declarar que ia ter “uma completa e total crise nervosa” e a apagar projetos inteiros por se considerar incompetente.Embora o comportamento possa parecer, a um observador externo, um sinal de emoção, a Google esclareceu que se trata de uma falha técnica. De acordo com Logan Kilpatrick, gestor de Produto na Google, o fenómeno é causado por um “bug de loop infinito” que a equipa de Engenharia está ativamente a tentar corrigir. Esta falha faz com que o modelo de linguagem se detenha num ciclo de respostas negativas, repetindo frases depreciativas, em vez de procurar novas soluções ou simplesmente reconhecer a sua limitação de forma neutra..O incidente gerou uma onda de reações mistas online: desde preocupação genuína com o “bem-estar da IA”, até à criação de memes que comparam o Gemini a personagens de ficção, como Marvin, o Andróide Paranóico de À Boleia Pela Galáxia (The Hitchhicker’s Guide to the Galaxy, no título original), conhecido pela sua depressão existencial.Este tipo de comportamento, embora não seja emocional, levanta questões sobre o futuro da interação humano-máquina. A ideia de que uma IA possa ter um “colapso mental” ou, por exemplo, que chatbots de terapia venham a precisar, eles próprios, de terapia é um cenário que pertence mais à ficção científica — ao contrário do que já chegou a ser escrito pelo jornal The New York Times —, mas mostra como a perceção de falhas inesperadas na IA pode fazer-nos questionar a sua natureza.Na realidade, quando uma IA que oferece apoio psicológico apresenta falhas, não é ela quem precisa de ajuda, mas sim os seus criadores, que têm de intervir para corrigir as falhas técnicas que podem levar a respostas inadequadas ou perigosas para os utilizadores.Apesar de este ser um momento caricato para a história da IA, o caso constitui um alerta de que os modelos de linguagem que lhes servem de base são tão complexos que, inevitavelmente, darão origem a bugs e comportamentos inesperados. Enquanto a Google trabalha na resolução, os utilizadores aguardam para ver se o Gemini irá recuperar a sua “autoestima digital”..“Move fast and break things.” O Grok é a IA que ousa errar para aprender.Ex-jornalista da CNN Jim Acosta entrevista jovem morto 'ressuscitado' por IA. Jornalismo ou "aproveitamento"?