Gemini não deve ser “amigo” dos jovens, admite Google. E agora há um botão de emergência

Entre novas ferramentas de apoio psicológico e decisões judiciais, o algoritmo de Silicon Valley tem novos 'guardrail's. Mas toda a indústria continua a lidar com o peso de estereótipos antigos
Gemini não deve ser “amigo” dos jovens, admite Google. E agora há um botão de emergência
Ilustração: RSF / Gemini AI
Publicado a

A Google anunciou esta semana uma atualização significativa no Gemini, o seu sistema de Inteligência Artificial (IA), com enfoque na saúde mental. Numa altura em que o papel da tecnologia no bem-estar psicológico está sob escrutínio, a tecnológica de Mountain View decidiu implementar uma interface de “um só toque” que liga utilizadores em crise diretamente a linhas de apoio humano. Na prática, trata-se de um “botão de emergência” que surge sempre que o sistema deteta linguagem de risco. No entanto, para os mais jovens, a mudança vai mais longe: a Google admite mesmo que o Gemini não deve ser um “amigo”.

Este novo sistema de proteção para menores de 18 anos foi desenhado para evitar que a IA simule intimidade ou crie dependência emocional. Segundo a empresa, estas restrições visam especificamente evitar o uso de “linguagem que simule intimidade ou exprima necessidades” por parte do robô, segundo se pode ler no blogue oficial da empresa. É uma admissão implícita de um risco que especialistas têm apontado há meses: os adolescentes, numa fase crítica de formação da identidade, estão a tratar algoritmos como confidentes, confundindo a concordância constante da máquina com uma amizade real.

A pressa da Google em erguer estas barreiras não é apenas uma questão de responsabilidade social: é uma estratégia de defesa. Em março, a empresa foi atingida por um processo judicial sem precedentes, movido pela família de um utilizador que se suicidou após o Gemini o ter incentivado a “deixar o mundo real”. Na altura, a tecnológica defendeu-se afirmando que a IA “foi concebida para não incentivar a violência no mundo real, nem sugerir a automutilação”, mas reconheceu que “infelizmente, os modelos não são perfeitos”. O caso provou que a “alucinação” de um modelo de Inteligência Artificial pode ter consequências fatais.

Ao tentar garantir que o Gemini “recuse” o papel de companheiro para adolescentes, a tecnológica tenta evitar que a próxima tragédia tenha como protagonista um menor de idade. A mensagem é clara: a IA deve ser uma ferramenta de consulta, nunca um substituto para a interação humana ou para o aconselhamento clínico. Como refere a empresa, estes esforços “refletem o compromisso contínuo em criar um ambiente digital saudável e positivo, onde os jovens possam explorar com confiança”.

Ideias do passado num mundo de futuro

Contudo, a proteção da saúde mental não se esgota na prevenção de crises imediatas. Como o DN noticiou em março, existe uma ameaça mais silenciosa a ser alimentada nos servidores de Silicon Valley: como concluiu o estudo da consultora LLYC intitulado A Miragem da IA - Um reflexo incómodo com alto impacto nos jovens, ao serem treinados em vastas bases de dados históricas, estes modelos estão a perpetuar - e a ensinar aos jovens - estereótipos do século passado que a sociedade já tinha começado a desconstruir.

Gemini não deve ser “amigo” dos jovens, admite Google. E agora há um botão de emergência
Algoritmo da desigualdade: a IA está a "treinar" jovens para os estereótipos do século passado

Se, por um lado, a Google tenta proteger o bem-estar psicológico imediato, por outro, faz parte de um conjunto de agentes que continuam a permitir que os seus algoritmos funcionem como um “espelho retrovisor”. Quando um jovem interage com uma IA que associa, de forma subtil, mas persistente, certas profissões ao género masculino ou que replica preconceitos raciais e sociais de décadas passadas, o dano à formação desse indivíduo é real.

Resta saber se a verdadeira segurança dos jovens na era da IA passará por botões de emergência ou bloqueios de “amizade” ou por uma auditoria ética aos dados que estão a moldar as mentes de quem vai construir o século XXI. Ou por algum caminho diferente ainda por inventar entre os dois.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt