O alerta foi feito por Megan Cornish, uma utilizadora da rede social profissional LinkedIn que, tal como tantas outras mulheres ao longo dos últimos meses, começou a dar conta de que a visibilidade e interação das suas publicações estava a diminuir, mesmo tendo um número significativo de ligações. A psicóloga pediu então a uma ferramenta de Inteligência Artificial que escrevesse as suas publicações de uma forma mais masculina, e retirou referências ao seu género, no perfil do LinkedIn. Numa semana, as interações com as suas publicações naquela rede social quadruplicaram.Cornish publicou a sua experiência num artigo no Substack que acabaria por chegar à imprensa internacional, sobretudo depois de várias mulheres procederem precisamente à mesma experiência e obterem os mesmos resultados: retiraram as referências ao género feminino, testaram linguagem mais simples e com um tom mais masculino e viram as interações disparar. O que significa, também, que aumentam a visibilidade e as oportunidades laborais.O LinkedIn, entretanto, reagiu. Num comunicado citado pelo Washington Post, a empresa garante que os seus sistemas de Inteligência Artificial – que, segundo o mesmo LinkedIn foram ajustados para classificar publicações e distribuí-las nos feeds dos utilizadores que mais se adequam a cada uma delas – se baseiam em centenas de critérios, mas que esses não incluem quais informações demográficas. Salienta o LinkedIn que idade, etina ou género não são considerados para determinar a “visibilidade de conteúdo, perfil ou posts no feed"."Mudar o género no perfil não afeta a forma como o conteúdo aparece na pesquisa ou feed", garantiu Sakshi Jain, diretor das áreas de governance e responsabilidade de IA da empresa, citado pelo mesmo jornal.No entanto, não é isso que reportam as centenas de mulheres que, entretanto, se dedicaram a fazer exatamente a mesma experiência que Cornish, e que têm relatado os resultados nos seus perfis ou outras plataformas e redes sociais.Os especialistas não estão particularmente surpreendidos – são vários, aliás, os estudos que ao longo do tempo têm mostrado o viés de ferramentas de Inteligência Artificial [e outras] em favor dos homens. Isto porque estas ferramentas são programadas, precisamente, por humanos, que não são neutros. Qualquer pessoa que programe estas ferramentas vai, inevitavelmente, passar-lhes as suas crenças e preconceitos, mesmo que não dê conta. .Mudar o género no perfil não afeta a forma como o conteúdo aparece na pesquisa ou feed Sakshi Jain, diretor das áreas de governance e responsabilidade de IA do LinkedIn.Allison Elias, professora assistente de administração de empresas na Universidade da Virgínia, ouvida pelo Washington Post, sublinhou que a experiência de Cornish levanta questões "sobre a forma como a linguagem ou características tradicionalmente associadas às mulheres são mais desvalorizadas e incorporadas nos nossos sistemas estruturais”. Ou seja, o viés não é consciente – o LinkedIn não diz à ferramenta para tratar de forma diferente homens e mulheres – mas ele existe, porque replica o que existe na sociedade.As plataformas são “uma sinfonia complexa de algoritmos que acionam alavancas matemáticas e sociais específicas, simultaneamente e constantemente”, notou Brandeis Marshall, consultor de ética de dados, ao TechCrunch, que também escreveu sobre o assunto. Marshall salientou que a maioria dessas plataformas “tem inerentemente incorporado um ponto de vista branco, masculino e ocidentalocêntrico” devido a quem treinou os modelos. Os investigadores encontram evidências de preconceitos humanos, como sexismo e racismo, em modelos grandes modelos de linguagem (LLM) populares porque estes são treinados com conteúdo gerado por humanos, e os humanos muitas vezes estão diretamente envolvidos no pós-treino ou no reforço da aprendizagem.Ainda assim, a forma como cada empresa implementa os seus sistemas de IA está envolta no segredo da caixa preta algorítmica, nota a publicação.E aqui é que reside grande parte do problema. Idealmente estas ferramentas deviam ajudar a reduzir esses enviesamentos, ao invés de os replicarem. A tecnologia "reflete valores sociais, e muitas vezes esses valores nem são notórios para nós, enquanto os mantemos", continuou Allison Elias. "O LinkedIn acha que o seu algoritmo é muito neutro... mas se as pessoas que usam o LinkedIn têm, implicitamente, um viés de género, então isso pode estar a moldar o algoritmo", admitiu.O mesmo comportamento tem sido, não raras vezes, reportado por candidatos a empregos e até por profissionais de Recursos Humanos que recorrem a ferramentas de IA para triar currículos. Experiências partilhadas no mesmo LinkedIn – e em outros contextos, como entrevistas ou conversas informais tidas com alguns empresários e responsáveis de RH – revelam que deixar as escolhas simplesmente nas mãos de Inteligência Artificial tem sido penalizador para as mulheres.Carol Kulik, da Universidade da Austrália do Sul, confirma a visão de Elias. "O LinkedIn é uma plataforma profissional, e a linguagem de negócios é muito masculina". Embora ela não duvide da afirmação do LinkedIn de que seu algoritmo não foi projetado para suprimir ou discriminar certos grupos de identidade, a especialista em Recursos Humanos e Diversidade e Inclusão é perentória: O algoritmo "vai ser sensível à linguagem de género? Claro que sim!"Acredita-se que os estilos de escrita estereotipados masculinos sejam mais concisos, enquanto os estilos de escrita estereotipados femininos são imaginados como mais suaves e emocionais. Se um grande modelo de linguagem (LLM) é treinado para melhorar a escrita que está em conformidade com os estereótipos masculinos, representa um preconceito subtil e implícito, escreve ainda o Tech Crunch. E o facto é que os investigadores acreditam que os LLM estão cheios deles pelas razões descritas acima. .A forma como cada empresa implementa os seus sistemas de IA está envolta no segredo da caixa preta algorítmica.Outro dos casos reportado pelo Washington Post – o Tech Crunch, por seu lado, também ouviu centenas de mulheres que participaram desta experiência orgânica – foi o de Rachel Maron, fundadora de uma empresa de Inteligência Artificial, que foi acompanhando o debate no LinkedIn antes de decidir experimentar no seu próprio perfil. "Na semana passada, removi os meus pronomes. Esta semana, mudei o meu marcador de género no LinkedIn para masculino. E, de repente, a plataforma pode ver-me", publicou Maron naquela rede socal. Os resultados surpreenderam-na profundamente: descobriu que o mesmo conteúdo sobre governança de IA, que anteriormente tinha obtido menos de 150 impressões, agora rendia "30.717 impressões", publicou na sua rede.É certo que um texto, ou centenas de mulheres a experimentar trocar o seu género e a ter resultados idênticos, não provam que todo o algoritmo do LinkedIn esteja errado. Mas sinaliza, pelo menos, que é preciso olhar para a questão de forma transparente, e perceber o que pode estar a acontecer. Mais que não seja porque os números continuam a mostrar um aumento da desigualdade de género. Pelo menos em Portugal.Dados do Boletim Estatístico 2025: Igualdade de Género em Portugal, relatório elaborado pela Comissão para a Cidadania e Igualdade de Género (CIG) mostram o seguinte: Seis em cada dez pessoas com ensino superior completo eram mulheres, em 2024. Elas representam 59,1% dos licenciados, 60,2% dos mestres e 53,1% dos doutorados. No entanto, quando se olha para as remunerações, nota-se que as mulheres ganham menos em todas os níveis de habilitação e que a diferença é maior quanto mais alta é a formação. “Com o ensino básico, as mulheres ganham em média menos 161,30 €/mês de remuneração base do que os homens (diferencial salarial de 13,9%), sendo que entre as pessoas com ensino superior, as mulheres ganham em média menos 564,8 €/mês do que os homens (diferencial salarial de 26,0%). A disparidade é ainda mais acentuada quando se consideram os ganhos totais (incluindo complementos), com as mulheres com formação superior a receberem em média menos 673,8 €/mês do que os homens, o que corresponde a um diferencial salarial de 26,2%”, lê-se no relatório.Números mais do que suficientes para alimentar a reflexão.