Se trabalha, procura trabalho, lidera uma equipa ou tenta fazer crescer um negócio, tem uma probabilidade elevada do seu futuro profissional estar hoje a ser influenciado por um algoritmo. Não em resultado de uma decisão explícita, assinada ou explicada, mas por um sistema invisível que decide quem aparece, quem é ouvido e quem desaparece do radar.Durante anos, habituámo-nos à ideia de que os algoritmos são neutros, técnicos e objetivos. Que apenas “organizam informação”. Só que essa ideia é falsa - e perigosa - sobretudo quando falamos de trabalho, oportunidades económicas e acesso à visibilidade profissional no mundo digital.Plataformas como o LinkedIn tornaram-se verdadeiras infraestruturas do mercado de trabalho. Não são apenas redes sociais: são espaços onde se constrói reputação, se acede a oportunidades, se captam clientes, investimentos e influência. Por isso, quando um algoritmo decide reduzir drasticamente a visibilidade de alguém, não está apenas a gerir conteúdo. Está a interferir na sua capacidade de gerar rendimento, de crescer profissionalmente ou de ser reconhecido. E isto acontece muitas vezes sem que a própria pessoa saiba porquê.Nada como um exemplo, entre muitos, para ajudar a perceber a dimensão do problema. No verão de 2025, quando Cindy Gallop e dois colegas homens publicaram conteúdos idênticos e ao mesmo tempo, os resultados foram surpreendentes: ela teve 0,6% de alcance e eles 51% e 143%. E não foi o conteúdo que falhou, mas sim o sistema que decidiu, sem explicação, quem merecia ser ouvido.É certo que ninguém é obrigado a estar no LinkedIn. Mas quando uma plataforma se torna uma das principais portas de acesso globais ao trabalho, ao rendimento e à influência profissional, a lógica da “escolha individual” deixa de ser um argumento suficiente.Aqui, entra a questão democrática. Num Estado de direito, decisões com impacto económico e social relevante devem ser explicáveis, escrutináveis e contestáveis. Não se trata de likes ou vaidade digital, mas sim de quem recebe convites para conselhos de administração, quem é contactado por recrutadores, quem consegue angariar investidores, clientes ou visibilidade mediática.A visibilidade digital tornou-se numa nova moeda económica. Mas a falsa neutralidade cai definitivamente quando percebemos como estes sistemas são treinados e otimizados. Que aprendem com dados históricos e que a história do trabalho é desigual. Que valorizam sinais que tendem a favorecer perfis já dominantes: grandes empresas, redes consolidadas, estilos de comunicação alinhados com normas tradicionais de poder. Mesmo quando não “usam” o género, origem ou classe social, recorrem a proxies - linguagem, tom, redes, padrões de atividade - que produzem efeitos discriminatórios muito reais.Perante esta constatação, a conclusão é clara: os algoritmos estão a tornar-se novas infraestruturas de desigualdade económica. Amplificam vantagens iniciais, concentram visibilidade no topo e empurram vozes menos conformes para a periferia.A pergunta que se impõe já não é tecnológica. É política. Queremos aceitar que sistemas privados, nada transparentes e sem escrutínio tenham este poder sobre o trabalho e aeconomia? Porque quando a visibilidade se torna uma moeda, decidir quem é visto é decidir quem conta. E isso já não é apenas uma questão de algoritmo. É uma questão democrática e o debate precisa de entrar na agenda pública, política e regulatória. Antes que o poder algorítmico se torne irreversível.