Liderança aumentada. Por que é errado deixar as decisões empresariais nas mãos da IA

A ilusão da eficiência absoluta do algoritmo. Trabalho da Nova SBE aponta caminhos para os líderes empresariais utilizarem da melhor forma as novas ferramentas do conhecimento
Lénia Mestrinho é a diretora executiva do Digital Data Design Institute da Nova SBE
Lénia Mestrinho é a diretora executiva do Digital Data Design Institute da Nova SBEPaulo Spranger
Publicado a

No atual ecossistema empresarial, a Inteligência Artificial (IA) deixou de ser uma promessa futurista para se tornar o motor de uma “grande aceleração” que já atropela a própria capacidade humana de a medir. O crescimento é vertiginoso: o ChatGPT atingiu já os 800 milhões de utilizadores semanais (dados de outubro de 2025) tendo duplicado - de novo - a sua base em apenas oito meses. Ao mesmo tempo, 99% das empresas da Fortune 500 já integraram tecnologia de IA nos seus processos. No entanto, no meio deste turbilhão, surge um alerta crítico: entregar as decisões estratégicas a algoritmos probabilísticos é um erro que pode comprometer a sobrevivência das em- presas a longo prazo.

Quem o diz é o novo relatório da Aliança Global CEMS - Augmented Leadership: Navigating the New Age of Intelligence (2025). Segundo a organização - que junta 33 das melhores universidades e escolas de Gestão do mundo, e da qual a Nova SBE é membro e único representante de Portugal - esta “aceleração” não é apenas tecnológica: é uma pressão psicológica.

Isto porque o fosso entre a adoção e a geração de valor real é gritante. Um estudo do Boston Consulting Group (BCG), citado pela CEMS, revela que apenas 5% das empresas estão a gerar valor real com a IA em escala, conseguindo aumentos de receita até 5 vezes superiores aos dos seus pares. Em contrapartida, 60% das organizações reportam pouco ou nenhum impacto, apesar dos investimentos massivos. O erro? Tratar a tecnologia como um decisor automático em vez de um amplificador da inteligência humana.

A IA não é rigorosa, mas tratamo-la como se fosse

A raiz do problema reside na incompreensão da ferramenta por quem a utiliza. As potencialidades da IA, em especial da Inteligência Artificial generativa, são gigantescas, mas as suas limitações também são imensas e não o compreender pode ser fatal.

“Uma ferramenta estilo o ChatGPT não é rigorosa por definição. Ela atua com base em previsões e probabilidades”, diz em entrevista ao DN, Lénia Mestrinho, diretora executiva do Digital Data Design Institute da Nova SBE e da Nova Medical School. “Ela pode alucinar com total confiança”, lembra a professora.

Se um líder delega uma decisão crítica num modelo que prioriza a facilidade de expressão sobre a precisão, está a abdicar da verdade em favor da probabilidade. Lénia Mestrinho reforça que a literacia é o único antídoto: “Se não tivermos literacia mínima, é um risco muito grande.”

O erro reside, assim, na liderança que trata o “copiloto” como se fosse o “comandante” infalível.

Em termos técnicos, chama-se a este processo cognitive offloading. Inquéritos da Forbes indicam que, embora 97% dos donos de negócios acreditem que o ChatGPT ou uma ferramenta semelhante vai ajudar as suas empresas, a dependência excessiva atrofia o pensamento crítico. O relatório CEMS alerta que o líder corre o risco de se tornar um mero “utilizador de TikTok”, consumindo informação de forma passiva.

“Como é que a IA nos ajuda a pensar, em vez de nos dar a resposta pronta?”, questiona Lénia Mestrinho. Deixar de sintetizar informação por si próprio retira ao líder a capacidade de detetar nuances. Um líder que apenas assina o que a IA escreveu torna-se um validador de estatísticas. A regra é inegociável: “Think First, Prompt Second”. O cérebro humano deve ser o filtro inicial e o juiz final.

O “fosso da especialização” e o desafio da requalificação

A face visível do erro de gestão manifesta-se em cortes radicais. O caso da empresa do setor financeiro sueca Klarna é paradigmático: anunciou a intenção de reduzir a sua força de trabalho de 5000 para 2000 colaboradores, alegando que a IA faz o trabalho de milhares. No entanto, o CEMS levanta uma questão sistémica: o fosso da especialização.

“Pode levar 10 a 15 anos para construir um alto nível de perícia”, lê-se no estudo. Ao automatizar o “terreno de treino” dos juniores, as empresas estão a “comer a semente” do seu capital intelectual futuro. Sem estas experiências fundacionais, de onde virão os especialistas de 2040?

Surgirá assim o “efeito boomerang”: empresas que dispensam massa humana em favor da IA, depois irão enfrentar quebras na originalidade e ser forçadas a recontratar humanos a preços mais elevados para recuperar a nuance que as máquinas não simulam.

A escala da mudança é colossal. Lénia Mestrinho cita dados do World Economic Forum que estimam que cerca de 40% das competências atuais serão substituídas até 2030. Na Europa, calcula-se que 100 milhões de pessoas precisarão de transformar as suas competências digitais na próxima década.

O relatório CEMS alerta que um líder corre o risco  de se tornar um mero “utilizador de TikTok”, consumindo informação de forma passiva. Na foto, Lénia Mestrinho numa das salas de formação da Nova SBE.
O relatório CEMS alerta que um líder corre o risco de se tornar um mero “utilizador de TikTok”, consumindo informação de forma passiva. Na foto, Lénia Mestrinho numa das salas de formação da Nova SBE.Paulo Spranger

Em Portugal, a Nova SBE está na linha da frente desta resistência cognitiva. O programa de formação do Millennium BCP, por exemplo, que está a realizar-se, abrange mais de 6000 pessoas, focando-se na utilização responsável e ética. “A chave está na visão das lideranças para começar a trabalhar nisto ontem”, afirma a professora.

Nas instalações da universidade, através do AI Experimentation Lab (D-Cube), utilizam-se sensores neuronais para identificar quando o humano confia excessivamente na máquina, criando líderes que usem a IA como um “tutor socrático” e não como uma fábrica de respostas.

Ser mestre de si próprio é o caminho

A última fronteira da liderança permanece intocada pela automação: a capacidade de inspirar e navegar na ambiguidade emocional. “Vamos precisar sempre de estar uns com os outros, de gerir conflitos e criar entusiasmo. Isso é inerentemente humano”, conclui Lénia Mestrinho.

O futuro não será decidido por quem domina melhor o algoritmo, mas por quem sabe quando o ignorar. Numa era onde a IA pode processar tudo, mas não entende nada, o verdadeiro líder é aquele que recusa ser um passageiro. Como sugere o relatório, o objetivo é formar profissionais que dominem a tecnologia, mas que sejam, acima de tudo, mestres de si próprios. Sejam capazes de se adaptar, momento a momento, às transformações que a realidade exige - porque essas surgirão sempre e a realidade, essa, é inescapável.

Lénia Mestrinho é a diretora executiva do Digital Data Design Institute da Nova SBE
Algoritmo da desigualdade: a IA está a "treinar" jovens para os estereótipos do século passado

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt