Microsoft alerta para abusos e perigos dos agentes de IA em empresas

Relatório diz que empresas pioneiras já trabalham com equipas mistas de pessoas e agentes de IA e mais de 80% das empresas da Fortune 500 utilizam agentes ativos criados com ferramentas de ‘low code’.
Sede da Microsoft, em Redmond, estado de Washington.
Sede da Microsoft, em Redmond, estado de Washington.David Ryder / GETTY IMAGES NORTH AMERICA / Getty Images via AFP
Publicado a

A Microsoft alertou esta quarta-feira, 11, para o risco dos agentes duplos, que aproveitam os acessos e privilégios concedidos aos agentes de inteligência artificial (IA) para realizar ações maliciosas sem que as empresas se apercebam.

De acordo com o relatório Cyber Pulse 2026 da Microsoft, as empresas pioneiras já trabalham com equipas mistas de pessoas e agentes de IA e mais de 80% das empresas da Fortune 500 utilizam agentes ativos criados com ferramentas de ‘low code’.

A Fortune 500 é a lista anual elaborada pela revista Fortune que classifica as 500 maiores corporações dos Estados Unidos com base no seu volume de receitas totais.

Neste sentido, setores como ‘software’ e tecnologia (16%), manufatura (13%), instituições financeiras (11%) e comércio retalhista (9%) já utilizam agentes de IA para apoiar a realização de tarefas cada vez mais complexas, como redigir propostas, analisar dados financeiros, classificar alertas de segurança, automatizar processos repetitivos e obter informação.

Estes agentes podem funcionar de forma assistida, respondendo às indicações dos utilizadores, ou de forma autónoma, executando tarefas com muito pouca intervenção humana.

No entanto, a crescente adoção é acompanhada por novos riscos, uma vez que os agentes de IA estão a escalar mais rapidamente do que algumas empresas, o que provoca uma falta de visibilidade que pode dar origem ao que é conhecido como IA na sombra (‘shadow IA’) e agentes duplos.

Esta ameaça traduz-se no abuso dos agentes de IA, aproveitando-se do facto de terem amplas permissões e acesso aos sistemas para trabalhar de forma autónoma.

“Um agente com permissões excessivas, ou com instruções incorretas, pode tornar-se uma vulnerabilidade”, alertou na Microsoft em comunicado.

Tal como acontece com as pessoas, os agentes de IA podem tornar-se agentes duplos “se não forem geridos, se tiverem permissões inadequadas ou receberem instruções de fontes não fiáveis”.

Segundo o Índice de Segurança de Dados da Microsoft, apenas 47% das organizações de todos os setores afirmam estar a implementar controlos de segurança específicos para a IA generativa.

A tecnológica defende a adoção de uma abordagem de segurança de confiança zero (‘Zero Trust’) com os agentes, o que implica conceder acesso com privilégios mínimos e indispensáveis, verificar quem ou o que solicita acesso e projetar os sistemas partindo do princípio de que os atacantes podem vir a ter acesso.

Sede da Microsoft, em Redmond, estado de Washington.
Microsoft lança novos chips de IA para desafiar Nvidia e Google

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt