A escola do crime do “irmão mau” do ChatGPT

Publicado a

Escassos meses após o lançamento do ChatGPT, em novembro de 2022, que deixou o mundo boquiaberto com as surpreendentes capacidades da Inteligência Artificial (IA) generativa, surgiram os seus “irmãos do mal”.

Por serem acedidos exclusivamente através da “dark web”, modelos de IA como o “WormGPT” e o “FraudGPT” não tiveram o mesmo protagonismo mediático, tornando-se antes clones silenciosos que, à escala global, passaram a operar como escolas, enciclopédias e tutoriais de cibercrime, sem barreiras de conhecimento nem geográficas.

Em agosto de 2023, a Wired dava conta destes clones maliciosos que poderiam, pelo menos em teoria, aumentar a capacidade dos criminosos de escrever malware ou e-mails de phishing para levar utilizadores a fornecerem passwords das suas contas pessoais, aumentando o sucesso das fraudes. O grau de sofisticação do crime foi amplamente acelerado por estes chatbots, que mimetizam as funcionalidades do ChatGPT e do Bard, da Google, mas sem as restrições destes e com capacidades melhoradas ao longo do tempo. Até aos dias de hoje, têm sido usados para gerar texto que responde às necessidades dos hackers.

Um mês antes, em julho desse ano, os criadores do “WormGPT” tinham feito uma aparição em fóruns de cibercriminosos, apresentando este clone malicioso como um “projeto que pretende ser uma alternativa ao ChatGPT, permitindo fazer todo o tipo de coisas ilegais e vendê-las online facilmente no futuro. Tudo o que possam imaginar relativo a blackhat pode ser feito com o WormGPT, permitindo que qualquer pessoa aceda a atividades maliciosas sem nunca sair do conforto da sua casa”. O resultado, como se pode imaginar, é terrível.

Ao reduzir a barreira de entrada para cibercriminosos iniciantes, hackers a soldo e hacktivistas, a IA permite que agentes do crime sem qualquer qualificação (ou muito pouca) constituam uma ameaça séria. O Centro Nacional de Segurança Cibernética do Reino Unido alertou para esta realidade no seu relatório de janeiro de 2024, estimando que, nos dois anos seguintes, a IA aumente significativamente a ameaça global cibernética.

Esta quarta-feira, a Polícia Judiciária anunciou, em comunicado, a detenção, na zona Norte do país, de um jovem de 22 anos responsável pelo desenvolvimento do “WormGPT”. Este modelo de IA, baseado no ChatGPT, mas sem as barreiras impostas pela OpenAI para evitar crimes, enquanto Dark LLM podia ser "adquirido em fóruns de cibercriminosos (hacking) e permitia, mesmo a utilizadores com pouco conhecimento técnico, criar guiões para enganar pessoas, desenvolver vírus e outro tipo de software malicioso (malware), facilitando fraudes financeiras, ciberataques, espionagem corporativa e até campanhas de desinformação direcionadas", descreve a PJ.

A imprensa enfatizou até à exaustão que este jovem não tem licenciatura, que é um autodidata, e que a PJ “apreendeu toda a estrutura informática base do sistema” – ou seja, os computadores e servidores. Mas poucos se lembram de que o verdadeiro conhecimento está na pessoa. Esta detenção surge num momento em que os cibercriminosos estão a aproveitar-se da onda gigante de utilização global da IA generativa. Isto é transformador para o mundo do crime.

O pior é que uma detenção em fevereiro de 2025, quando esta plataforma serviu de escola do crime durante dois anos, à escala global, peca por tardia. Não há nada pior do que zonas de sombra na regulamentação sobre o uso da IA. E não falamos apenas da Europa e da sua aplicação nos Estados-membros, mas sim da necessidade de um esforço global. Afinal, estes “irmãos maus” do ChatGPT têm um alcance mundial. É urgente reforçar o uso responsável da IA e punir severamente os crimes associados a estas tecnologias.

Diário de Notícias
www.dn.pt