· Em termos de cibersegurança, o bot de conversação ChatGPT assinala o início de uma nova fase das ameaças online em que, para já, os utilizadores precisam de treinar a sua capacidade de deteção humana para reconhecer situações de perigo.
· O potencial de uso deste bot é virtualmente ilimitado, podendo ser usado por cibercriminosos para desenvolver emails de phishing e malware incrivelmente bem elaborados e difíceis de reconhecer sem tecnologias de neutralização.
· Hackers já estão a conseguir que o ChatGPT produza ciberameaças para atingir qualquer alvo a qualquer momento - e embora o código gerado possa ainda não se comparar ao de grupos cibercriminosos estabelecidos, a automação por inteligência artificial reduz a barreira de entrada a agentes maliciosos menos experientes.
A rápida difusão e potencial de utilização de chatbots, ou bots de conversação, como o ChatGPT assinala a entrada numa nova fase de ciberameaças cada vez mais difíceis de detetar sem tecnologias de neutralização. A ESET, especialista europeia em cibersegurança, alerta que a chegada ao grande-público de um dos primeiros exemplos reais de tecnologia de inteligência artificial (IA) gratuita e fácil de usar pode reduzir quer a capacidade de reconhecimento das ameaças pelos utilizadores, quer a barreira de entrada a novos agentes maliciosos que tiram partido da capacidade do ChatGPT para escrever emails de phishing e malware.
Já com mais de um milhão de utilizadores, o ChatGPT potenciado por IA mobiliza grandes volumes de dados na Internet para responder a questões com aparente autoridade, naturalidade e em múltiplas línguas, incluindo português europeu. Segundo a ESET, este tipo de automação está a tornar-se numa enorme ameaça para a segurança dos utilizadores, que precisam de treinar a sua capacidade de deteção humana para reconhecer situações de perigo enquanto as tecnologias de resposta não recuperarem terreno.
Hackers já estão a conseguir que o ChatGPT produza ciberameaças para atingir qualquer alvo a qualquer momento. Com a ajuda do ChatGPT, os emails de phishing podem conseguir manipular os utilizadores com padrões de comunicação ainda mais convincentes e sem erros gritantes. A criação de infostealers básicos também se pode tornar mais célere e avançada, corrigindo inclusive erros no código. E embora esse código ainda não se compare ao de grupos cibercriminosos estabelecidos, a automação por IA reduz a barreira de entrada a agentes maliciosos menos experientes.
À medida que ferramentas potenciadas por IA como o ChatGPT se tornam mais amplamente disponíveis, é provável que mais cibercriminosos comecem a usá-las. Já se conhecem exemplos disso, como o uso indevido de imagens geradas por IA em campanhas de desinformação. Para a ESET, a maior preocupação é a automação e escalabilidade desta tecnologia. Apesar de não existirem atualmente APIs oficiais do ChatGPT, existem opções criadas pela comunidade. Segundo a especialista em cibersegurança, isto tem o potencial de industrializar a criação e personalização de páginas web maliciosas, campanhas de phishing direcionadas e manobras de engenharia social, entre outras.