A OpenAI confirmou que seus engenheiros identificaram mais de 20 ataques cibernéticos orquestrados com ChatGPT e outras ferramentas de modelo de linguagem estendida (LLM). Os autores, segundo técnicos da OpenAI, são hackers chineses e iranianos que encontraram uma maneira de usar essas ferramentas de inteligência artificial (IA) para desenvolver malware, depurá-lo e realizar outras atividades maliciosas.
O outro lado da inteligência artificial
O primeiro ataque realizado com ChatGPT foi planejado por ativistas chineses e teve como alvo vários governos de países asiáticos. Este ataque empregou uma estratégia de spear-phishing conhecida como ‘SweetSpecter’. O método usa um arquivo ZIP que inclui um arquivo malicioso, de modo que, se for baixado e aberto, poderá infectar o sistema do usuário. Os engenheiros da OpenAI descobriram que o ‘SweetSpecter’ foi criado usando várias contas que usavam ChatGPT para escrever o código e descobrir vulnerabilidades.
O segundo ataque otimizado para IA foi realizado por um grupo baseado no Irã conhecido como ‘CyberAv3ngers’. Nesta ocasião, esta organização utilizou o ChatGPT para explorar vulnerabilidades e roubar senhas de usuários de computadores com macOS. E o terceiro foi planejado por um grupo conhecido como ‘Storm-0817’, também baseado no Irã. Desta vez eles usaram o ChatGPT para desenvolver software malicioso para Android capaz de roubar listas de contatos, acessar registros de chamadas e histórico do navegador.
Segundo a OpenAI, todos os ataques em que o ChatGPT participou foram realizados utilizando métodos perfeitamente conhecidos, ou seja, os hackers não parecem ter desenvolvido quaisquer métodos originais. A consequência mais óbvia destas práticas é que não desenvolveram quaisquer variantes de malware substancialmente novas. No entanto, o problema é que estes ataques cibernéticos lembram-nos como é fácil para hackers com conhecimentos mínimos utilizar a IA para desenvolver software malicioso com capacidades prejudiciais muito importantes.
A OpenAI confirmou que continuará a melhorar a sua tecnologia para evitar que seja utilizada para fins maliciosos. Segundo o Xataka, foram criadas várias equipes de trabalho especializadas em segurança e proteção que irão partilhar as suas descobertas com outras empresas e a comunidade para tentar evitar que mais ataques cibernéticos como estes se repitam. Em qualquer caso, é evidente que não só a OpenAI deve tomar estas medidas. Outras empresas que possuem modelos generativos de IA deveriam se empenhar para melhorar a segurança na área.