GOVERNO FEDERALspot_imgspot_img
28.3 C
Manaus
GOVERNO FEDERALspot_imgspot_img
InícioTecnologiaChina e Irã ultrapassam limite e usam ChatGPT para criar malware e...

China e Irã ultrapassam limite e usam ChatGPT para criar malware e ataques de phishing; confirma OpenAI

OpenAI confirmou que seus engenheiros identificaram mais de 20 ataques cibernéticos orquestrados com ChatGPT e outras ferramentas de modelo de linguagem estendida (LLM). Os autores, segundo técnicos da OpenAI, são hackers chineses e iranianos que encontraram uma maneira de usar essas ferramentas de inteligência artificial (IA) para desenvolver malware, depurá-lo e realizar outras atividades maliciosas.

O outro lado da inteligência artificial

O primeiro ataque realizado com ChatGPT foi planejado por ativistas chineses e teve como alvo vários governos de países asiáticos. Este ataque empregou uma estratégia de spear-phishing conhecida como ‘SweetSpecter’. O método usa um arquivo ZIP que inclui um arquivo malicioso, de modo que, se for baixado e aberto, poderá infectar o sistema do usuário. Os engenheiros da OpenAI descobriram que o ‘SweetSpecter’ foi criado usando várias contas que usavam ChatGPT para escrever o código e descobrir vulnerabilidades.

(Imagem: Tima Miroshnichenko/Pexels)

O segundo ataque otimizado para IA foi realizado por um grupo baseado no Irã conhecido como ‘CyberAv3ngers’. Nesta ocasião, esta organização utilizou o ChatGPT para explorar vulnerabilidades e roubar senhas de usuários de computadores com macOS. E o terceiro foi planejado por um grupo conhecido como ‘Storm-0817’, também baseado no Irã. Desta vez eles usaram o ChatGPT para desenvolver software malicioso para Android capaz de roubar listas de contatos, acessar registros de chamadas e histórico do navegador.

Segundo a OpenAI, todos os ataques em que o ChatGPT participou foram realizados utilizando métodos perfeitamente conhecidos, ou seja, os hackers não parecem ter desenvolvido quaisquer métodos originais. A consequência mais óbvia destas práticas é que não desenvolveram quaisquer variantes de malware substancialmente novas. No entanto, o problema é que estes ataques cibernéticos lembram-nos como é fácil para hackers com conhecimentos mínimos utilizar a IA para desenvolver software malicioso com capacidades prejudiciais muito importantes.

A OpenAI confirmou que continuará a melhorar a sua tecnologia para evitar que seja utilizada para fins maliciosos. Segundo o Xataka, foram criadas várias equipes de trabalho especializadas em segurança e proteção que irão partilhar as suas descobertas com outras empresas e a comunidade para tentar evitar que mais ataques cibernéticos como estes se repitam. Em qualquer caso, é evidente que não só a OpenAI deve tomar estas medidas. Outras empresas que possuem modelos generativos de IA deveriam se empenhar para melhorar a segurança na área.

- Patrocinado -spot_imgspot_img

Últimos artigos

R6 News Mais

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

spot_imgspot_img

R6 NEWS

Pauta contra jornada 6×1 pressiona Congresso e PEC chega a 134 assinaturas

Desde domingo (10), as redes sociais no Brasil têm uma pauta prioritária, que parece estar longe de perder o fôlego: a discussão da redução da...

Cientistas descobrem substância química que impede o desenvolvimento do glaucoma

Pesquisadores do Centro de Pesquisa Biomédica de La Rioja (CIBIR), na Espanha, identificaram uma substância química capaz de interromper o desenvolvimento do glaucoma, uma das...

Pacote de corte de gastos pode ser anunciado nesta quinta, diz Haddad

O pacote de medidas de corte de gastos obrigatórios será anunciado após o presidente Luiz Inácio Lula da Silva explicar as propostas aos presidentes...
spot_imgspot_img