GOVERNO FEDERALspot_imgspot_img
24.3 C
Manaus
GOVERNO FEDERALspot_imgspot_img
InícioTecnologiaChina e Irã ultrapassam limite e usam ChatGPT para criar malware e...

China e Irã ultrapassam limite e usam ChatGPT para criar malware e ataques de phishing; confirma OpenAI

OpenAI confirmou que seus engenheiros identificaram mais de 20 ataques cibernéticos orquestrados com ChatGPT e outras ferramentas de modelo de linguagem estendida (LLM). Os autores, segundo técnicos da OpenAI, são hackers chineses e iranianos que encontraram uma maneira de usar essas ferramentas de inteligência artificial (IA) para desenvolver malware, depurá-lo e realizar outras atividades maliciosas.

O outro lado da inteligência artificial

O primeiro ataque realizado com ChatGPT foi planejado por ativistas chineses e teve como alvo vários governos de países asiáticos. Este ataque empregou uma estratégia de spear-phishing conhecida como ‘SweetSpecter’. O método usa um arquivo ZIP que inclui um arquivo malicioso, de modo que, se for baixado e aberto, poderá infectar o sistema do usuário. Os engenheiros da OpenAI descobriram que o ‘SweetSpecter’ foi criado usando várias contas que usavam ChatGPT para escrever o código e descobrir vulnerabilidades.

(Imagem: Tima Miroshnichenko/Pexels)

O segundo ataque otimizado para IA foi realizado por um grupo baseado no Irã conhecido como ‘CyberAv3ngers’. Nesta ocasião, esta organização utilizou o ChatGPT para explorar vulnerabilidades e roubar senhas de usuários de computadores com macOS. E o terceiro foi planejado por um grupo conhecido como ‘Storm-0817’, também baseado no Irã. Desta vez eles usaram o ChatGPT para desenvolver software malicioso para Android capaz de roubar listas de contatos, acessar registros de chamadas e histórico do navegador.

Segundo a OpenAI, todos os ataques em que o ChatGPT participou foram realizados utilizando métodos perfeitamente conhecidos, ou seja, os hackers não parecem ter desenvolvido quaisquer métodos originais. A consequência mais óbvia destas práticas é que não desenvolveram quaisquer variantes de malware substancialmente novas. No entanto, o problema é que estes ataques cibernéticos lembram-nos como é fácil para hackers com conhecimentos mínimos utilizar a IA para desenvolver software malicioso com capacidades prejudiciais muito importantes.

A OpenAI confirmou que continuará a melhorar a sua tecnologia para evitar que seja utilizada para fins maliciosos. Segundo o Xataka, foram criadas várias equipes de trabalho especializadas em segurança e proteção que irão partilhar as suas descobertas com outras empresas e a comunidade para tentar evitar que mais ataques cibernéticos como estes se repitam. Em qualquer caso, é evidente que não só a OpenAI deve tomar estas medidas. Outras empresas que possuem modelos generativos de IA deveriam se empenhar para melhorar a segurança na área.

- Patrocinado -spot_imgspot_img

Últimos artigos

R6 News Mais

- GOVERNO FEDERAL -spot_imgspot_img

R6 NEWS

COP15 de Espécies Migratórias Silvestres será no Brasil em 2026

O Brasil vai liderar mais um fórum global das Nações Unidas em Campo Grande, no Mato Grosso do Sul. Será a 15ª Conferência da Convenção sobre...

Conheça o projeto que está transformando Serra da Mantiqueira em um polo do Bitcoin

Criado em outubro de 2024, o projeto Bitcoin Amantikir está transformando a Serra da Mantiqueira em mais uma região focada na aceitação do...
spot_imgspot_img
×

Olá, venha fazer parte do grupo mais informativo de Manaus.

Entrar no Grupo