Cibercriminosos exploram ChatGPT e ameaçam segurança de dados

O assunto do momento é o ChatGPT. Os conteúdos textuais gerados a partir da Inteligência Artificial (IA) estão impressionando tecnólogos ao redor do mundo, apesar de ainda possuírem alguns tópicos a serem melhorados. Essa tecnologia também está movimentando a comunidade de escritores profissionais que, em sua maioria, se opõem. 

Contudo, há uma grande questão que envolve a segurança de dados. Cibercriminosos estão explorando os diferentes usos do chatbot de IA para obter dados pessoais. 

Existem alguns exemplos da má aplicação de geradores de texto de Inteligência Artificial. Confira alguns deles e como se proteger da prática: 

Malware

Geralmente, o malware tem um ciclo de vida curto: um cibercriminoso cria, infecta alguns dispositivos e, em seguida, os sistemas operacionais enviam uma atualização que protege os dispositivos desse malware específico.

Além disso, sites de tecnologia disparam alertas sobre ameaças emergentes de malware. 

VEJA MAIS: 

Já o ChatGPT tem capacidade de escrever códigos maliciosos. A IA poderia ser usada para escrever malware polimórfico, que é um tipo de programa que evolui constantemente, dificultando a detecção e consequentemente a defesa.

Ainda, os cibercriminosos podem usar o ChatGPT para escrever milhares de códigos maliciosos, enquanto um humano teria que fazer algumas pausas por necessidades básicas, a IA pode realizar essa tarefa sem interrupções; 

Ou seja, cibercriminosos poderiam transformar uma operação de malware em uma máquina de crime digital de 24 horas. 

Phishing

Os phishers, geralmente identificados por sua gramática e ortografia ruins, estão aperfeiçoando a qualidade de suas mensagens com IA. 

O ChatGPT também entende comandos de tom, para que os phishers possam aumentar o caráter de urgência nas mensagens, que exigem pagamento imediato ou respostas com senhas.

Catfish

Os perfis de namoro falsos ou pessoas que criam personas online falsas para atrair outras pessoas interessadas em se relacionar, estão começando a usar IA para golpes. 

Como o exemplo do malware, esses golpistas agora podem fazer o mesmo para acelerar a criação simultâneas de perfis. 

Para se ter uma ideia, o ChatGPT consegue alterar o tom das mensagens, o que serve de suporte para os criminosos na hora de fazer declarações de amor e convencer a pessoa do outro lado a renunciar seus dados pessoais que podem ser usados para transferências de dinheiro, por exemplo. 

Como evitar golpes do gerador de texto do ChatGPT?

Estar sempre alerta, observando minuciosamente todos os textos, e-mails ou mensagens diretas que receber de estranhos pode evitar golpes desse tipo. Frases curtas e reutilização de palavras são alguns dos indicadores. 

Outro ponto é que a Inteligência Artificial pode gerar conteúdo que diz muito mas sem formar opinião. 

Em caso de golpes de relacionamentos amorosos, se a pessoa com que está se comunicando se recusa a abrir câmera ou encontros pessoalmente, já é um sinal de alerta. 

Fonte: Security Report 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.