Em 13 de julho, o WormGPT, uma ferramenta de IA maliciosa, nasceu do nada. Com sua ajuda, gerou automaticamente uma série de e-mails de phishing, deixando todos em pânico.
Vendo que uma onda não é plana, outra onda sobe novamente.
De acordo com a plataforma de análise de segurança Netenrich, uma ferramenta de IA chamada FraudGPT circulou recentemente na dark web e foi usada por criminosos para escrever e-mails de phishing e desenvolver malware.
Baseado em GPT-3, função poderosa, grande ameaça, operação simples
Como todos sabemos, as ferramentas tradicionais de hackers exigem que os usuários tenham habilidades de programação correspondentes para executar melhor os ataques à rede.
Em comparação, o FraudGPT parece ser mais simples, direto, eficiente e "mais ameaçador".
Seja você um desenvolvedor profissional ou um novato, você só precisa através de um método simples de perguntas e respostas para conseguir hackear.
De acordo com a Netenrich, o FraudGPT funciona redigindo um e-mail com um alto grau de confiança de que os destinatários são induzidos a clicar em um link malicioso fornecido. Suas principais funções incluem:
Criar página de site de phishing. O FraudGPT pode gerar e-mails de phishing com aparência genuína, mensagens de texto ou sites para induzir os usuários a revelar informações confidenciais, como credenciais de login, detalhes financeiros ou dados pessoais;
Encontre os alvos mais vulneráveis. Chatbots podem imitar conversas humanas, construindo confiança com usuários desavisados, levando-os a revelar informações confidenciais sem saber ou realizar ações prejudiciais;
** Crie malware indetectável. ** FraudGPT pode criar mensagens enganosas que induzem os usuários a clicar em links maliciosos ou baixar anexos nocivos, infectando seus dispositivos com malware;
** Escreva mensagens de texto e e-mails fraudulentos. **Chatbots com IA podem ajudar os hackers a criar documentos fraudulentos, faturas ou solicitações de pagamento, resultando em indivíduos e empresas vítimas de golpes financeiros.
É relatado que FraudGPT é fornecido por um desenvolvedor chamado "CanadianKingpin".
Baseia-se principalmente no modelo de linguagem em grande escala do GPT-3, que pode gerar texto fraudulento lógico e factual após o treinamento. Depois que os criminosos pagam por isso, o FraudGPT pode ajudá-los em phishing e scamming bem-sucedidos.
Varrendo a dark web, ao preço de US$ 200/mês
De fato, o FraudGPT não é o primeiro caso de ferramentas de IA que reduzem a barreira de entrada para cibercriminosos.
Mesmo que provedores de IA como Claude, ChatGPT, Bard, etc. tomem algumas medidas para evitar que sua tecnologia seja usada para propósitos ruins, com o surgimento do modelo de código aberto, será difícil para os criminosos conter o comportamento malicioso.
No início de julho, o "WormGPT", que foi desenvolvido com base no grande modelo de linguagem de código aberto GPT-J e usou uma grande quantidade de código malicioso para treinamento e ajuste fino, também atraiu a atenção.
É relatado que o WormGPT é bom em usar o código Python para executar vários ataques de rede, como gerar cavalos de Tróia, links maliciosos, imitar sites, etc.
Mas, em comparação, além das funções mais poderosas do FraudGPT, o preço também é muito superior ao do WormGPT, que cobra 60 euros por mês. **O preço da assinatura mensal chega a 200 dólares americanos, que é 10 vezes o preço do ChatGPT Mais. **
Você pode obter um desconto se comprar uma assinatura de três ou seis meses e custa US $ 1.700 para comprar um ano de acesso.
Atualmente, o FraudGPT varreu muitos mercados clandestinos da darknet, como WHM, Empire, AlphaBay, World, Versus e Torrez, com atingindo mais de 3.000 transações.
**Quando o limite do crime é reduzido, como os usuários podem evitá-lo? **
Não há dúvida de que, seja WormGPT ou FraudGPT, essas ferramentas ameaçadoras de IA estão "capacitando" a promoção de crimes cibernéticos e fraudes.
A plataforma de análise de segurança Netenrich declarou: “Esta tecnologia reduzirá a barreira à entrada de e-mails de phishing e outros golpes. Com o tempo, os criminosos encontrarão mais maneiras de usar as ferramentas que inventamos para aprimorar sua capacidade criminosa."
Quando o lado maligno das ferramentas de IA é totalmente demonstrado, juntamente com o "limite baixo" dos ataques cibernéticos, é particularmente importante fortalecer as estratégias de defesa.
Para esse fim, o The Economic Times of India delineou algumas etapas importantes que indivíduos e empresas podem tomar para garantir que estejam protegidos contra a ameaça do FraudGPT e ferramentas de IA semelhantes.
** Esteja atento às comunicações online. **Não clique aleatoriamente em links de sites desconhecidos, e-mails ou instale software desconhecido. Ao mesmo tempo, e-mails acidentais que requerem verificação, envolvem informações confidenciais ou transações financeiras devem ser verificados por meio de canais oficiais.
**Mantenha-se informado sobre as medidas de segurança de rede. **Atualize o software de segurança regularmente, instale patches e use um programa antivírus confiável para se proteger contra possíveis ameaças. Ao mesmo tempo, também é necessário entender as práticas de segurança de rede mais recentes e aprimorar a consciência de defesa contra ataques de rede.
**Cuidado com links e anexos desconhecidos. **Não clique em links ou abra anexos de fontes desconhecidas. O FraudGPT pode gerar URLs realistas para sites de phishing, por isso é crucial verificar a identidade do remetente antes de clicar em qualquer link.
**Educar e treinar funcionários. **Para as empresas, o treinamento dos funcionários nas melhores práticas de segurança cibernética é fundamental. Certifique-se de que os funcionários estejam cientes das possíveis ameaças e saibam como identificar atividades suspeitas. Se os funcionários encontrarem mensagens suspeitas, eles devem denunciá-las imediatamente ao departamento de TI.
Link de referência:
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A "fraude" de IA pode ser implementada por US$ 200 por mês? A versão hacker do ChatGPT sem limite técnico está varrendo a dark web
Fonte: CSDN
Autor: Zhu Kexin
Em 13 de julho, o WormGPT, uma ferramenta de IA maliciosa, nasceu do nada. Com sua ajuda, gerou automaticamente uma série de e-mails de phishing, deixando todos em pânico.
Vendo que uma onda não é plana, outra onda sobe novamente.
De acordo com a plataforma de análise de segurança Netenrich, uma ferramenta de IA chamada FraudGPT circulou recentemente na dark web e foi usada por criminosos para escrever e-mails de phishing e desenvolver malware.
Baseado em GPT-3, função poderosa, grande ameaça, operação simples
Como todos sabemos, as ferramentas tradicionais de hackers exigem que os usuários tenham habilidades de programação correspondentes para executar melhor os ataques à rede.
Em comparação, o FraudGPT parece ser mais simples, direto, eficiente e "mais ameaçador".
Seja você um desenvolvedor profissional ou um novato, você só precisa através de um método simples de perguntas e respostas para conseguir hackear.
De acordo com a Netenrich, o FraudGPT funciona redigindo um e-mail com um alto grau de confiança de que os destinatários são induzidos a clicar em um link malicioso fornecido. Suas principais funções incluem:
É relatado que FraudGPT é fornecido por um desenvolvedor chamado "CanadianKingpin".
Baseia-se principalmente no modelo de linguagem em grande escala do GPT-3, que pode gerar texto fraudulento lógico e factual após o treinamento. Depois que os criminosos pagam por isso, o FraudGPT pode ajudá-los em phishing e scamming bem-sucedidos.
Varrendo a dark web, ao preço de US$ 200/mês
De fato, o FraudGPT não é o primeiro caso de ferramentas de IA que reduzem a barreira de entrada para cibercriminosos.
Mesmo que provedores de IA como Claude, ChatGPT, Bard, etc. tomem algumas medidas para evitar que sua tecnologia seja usada para propósitos ruins, com o surgimento do modelo de código aberto, será difícil para os criminosos conter o comportamento malicioso.
No início de julho, o "WormGPT", que foi desenvolvido com base no grande modelo de linguagem de código aberto GPT-J e usou uma grande quantidade de código malicioso para treinamento e ajuste fino, também atraiu a atenção.
É relatado que o WormGPT é bom em usar o código Python para executar vários ataques de rede, como gerar cavalos de Tróia, links maliciosos, imitar sites, etc.
Mas, em comparação, além das funções mais poderosas do FraudGPT, o preço também é muito superior ao do WormGPT, que cobra 60 euros por mês. **O preço da assinatura mensal chega a 200 dólares americanos, que é 10 vezes o preço do ChatGPT Mais. **
Você pode obter um desconto se comprar uma assinatura de três ou seis meses e custa US $ 1.700 para comprar um ano de acesso.
Atualmente, o FraudGPT varreu muitos mercados clandestinos da darknet, como WHM, Empire, AlphaBay, World, Versus e Torrez, com atingindo mais de 3.000 transações.
**Quando o limite do crime é reduzido, como os usuários podem evitá-lo? **
Não há dúvida de que, seja WormGPT ou FraudGPT, essas ferramentas ameaçadoras de IA estão "capacitando" a promoção de crimes cibernéticos e fraudes.
A plataforma de análise de segurança Netenrich declarou: “Esta tecnologia reduzirá a barreira à entrada de e-mails de phishing e outros golpes. Com o tempo, os criminosos encontrarão mais maneiras de usar as ferramentas que inventamos para aprimorar sua capacidade criminosa."
Quando o lado maligno das ferramentas de IA é totalmente demonstrado, juntamente com o "limite baixo" dos ataques cibernéticos, é particularmente importante fortalecer as estratégias de defesa.
Para esse fim, o The Economic Times of India delineou algumas etapas importantes que indivíduos e empresas podem tomar para garantir que estejam protegidos contra a ameaça do FraudGPT e ferramentas de IA semelhantes.
Link de referência: