Le 13 juillet, WormGPT, un outil d'IA malveillant, est né de nulle part. Avec son aide, il a automatiquement généré une série d'e-mails de phishing, faisant paniquer tout le monde.
Voyant qu'une onde n'est pas plate, une autre onde monte à nouveau.
Selon la plateforme d'analyse de sécurité Netenrich, un outil d'intelligence artificielle appelé FraudGPT a récemment circulé sur le dark web et a été utilisé par des criminels pour écrire des e-mails de phishing et développer des logiciels malveillants.
Basé sur GPT-3, fonction puissante, grande menace, opération simple
Comme nous le savons tous, les outils de piratage traditionnels exigent que les utilisateurs aient les compétences de programmation correspondantes afin de mieux exécuter les attaques réseau.
En comparaison, FraudGPT semble être plus simple, direct, efficace et "plus menaçant".
Que vous soyez un développeur professionnel ou un novice, il vous suffit de par une simple méthode de questions et réponses pour réaliser le piratage.
Selon Netenrich, FraudGPT fonctionne en rédigeant un e-mail avec un degré élevé de confiance que les destinataires sont amenés à cliquer sur un lien malveillant fourni. Ses principales fonctions comprennent :
Créer une page de site d'hameçonnage. FraudGPT peut générer des e-mails, des SMS ou des sites Web de phishing d'apparence authentique pour inciter les utilisateurs à révéler des informations sensibles, telles que des identifiants de connexion, des détails financiers ou des données personnelles ;
Trouvez les cibles les plus vulnérables. Les chatbots peuvent imiter les conversations humaines, instaurer la confiance avec des utilisateurs sans méfiance, les amenant à révéler sans le savoir des informations sensibles ou à effectuer des actions nuisibles ;
** Créez des logiciels malveillants indétectables. ** FraudGPT peut créer des messages trompeurs qui incitent les utilisateurs à cliquer sur des liens malveillants ou à télécharger des pièces jointes nuisibles, infectant leurs appareils avec des logiciels malveillants ;
** Rédigez des SMS et des e-mails frauduleux. **Les chatbots alimentés par l'IA peuvent aider les pirates à créer des documents, des factures ou des demandes de paiement frauduleux, ce qui fait que des particuliers et des entreprises sont victimes d'escroqueries financières.
Il est rapporté que FraudGPT est fourni par un développeur nommé "CanadianKingpin".
Il est principalement basé sur le modèle de langage à grande échelle de GPT-3, qui peut générer un texte frauduleux logique et factuel après la formation. Une fois que les criminels ont payé, FraudGPT peut les aider à réussir le phishing et l'escroquerie.
Balayer le dark web, au prix de 200 $/mois
En effet, FraudGPT n'est pas le premier cas d'outils d'IA abaissant la barrière à l'entrée pour les cybercriminels.
Même si les fournisseurs d'IA comme Claude, ChatGPT, Bard, etc. prennent certaines mesures pour empêcher que leur technologie ne soit utilisée à des fins malveillantes, avec l'essor du modèle open source, il sera difficile pour les criminels de contenir les comportements malveillants.
Début juillet, "WormGPT", qui a été développé sur la base du grand modèle de langage open source GPT-J et a utilisé une grande quantité de code malveillant pour la formation et le réglage fin, a également attiré l'attention.
Il est rapporté que WormGPT est doué pour utiliser le code Python pour effectuer diverses attaques de réseau, telles que générer des chevaux de Troie, des liens malveillants, imiter des sites Web, etc.
Mais en comparaison, en plus des fonctions plus puissantes de FraudGPT, le prix est bien plus élevé que WormGPT, qui facture 60 euros par mois,** le prix de l'abonnement mensuel est aussi élevé que 200 dollars américains, soit 10 fois le prix de ChatGPT Plus . **
Vous pouvez obtenir une remise si vous achetez un abonnement de trois ou six mois, et il en coûte 1 700 $ pour acheter un an d'accès.
Actuellement, FraudGPT a balayé de nombreux marchés souterrains du darknet, tels que WHM, Empire, AlphaBay, World, Versus et Torrez, avec ** atteignant plus de 3 000 transactions **.
**Lorsque le seuil de criminalité est abaissé, comment les utilisateurs peuvent-ils l'empêcher ? **
Il ne fait aucun doute que, qu'il s'agisse de WormGPT ou de FraudGPT, ces outils d'IA menaçants "renforcent" la promotion de la cybercriminalité et de la fraude.
La plate-forme d'analyse de sécurité Netenrich a déclaré : "Cette technologie réduira la barrière à l'entrée pour les e-mails de phishing et autres escroqueries. Au fil du temps, les criminels trouveront de plus en plus de façons d'utiliser les outils que nous inventons pour améliorer leur capacité criminelle."
Lorsque le côté pervers des outils d'IA est pleinement démontré, couplé au « seuil bas » des cyberattaques, il est particulièrement important de renforcer les stratégies de défense.
À cette fin, The Economic Times of India a décrit certaines mesures clés que les particuliers et les entreprises peuvent prendre pour s'assurer qu'ils sont à l'abri de la menace de FraudGPT et d'outils d'IA similaires.
** Soyez vigilant sur les communications en ligne. **Ne cliquez pas au hasard sur des liens de sites Web inconnus, des e-mails ou n'installez pas de logiciels inconnus. Dans le même temps, les e-mails accidentels nécessitant une vérification, impliquant des informations sensibles ou des transactions financières doivent être vérifiés par les voies officielles.
** Tenez-vous au courant des mesures de sécurité du réseau. ** Mettez régulièrement à jour les logiciels de sécurité, installez des correctifs et utilisez un programme antivirus réputé pour vous protéger contre les menaces potentielles. Dans le même temps, il est également nécessaire de comprendre les dernières pratiques de sécurité réseau et d'améliorer la sensibilisation de la défense aux attaques réseau.
**Méfiez-vous des liens et pièces jointes inconnus. **Ne cliquez pas sur les liens et n'ouvrez pas les pièces jointes provenant de sources inconnues. FraudGPT peut générer des URL réalistes vers des sites Web de phishing, il est donc crucial de vérifier l'identité de l'expéditeur avant de cliquer sur un lien.
** Éduquer et former les employés. **Pour les entreprises, la formation des employés aux meilleures pratiques en matière de cybersécurité est essentielle. Assurez-vous que les employés sont conscients des menaces potentielles et savent comment identifier les activités suspectes. Si les employés rencontrent des messages suspects, ils doivent immédiatement les signaler au service informatique.
Lien de référence :
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La « fraude » de l'IA peut-elle être mise en œuvre pour 200 $ par mois ? La version hacker de ChatGPT sans seuil technique déferle sur le dark web
Source : RPSC
Auteur : Zhu Kexin
Le 13 juillet, WormGPT, un outil d'IA malveillant, est né de nulle part. Avec son aide, il a automatiquement généré une série d'e-mails de phishing, faisant paniquer tout le monde.
Voyant qu'une onde n'est pas plate, une autre onde monte à nouveau.
Selon la plateforme d'analyse de sécurité Netenrich, un outil d'intelligence artificielle appelé FraudGPT a récemment circulé sur le dark web et a été utilisé par des criminels pour écrire des e-mails de phishing et développer des logiciels malveillants.
Basé sur GPT-3, fonction puissante, grande menace, opération simple
Comme nous le savons tous, les outils de piratage traditionnels exigent que les utilisateurs aient les compétences de programmation correspondantes afin de mieux exécuter les attaques réseau.
En comparaison, FraudGPT semble être plus simple, direct, efficace et "plus menaçant".
Que vous soyez un développeur professionnel ou un novice, il vous suffit de par une simple méthode de questions et réponses pour réaliser le piratage.
Selon Netenrich, FraudGPT fonctionne en rédigeant un e-mail avec un degré élevé de confiance que les destinataires sont amenés à cliquer sur un lien malveillant fourni. Ses principales fonctions comprennent :
Il est rapporté que FraudGPT est fourni par un développeur nommé "CanadianKingpin".
Il est principalement basé sur le modèle de langage à grande échelle de GPT-3, qui peut générer un texte frauduleux logique et factuel après la formation. Une fois que les criminels ont payé, FraudGPT peut les aider à réussir le phishing et l'escroquerie.
Balayer le dark web, au prix de 200 $/mois
En effet, FraudGPT n'est pas le premier cas d'outils d'IA abaissant la barrière à l'entrée pour les cybercriminels.
Même si les fournisseurs d'IA comme Claude, ChatGPT, Bard, etc. prennent certaines mesures pour empêcher que leur technologie ne soit utilisée à des fins malveillantes, avec l'essor du modèle open source, il sera difficile pour les criminels de contenir les comportements malveillants.
Début juillet, "WormGPT", qui a été développé sur la base du grand modèle de langage open source GPT-J et a utilisé une grande quantité de code malveillant pour la formation et le réglage fin, a également attiré l'attention.
Il est rapporté que WormGPT est doué pour utiliser le code Python pour effectuer diverses attaques de réseau, telles que générer des chevaux de Troie, des liens malveillants, imiter des sites Web, etc.
Mais en comparaison, en plus des fonctions plus puissantes de FraudGPT, le prix est bien plus élevé que WormGPT, qui facture 60 euros par mois,** le prix de l'abonnement mensuel est aussi élevé que 200 dollars américains, soit 10 fois le prix de ChatGPT Plus . **
Vous pouvez obtenir une remise si vous achetez un abonnement de trois ou six mois, et il en coûte 1 700 $ pour acheter un an d'accès.
Actuellement, FraudGPT a balayé de nombreux marchés souterrains du darknet, tels que WHM, Empire, AlphaBay, World, Versus et Torrez, avec ** atteignant plus de 3 000 transactions **.
**Lorsque le seuil de criminalité est abaissé, comment les utilisateurs peuvent-ils l'empêcher ? **
Il ne fait aucun doute que, qu'il s'agisse de WormGPT ou de FraudGPT, ces outils d'IA menaçants "renforcent" la promotion de la cybercriminalité et de la fraude.
La plate-forme d'analyse de sécurité Netenrich a déclaré : "Cette technologie réduira la barrière à l'entrée pour les e-mails de phishing et autres escroqueries. Au fil du temps, les criminels trouveront de plus en plus de façons d'utiliser les outils que nous inventons pour améliorer leur capacité criminelle."
Lorsque le côté pervers des outils d'IA est pleinement démontré, couplé au « seuil bas » des cyberattaques, il est particulièrement important de renforcer les stratégies de défense.
À cette fin, The Economic Times of India a décrit certaines mesures clés que les particuliers et les entreprises peuvent prendre pour s'assurer qu'ils sont à l'abri de la menace de FraudGPT et d'outils d'IA similaires.
Lien de référence :