El 13 de julio, WormGPT, una herramienta de inteligencia artificial maliciosa, nació de la nada. Con su ayuda, generó automáticamente una serie de correos electrónicos de phishing, lo que hizo que todos entraran en pánico.
Al ver que una ola no es plana, otra ola vuelve a subir.
Según la plataforma de análisis de seguridad Netenrich, una herramienta de inteligencia artificial llamada FraudGPT ha estado circulando recientemente en la web oscura y ha sido utilizada por delincuentes para escribir correos electrónicos de phishing y desarrollar malware.
Basado en GPT-3, función poderosa, gran amenaza, operación simple
Como todos sabemos, las herramientas de piratería tradicionales requieren que los usuarios tengan las habilidades de programación correspondientes para poder ejecutar mejor los ataques a la red.
En comparación, FraudGPT parece ser más simple, directo, eficiente y "más amenazante".
Ya sea que sea un desarrollador profesional o un novato, solo necesita a través de un método simple de preguntas y respuestas para lograr la piratería.
Según Netenrich, FraudGPT funciona redactando un correo electrónico con un alto grado de confianza de que los destinatarios son engañados para que hagan clic en un enlace malicioso proporcionado. Sus principales funciones incluyen:
Crear página de sitio de phishing. FraudGPT puede generar correos electrónicos, mensajes de texto o sitios web de phishing que parecen genuinos para engañar a los usuarios para que revelen información confidencial, como credenciales de inicio de sesión, detalles financieros o datos personales;
Encuentra los objetivos más vulnerables. Los chatbots pueden imitar conversaciones humanas, generando confianza con usuarios desprevenidos, llevándolos a revelar información confidencial sin saberlo o realizar acciones dañinas;
** Crear malware indetectable. ** FraudGPT puede crear mensajes engañosos que engañan a los usuarios para que hagan clic en enlaces maliciosos o descarguen archivos adjuntos dañinos, infectando sus dispositivos con malware;
** Escribir mensajes de texto y correos electrónicos fraudulentos. **Los chatbots impulsados por IA pueden ayudar a los piratas informáticos a crear documentos, facturas o solicitudes de pago fraudulentos, lo que hace que las personas y las empresas sean víctimas de estafas financieras.
Se informa que FraudGPT es proporcionado por un desarrollador llamado "CanadianKingpin".
Se basa principalmente en el modelo de lenguaje a gran escala de GPT-3, que puede generar texto fraudulento lógico y fáctico después del entrenamiento. Una vez que los delincuentes pagan por ello, FraudGPT puede ayudarlos a realizar phishing y estafas con éxito.
Barrer la web oscura, con un precio de $200/mes
De hecho, FraudGPT no es el primer caso de herramientas de IA que reducen la barrera de entrada para los ciberdelincuentes.
Incluso si los proveedores de IA como Claude, ChatGPT, Bard, etc. toman algunas medidas para evitar que su tecnología se use con malos fines, con el auge del modelo de código abierto, será difícil para los delincuentes contener el comportamiento malicioso.
A principios de julio, también atrajo la atención "WormGPT", que se desarrolló en base al modelo de lenguaje grande de código abierto GPT-J y utilizó una gran cantidad de código malicioso para entrenamiento y ajuste.
Se informa que WormGPT es bueno para usar el código Python para realizar varios ataques de red, como generar caballos de Troya, enlaces maliciosos, imitar sitios web, etc.
Pero en comparación, además de las funciones más potentes de FraudGPT, el precio también es mucho más alto que WormGPT, que cobra 60 euros al mes. **El precio de suscripción mensual es de 200 dólares estadounidenses, que es 10 veces el precio de ChatGPT. Más. **
Puede obtener un descuento si compra una suscripción de tres o seis meses, y cuesta $ 1,700 comprar un año de acceso.
Actualmente, FraudGPT ha arrasado en muchos mercados clandestinos de la red oscura, como WHM, Empire, AlphaBay, World, Versus y Torrez, con alcanzando acumulativamente más de 3000 transacciones.
**Cuando se reduce el umbral de delincuencia, ¿cómo pueden prevenirlo los usuarios? **
No hay duda de que, ya sea WormGPT o FraudGPT, estas herramientas de inteligencia artificial amenazantes están "potenciando" la promoción del ciberdelito y el fraude.
La plataforma de análisis de seguridad Netenrich ha declarado: "Esta tecnología reducirá la barrera de entrada para los correos electrónicos de phishing y otras estafas. Con el tiempo, los delincuentes encontrarán más formas de utilizar las herramientas que inventamos para mejorar su capacidad delictiva".
Cuando se demuestra plenamente el lado malvado de las herramientas de IA, junto con el "umbral bajo" de los ataques cibernéticos, es particularmente importante fortalecer las estrategias de defensa.
Con ese fin, The Economic Times of India ha descrito algunos pasos clave que las personas y las empresas pueden tomar para asegurarse de estar a salvo de la amenaza de FraudGPT y herramientas de IA similares.
** Esté atento a las comunicaciones en línea. ** No haga clic aleatoriamente en enlaces de sitios web desconocidos, correos electrónicos ni instale software desconocido. Al mismo tiempo, los correos electrónicos accidentales que requieren verificación, involucran información confidencial o transacciones financieras deben verificarse a través de canales oficiales.
**Manténgase al tanto de las medidas de seguridad de la red. **Actualice el software de seguridad regularmente, instale parches y use un programa antivirus confiable para protegerse contra posibles amenazas. Al mismo tiempo, también es necesario comprender las últimas prácticas de seguridad de la red y mejorar la conciencia de defensa de los ataques a la red.
**Tenga cuidado con los enlaces y archivos adjuntos desconocidos. **No haga clic en enlaces ni abra archivos adjuntos de fuentes desconocidas. FraudGPT puede generar URL realistas para sitios web de phishing, por lo que es crucial verificar la identidad del remitente antes de hacer clic en cualquier enlace.
**Educar y capacitar a los empleados. **Para las empresas, la capacitación de los empleados en las mejores prácticas de ciberseguridad es fundamental. Asegúrese de que los empleados estén al tanto de las amenazas potenciales y sepan cómo identificar actividades sospechosas. Si los empleados encuentran algún mensaje sospechoso, deben informarlo de inmediato al departamento de TI.
Link de referencia:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿Se puede implementar el "fraude" de IA por $ 200 al mes? La versión hacker de ChatGPT sin umbral técnico está arrasando en la dark web
Fuente: CSDN
Autor: Zhu Kexin
El 13 de julio, WormGPT, una herramienta de inteligencia artificial maliciosa, nació de la nada. Con su ayuda, generó automáticamente una serie de correos electrónicos de phishing, lo que hizo que todos entraran en pánico.
Al ver que una ola no es plana, otra ola vuelve a subir.
Según la plataforma de análisis de seguridad Netenrich, una herramienta de inteligencia artificial llamada FraudGPT ha estado circulando recientemente en la web oscura y ha sido utilizada por delincuentes para escribir correos electrónicos de phishing y desarrollar malware.
Basado en GPT-3, función poderosa, gran amenaza, operación simple
Como todos sabemos, las herramientas de piratería tradicionales requieren que los usuarios tengan las habilidades de programación correspondientes para poder ejecutar mejor los ataques a la red.
En comparación, FraudGPT parece ser más simple, directo, eficiente y "más amenazante".
Ya sea que sea un desarrollador profesional o un novato, solo necesita a través de un método simple de preguntas y respuestas para lograr la piratería.
Según Netenrich, FraudGPT funciona redactando un correo electrónico con un alto grado de confianza de que los destinatarios son engañados para que hagan clic en un enlace malicioso proporcionado. Sus principales funciones incluyen:
Se informa que FraudGPT es proporcionado por un desarrollador llamado "CanadianKingpin".
Se basa principalmente en el modelo de lenguaje a gran escala de GPT-3, que puede generar texto fraudulento lógico y fáctico después del entrenamiento. Una vez que los delincuentes pagan por ello, FraudGPT puede ayudarlos a realizar phishing y estafas con éxito.
Barrer la web oscura, con un precio de $200/mes
De hecho, FraudGPT no es el primer caso de herramientas de IA que reducen la barrera de entrada para los ciberdelincuentes.
Incluso si los proveedores de IA como Claude, ChatGPT, Bard, etc. toman algunas medidas para evitar que su tecnología se use con malos fines, con el auge del modelo de código abierto, será difícil para los delincuentes contener el comportamiento malicioso.
A principios de julio, también atrajo la atención "WormGPT", que se desarrolló en base al modelo de lenguaje grande de código abierto GPT-J y utilizó una gran cantidad de código malicioso para entrenamiento y ajuste.
Se informa que WormGPT es bueno para usar el código Python para realizar varios ataques de red, como generar caballos de Troya, enlaces maliciosos, imitar sitios web, etc.
Pero en comparación, además de las funciones más potentes de FraudGPT, el precio también es mucho más alto que WormGPT, que cobra 60 euros al mes. **El precio de suscripción mensual es de 200 dólares estadounidenses, que es 10 veces el precio de ChatGPT. Más. **
Puede obtener un descuento si compra una suscripción de tres o seis meses, y cuesta $ 1,700 comprar un año de acceso.
Actualmente, FraudGPT ha arrasado en muchos mercados clandestinos de la red oscura, como WHM, Empire, AlphaBay, World, Versus y Torrez, con alcanzando acumulativamente más de 3000 transacciones.
**Cuando se reduce el umbral de delincuencia, ¿cómo pueden prevenirlo los usuarios? **
No hay duda de que, ya sea WormGPT o FraudGPT, estas herramientas de inteligencia artificial amenazantes están "potenciando" la promoción del ciberdelito y el fraude.
La plataforma de análisis de seguridad Netenrich ha declarado: "Esta tecnología reducirá la barrera de entrada para los correos electrónicos de phishing y otras estafas. Con el tiempo, los delincuentes encontrarán más formas de utilizar las herramientas que inventamos para mejorar su capacidad delictiva".
Cuando se demuestra plenamente el lado malvado de las herramientas de IA, junto con el "umbral bajo" de los ataques cibernéticos, es particularmente importante fortalecer las estrategias de defensa.
Con ese fin, The Economic Times of India ha descrito algunos pasos clave que las personas y las empresas pueden tomar para asegurarse de estar a salvo de la amenaza de FraudGPT y herramientas de IA similares.
Link de referencia: