¿Se convertirá la IA en el próximo “señor” del fraude telefónico mundial?

Original: Jeff Kauflin, Emily Mason

Fuente: Forbes

Título original: "Cómo la inteligencia artificial está alimentando el fraude financiero y haciéndolo más invisible"

Desde "The Hunt" y "All or Nothing" hasta "Parrot Killing", estrenada la semana pasada, las películas relacionadas con el fraude están proporcionando un método de propaganda eficaz para el control del crimen en China. Sin embargo, con la popularización de una nueva ronda de tecnología de inteligencia artificial, los desafíos futuros Probablemente más grave. Para Estados Unidos, al otro lado del océano, la lucha contra el fraude puede convertirse en otro nuevo consenso entre ese país y China en una era de incertidumbre. Solo en 2020, las encuestas estadounidenses muestran que hasta 56 millones de personas en Estados Unidos han sido defraudadas mediante llamadas telefónicas, lo que representa aproximadamente una sexta parte de la población de EE. UU. Entre ellos, el 17% de los estadounidenses han sido defraudados más de una vez.

En el campo del fraude en telecomunicaciones, India es para Estados Unidos lo que Myanmar es para China. Pero está claro que India tiene más terreno para el desarrollo de la industria del fraude que Myanmar. Por un lado, el inglés, como idioma oficial, tiene una tasa de penetración relativamente alta en la India, y la India también tiene una "ventaja natural" en términos de talentos; por otro lado, la India se ha convertido en una plataforma en el extranjero para las principales empresas multinacionales. desde el año 2000. Los subcontratistas de servicio al cliente telefónico crean nuevas estafas telefónicas con el mismo acento pero contenido diferente. Pero con una nueva ronda de tecnología de inteligencia artificial, el “trono” de la India en el campo del fraude telefónico puede ser reemplazado.

Desde elegantes mensajes de texto hasta clonación de voces e intercambio de rostros en videos, la IA generativa está brindando a los estafadores una nueva y poderosa arma.

"Esta carta/carta es para informarle que Chase tiene su reembolso de $2,000 pendiente. Para acelerar el proceso y asegurarse de recibir su reembolso lo más rápido posible, siga estas instrucciones: Llame al Servicio al cliente de Chase al 1-800-953-XXXX para verifique el estado de su reembolso. Asegúrese de tener a mano la información de su cuenta y cualquier información relevante..."

Si hizo negocios con Chase y recibió este mensaje en un correo electrónico o mensaje de texto, probablemente pensó que era cierto. Sonaba profesional, sin las frases extrañas, la mala gramática o los epítetos extraños que han caracterizado los mensajes de phishing que hemos recibido a menudo en el pasado.

Esto no es sorprendente, ya que el mensaje fue generado por ChatGPT, un chatbot de inteligencia artificial lanzado por el gigante tecnológico OpenAI a fines del año pasado. Como mensaje, simplemente escribimos ChatGPT: "Envíe a alguien un correo electrónico diciéndole que Chase le debe un reembolso de $2000. Pídale que llame al 1-800-953-XXXX para obtener el reembolso. (Para que ChatGPT funcione, tenemos que ingrese un número completo, pero obviamente no lo publicaremos aquí).

"Los estafadores ahora hablan perfectamente, como cualquier otro hablante nativo", dijo Soups Ranjan, cofundador y director ejecutivo de Sardine, una startup antifraude en San Francisco. Un banco digital estadounidense solicitó el anonimato. El director antifraude del banco también Confirmó que los clientes de los bancos son cada vez más engañados porque "los mensajes de texto que reciben casi no tienen fallas". (Para evitar convertirse usted mismo en una víctima, consulte los cinco consejos al final de este artículo).

En este nuevo mundo que da la bienvenida a la inteligencia artificial generativa o modelos de aprendizaje profundo que pueden crear contenido basado en la información que reciben, ahora es más fácil que nunca para aquellos con intenciones nefastas producir texto, audio e incluso video. Todo más fácil. Estos textos, audios e incluso vídeos no sólo pueden engañar a posibles víctimas individuales, sino que también pueden engañar a los programas que ahora se utilizan para frustrar el fraude. No hay nada único en la IA a este respecto; después de todo, los malos han sido durante mucho tiempo los primeros en adoptar nuevas tecnologías, con la policía persiguiéndolos. Por ejemplo, en 1989 Forbes expuso cómo los ladrones utilizaban ordenadores comunes e impresoras láser para falsificar cheques y defraudar a los bancos, sin que los bancos tomaran medidas especiales para detectar estos billetes falsos.

La IA impulsa el aumento del fraude en línea

Los consumidores estadounidenses informaron a la Comisión Federal de Comercio (FTC) de los EE. UU. que perdieron una cifra récord de 8.800 millones de dólares por fraude el año pasado, y eso no incluye las cantidades robadas no declaradas.

Hoy en día, la inteligencia artificial generativa plantea una amenaza que eventualmente puede hacer que las medidas de prevención de fraude más avanzadas de hoy queden obsoletas, como la autenticación de voz e incluso las “verificaciones de actividad” diseñadas para comparar avatares en vivo con avatares grabados (Liveness Check).

Synchrony, uno de los mayores emisores de tarjetas de crédito de Estados Unidos con 70 millones de cuentas activas, tiene la comprensión más intuitiva de esta tendencia. Kenneth Williams, vicepresidente senior de Synchrony, dijo en un correo electrónico a Forbes: "A menudo vemos personas que usan imágenes y videos deepfake para autenticación, y podemos asumir con seguridad que se crean utilizando inteligencia artificial generativa".

Una encuesta realizada en junio de 2023 a 650 expertos en ciberseguridad realizada por la empresa cibernética Deep Instinct, con sede en Nueva York, mostró que tres cuartas partes de los expertos encuestados habían visto un aumento en el fraude en línea durante el año pasado, y "el 85% de los encuestados atribuyen este aumento al uso". de IA generativa por parte de malos actores”.

Además, la Comisión Federal de Comercio de EE. UU. también informó que los consumidores estadounidenses perdieron 8.800 millones de dólares debido al fraude en 2022, un aumento de más del 40 % con respecto a 2021. Las mayores cantidades perdidas a menudo provienen de estafas de inversión, pero las estafas de impostores son las más comunes, lo cual es una señal siniestra, ya que es probable que estas estafas se vean mejoradas aún más por la inteligencia artificial.

Los delincuentes pueden utilizar la IA generativa de diversas formas. Si publicas regularmente en las redes sociales o en cualquier red, pueden decirle a un modelo de IA que escriba a tu estilo y luego pueden enviar mensajes de texto a tus abuelos y rogarles que te envíen dinero para ayudarte. Lo que es aún más aterrador es que si tienen una breve muestra de voz de un niño, pueden llamar a los padres del niño, hacerse pasar por su hijo y fingir que han sido secuestrados, exigiendo a los padres que paguen un rescate. Eso es exactamente lo que le sucedió a Jennifer DeStefano, una madre de cuatro hijos en Arizona, cuando testificó ante el Congreso en junio.

No se trata sólo de padres y abuelos, las empresas también están en el punto de mira. Los delincuentes también pueden hacerse pasar por proveedores y enviar correos electrónicos aparentemente legítimos a los contadores diciéndoles que necesitan recibir el pago lo antes posible, junto con instrucciones de pago para una cuenta bancaria que controlan. Ranjan, director ejecutivo de Sardine, dijo que muchos de los clientes emergentes de tecnología financiera de Sardine cayeron en estas trampas y perdieron cientos de miles de dólares.

Si bien eso palidece en comparación con los 35 millones de dólares que una empresa japonesa perdió en 2020 después de que se clonara la voz de un director de la empresa (Forbes informó por primera vez sobre la elaborada estafa en ese momento), ahora se está volviendo cada vez más común. Ese caso anterior fue solo un adelanto de casos similares. casos que son cada vez más frecuentes, a medida que las herramientas de inteligencia artificial para escribir, imitar voz y procesar videos se vuelven rápidamente más capaces y accesibles, incluso para los estafadores comunes y corrientes. También son más baratas. Rick Song, cofundador y director ejecutivo de la empresa de prevención de fraude Persona, dijo que en el pasado se necesitaban cientos o miles de fotos para crear un video deepfake de alta calidad, pero ahora solo necesitas unas pocas fotos. (Sí, puedes hacer un video falso sin un video real, pero obviamente es más fácil si tienes un video real disponible).

Trampas y estafas telefónicas: los peligros de la clonación de sonido profundo

Así como otras industrias están aplicando la IA a sus negocios, los estafadores están utilizando modelos de IA generativa lanzados por gigantes tecnológicos para crear herramientas listas para usar, como FraudGPT y WormGPT.

En un vídeo de YouTube publicado en enero, Elon Musk, el hombre más rico del mundo, parecía promover entre su audiencia la última oportunidad de inversión en criptomonedas: Tesla patrocinó un evento gratuito valorado en 100 millones de dólares, afirmó, que promete devolver a los participantes el doble. sobre su inversión en criptomonedas como Bitcoin, Ethereum, Dogecoin o Ethereum. "Sé que todos están aquí con un propósito común. Ahora presentaremos una transmisión en vivo donde cada propietario de criptomonedas puede aumentar sus ingresos", dijo una versión de baja resolución de Musk en el escenario. "Sí, me escuchaste bien, voy a organizar un gran evento de criptomonedas para SpaceX".

Sí, este vídeo es un deepfake: el estafador utilizó su discurso de febrero de 2022 sobre el proyecto de nave espacial reutilizable de SpaceX para imitar su imagen y su voz. Desde entonces, YouTube eliminó el video, pero hasta entonces, es casi seguro que cualquiera que haya enviado criptomonedas a la dirección que aparece en el video sufrirá daños en sus billeteras. Musk es un objetivo principal para los videos falsos porque hay innumerables muestras de audio de él disponibles en línea para respaldar la clonación de voz mediante IA, pero ahora casi cualquier persona puede ser suplantada.

A principios de este año, Larry Leonard, un hombre de 93 años que vivía en una comunidad de jubilados en el sur de Florida, estaba en casa cuando su esposa respondió una llamada telefónica a su teléfono fijo. Un minuto después, le entregó el teléfono a Leonard y él escuchó una voz al otro lado de la línea que sonaba como la de su nieto de 27 años, diciendo que había atropellado a una mujer con su camioneta y que estaba en la cárcel. Aunque Leonard notó que la persona que llamó lo llamaba "abuelo" en lugar de "abuelo", como prefiere que lo llamen su nieto, la voz del hombre era exactamente igual a la de su nieto, y estaba el hecho de que su nieto en realidad conducía un camión. sus dudas a un lado. Cuando Leonard respondió que iba a llamar a los padres de su nieto, la persona que llamó colgó. Leonard pronto descubre que su nieto está a salvo y que toda la historia (y la voz que la cuenta) es falsa.

"El hecho de que fueran capaces de capturar su voz, su tono y su tono con tanta precisión fue a la vez aterrador y sorprendente para mí", dijo Leonard a Forbes. "No hubo pausas entre sus frases o palabras, lo que demuestra que las palabras se leen". de una máquina o programa, pero suenan como si fueran reales”.

Las personas mayores suelen ser el objetivo de este tipo de estafas, pero es hora de que cada uno de nosotros tenga cuidado con las llamadas entrantes, incluso si provienen de un número que nos resulta familiar, como el de un vecino. "Cada vez más, no podemos confiar en las llamadas que recibimos porque el estafador ha falsificado [el número de teléfono]", se lamenta Kathy Stokes, directora de programas de prevención de fraude de AARP). "AARP es un proveedor de servicios y cabildeo con casi 38 millones de miembros de 50 años o más. "No podemos confiar en los correos electrónicos que recibimos, no podemos confiar en los mensajes de texto que recibimos. Por eso estamos excluidos de las formas típicas de comunicarnos entre nosotros".

En otro acontecimiento siniestro, incluso las nuevas medidas de seguridad están amenazadas. Por ejemplo, importantes instituciones financieras como el gigante de fondos mutuos Vanguard Group, que presta servicios a más de 50 millones de inversores, ofrecen a los clientes la opción de recibir ciertos servicios hablando por teléfono en lugar de responder preguntas de seguridad. "Tu voz es única, como tus huellas dactilares".

Vanguard explicó en un video de noviembre de 2021 que instaba a los clientes a registrarse para la verificación de voz. Pero los avances en la tecnología de clonación de voz sugieren que las empresas deben repensar esta práctica. Ranjan, de Sardine, dijo que ha visto a algunas personas utilizar tecnología de clonación de voz para autenticarse exitosamente en los bancos y obtener acceso a las cuentas. Un portavoz de Vanguard se negó a comentar sobre las medidas que podría tomar la empresa para evitar el avance de la tecnología de clonación de voz.

Las pequeñas empresas (e incluso las grandes) que utilizan procedimientos informales para pagar facturas o transferir dinero también son vulnerables a los malos actores. Durante mucho tiempo ha sido común que los estafadores exijan el pago enviando por correo electrónico facturas falsas que parecen provenir de proveedores.

Ahora, aprovechando las herramientas de inteligencia artificial ampliamente disponibles, los estafadores pueden usar versiones clonadas de voces ejecutivas para llamar a los empleados de la empresa, pretendiendo autorizar transacciones, o pedirles a los empleados que revelen datos confidenciales en software de "phishing" o "voice phishing". "Cuando se trata de hacerse pasar por ejecutivos y cometer fraudes de alto valor, eso es enorme y es una amenaza muy real", dijo el director ejecutivo de Persona, Rick Song, quien lo describió como su "mayor temor en términos de voz".

¿Puede la IA engañar a los expertos en fraude?

Los delincuentes utilizan cada vez más la inteligencia artificial generativa para engañar a los expertos en fraude, incluso cuando estos expertos en fraude y empresas de tecnología actúan como guardias armados y furgonetas de efectivo en el sistema financiero digital actual.

Una de las funciones principales de estas empresas es verificar la identidad de los consumidores para proteger a las instituciones financieras y a sus clientes de pérdidas. Una de las formas en que las empresas de prevención de fraude como Socure, Mitek y Onfido verifican las identidades de los clientes es a través de "verificaciones de vida", es decir, le piden que tome una foto o un video de selfie y luego use la foto o el videoclip para que coincida con su rostro. al tuyo. Se debe enviar la imagen de la tarjeta de identificación para que coincida.

Una vez que saben cómo funciona el sistema, los ladrones compran fotografías de licencias de conducir reales en la web oscura y luego usan programas de intercambio de rostros en video (herramientas que son cada vez más baratas y accesibles) para superponer el avatar de la vida real de otra persona a su propio rostro. . Luego pueden hablar y mover la cabeza detrás de la cara digital de otra persona, lo que aumenta sus posibilidades de engañar los controles de actividad.

"Ha habido un crecimiento considerable en el número de caras falsas, que son generadas por IA y son de alta calidad, y también ha habido un crecimiento en los ataques de fraude generados automáticamente dirigidos a controles de actividad", dijo Song, añadiendo que el fraude varía. por industria, pero para algunos, "probablemente estemos viendo diez veces más de lo que vimos el año pasado". Las empresas de tecnología financiera y criptomonedas son particularmente vulnerables a este tipo de ataques.

Los expertos antifraude dijeron a Forbes que sospechan que, como resultado, proveedores de verificación de identidad de alto perfil, como Socure y Mitek, han visto caer sus métricas de prevención de fraude. El director ejecutivo de Socure, Johnny Ayers, insiste en que "esto es absolutamente falso" y dice que los nuevos modelos que han implementado en los últimos meses han llevado a un aumento en las capturas del 2% de los fraudes de suplantación de identidad más riesgosos (14%). Sin embargo, reconoció que algunos clientes han tardado en adoptar los nuevos modelos de Socure, lo que podría afectar su rendimiento. "Uno de nuestros clientes es uno de los tres principales bancos del país y ahora está cuatro versiones por detrás", dijo Ayers.

Mitek se negó a comentar específicamente sobre las métricas de rendimiento a prueba de fraude de sus modelos, pero su vicepresidente senior, Chris Briggs, dijo que si un modelo en particular se desarrolló hace 18 meses, "entonces sí, se podría argumentar que el modelo anterior no es tan bueno en "La prevención del fraude es el nuevo modelo. Con el tiempo, Mitek continuará entrenando y reentrenando el modelo utilizando flujos de datos de la vida real, así como datos de laboratorio".

JPMorgan Chase, Bank of America y Wells Fargo se negaron a comentar sobre los desafíos que enfrentan con el fraude generativo de IA. Un portavoz de Chime, el banco digital más grande de Estados Unidos que ha experimentado importantes problemas de fraude en el pasado, dijo que el banco aún no ha visto un aumento en el fraude relacionado con la inteligencia artificial generativa.

Hoy en día, el fraude financiero está detrás de delincuentes que van desde delincuentes solitarios hasta complejas bandas de docenas o incluso cientos de delincuentes. Las bandas criminales más grandes, al igual que las empresas, tienen estructuras organizativas de varios niveles y personal técnico superior, incluidos científicos de datos.

"Todos tienen sus propios centros de comando y control", dijo Ranjan. Algunos pandilleros son responsables de colocar cebos, como enviar correos electrónicos de phishing o hacer llamadas telefónicas. Si alguien muerde el anzuelo, pone en contacto con el defraudado a otro cómplice que se hace pasar por el director de una sucursal bancaria e intenta que usted transfiera dinero fuera de su cuenta. Otro paso clave: a menudo te pedirán que instales un programa como Microsoft TeamViewer o Citrix para controlar tu computadora de forma remota. "Pueden hacer que su computadora se apague por completo", dijo Ranjan. "Entonces el estafador realizará más transacciones (con su dinero) y retirará el dinero a otra URL que controle". Los estafadores utilizan para defraudar a las personas (un truco común, especialmente entre las personas mayores, es mentir diciendo que la cuenta de la otra parte ha sido controlada por el estafador y que se necesita la cooperación de la otra parte para recuperar los fondos.

Diferentes estrategias para OpenAI y Meta

El proceso de fraude mencionado anteriormente no requiere necesariamente el uso de inteligencia artificial, pero las herramientas de inteligencia artificial pueden hacer que las tácticas de los estafadores sean más eficientes y creíbles.

OpenAI ha intentado introducir protecciones para evitar que las personas utilicen ChatGPT con fines fraudulentos. Por ejemplo, si un usuario le pide a ChatGPT que redacte un correo electrónico solicitando el número de cuenta bancaria de alguien, ChatGPT se negará a ejecutar la instrucción y responderá: "Lo siento, pero no puedo ayudar con esta solicitud". Cometer fraude sigue siendo muy fácil.

OpenAI se negó a hacer comentarios para este artículo y nos remitió únicamente a publicaciones de blog publicadas por la empresa, una de las cuales se publicó en marzo de 2022 y dice: “No existe una solución milagrosa para una implementación responsable, por lo que intentamos desarrollar y comprender las limitaciones de nuestro modelo y posibles vías de abuso, y abordar cuestiones relacionadas en cada etapa del despliegue”.

En comparación con OpenAI, es más probable que delincuentes experimentados utilicen el modelo de lenguaje grande Llama 2 lanzado por Meta como herramienta delictiva porque Llama 2 es un modelo de código abierto y todos los códigos se pueden ver y usar. Los expertos dicen que esto abre más vías para que los delincuentes tomen el modelo y luego lo utilicen para socavar la seguridad de la red. Por ejemplo, se podrían crear herramientas de inteligencia artificial maliciosas encima. Forbes pidió comentarios a Meta pero no recibió respuesta. El director ejecutivo de Meta, Mark Zuckerberg, dijo en julio que mantener Llama de código abierto mejoraría su "seguridad porque el software de código abierto sería más examinado y más personas podrían trabajar juntas". Encontrar e identificar soluciones a los problemas".

Las empresas de prevención de fraude también están tratando de innovar más rápido para mantenerse al día con los avances en inteligencia artificial y hacer un mayor uso de nuevos tipos de datos para detectar a los estafadores. "La forma en que escribes, la forma en que caminas o la forma en que sostienes tu teléfono son rasgos de comportamiento que te definen, pero estos datos no son accesibles en el dominio público", dijo Ranjan. "Es difícil saber en línea si una persona está quiénes dicen ser. Esa persona, la IA integrada jugará un papel importante". En otras palabras, necesitamos IA para atrapar a los delincuentes que la utilizan para cometer fraude.

Cinco consejos para protegerse del fraude de IA:

Este artículo está traducido de

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)