Título original: "Como a inteligência artificial está alimentando fraudes financeiras e tornando-as mais invisíveis"
De "The Hunt" e "All or Nothing" a "Parrot Killing" lançado na semana passada, filmes relacionados a fraudes estão fornecendo um método eficaz de propaganda para o controle do crime na China. No entanto, com a popularização de uma nova rodada de tecnologia de IA, desafios futuros Provavelmente mais grave. Para os Estados Unidos, do outro lado do oceano, o combate à fraude pode tornar-se outro novo consenso entre o país e a China numa era de incerteza. Só em 2020, as pesquisas dos EUA mostram que 56 milhões de pessoas nos Estados Unidos foram fraudadas por telefonemas, o que representa cerca de um sexto da população dos EUA. Entre elas, 17% dos americanos foram fraudados mais de uma vez.
No campo da fraude nas telecomunicações, a Índia é para os Estados Unidos o que Mianmar é para a China. Mas é evidente que a Índia tem mais terreno para o desenvolvimento da indústria da fraude do que Mianmar. Por um lado, o inglês, como língua oficial, tem uma taxa de penetração relativamente alta na Índia, e a Índia também tem uma "vantagem natural" em termos de talentos; por outro lado, a Índia tornou-se uma plataforma estrangeira para grandes empresas multinacionais desde 2000. Terceirizadores de atendimento ao cliente por telefone criam novos golpes telefônicos com o mesmo sotaque, mas com conteúdo diferente. Mas com uma nova ronda de tecnologia de IA, o “trono” da Índia no domínio da fraude telefónica pode ser substituído.
Desde mensagens de texto elegantes até clonagem de vozes e troca de rostos em vídeos, a IA generativa está dando aos fraudadores uma nova arma poderosa.
"Esta carta/carta é para informar que o Chase tem seu reembolso de US$ 2.000 pendente. Para agilizar o processo e garantir que você receba seu reembolso o mais rápido possível, siga estas instruções: Ligue para o Atendimento ao Cliente do Chase 1-800-953-XXXX para verifique o status do seu reembolso. Certifique-se de ter as informações da sua conta e qualquer informação relevante em mãos..."
Se você fez negócios com o Chase e recebeu esta mensagem por e-mail ou mensagem de texto, provavelmente pensou que era verdade. Parecia profissional, sem as frases estranhas, a gramática incorreta ou os epítetos estranhos que caracterizaram as mensagens de phishing que recebemos com frequência no passado.
Isto não é surpreendente, já que a mensagem foi gerada pelo ChatGPT, um chatbot de inteligência artificial lançado pela gigante tecnológica OpenAI no final do ano passado. Como aviso, apenas digitamos ChatGPT: "Envie a alguém um e-mail informando que Chase lhe deve um reembolso de US$ 2.000. Peça que ele ligue para 1-800-953-XXXX para obter o reembolso. (Para fazer o ChatGPT funcionar, precisamos insira um número completo, mas obviamente não o publicaremos aqui.)
“Os golpistas agora falam perfeitamente, como qualquer outro falante nativo”, disse Soups Ranjan, cofundador e CEO da Sardine, uma startup antifraude em São Francisco. Um banco digital dos EUA solicitou anonimato O diretor antifraude do banco também confirmou que os clientes dos bancos são cada vez mais enganados porque “as mensagens de texto que recebem quase não têm falhas”. (Para evitar se tornar uma vítima, veja as cinco dicas no final deste artigo.)
Neste novo mundo que acolhe a inteligência artificial generativa ou modelos de aprendizagem profunda que podem criar conteúdo com base nas informações que recebem, agora é mais fácil do que nunca para aqueles com intenções nefastas produzir texto, áudio e até vídeo. Estes textos, áudios e até vídeos não só podem enganar potenciais vítimas individuais, como também podem enganar os programas agora utilizados para impedir fraudes. Não há nada de único na IA a este respeito – afinal, os bandidos têm sido os primeiros a adotar novas tecnologias, com a polícia a persegui-los. Por exemplo, em 1989, a Forbes expôs como os ladrões usavam computadores comuns e impressoras laser para falsificar cheques para fraudar bancos, sem que os bancos tomassem quaisquer medidas especiais para detectar essas notas falsas.
IA alimenta o aumento da fraude online
Os consumidores dos EUA relataram à Comissão Federal de Comércio dos EUA (FTC) que perderam um valor recorde de 8,8 mil milhões de dólares devido a fraudes no ano passado – e isso não inclui montantes roubados não declarados.
Hoje, a inteligência artificial generativa representa uma ameaça que pode eventualmente tornar obsoletas as medidas mais avançadas de prevenção de fraudes, como a autenticação de voz e até mesmo “verificações de atividade” projetadas para combinar avatares ao vivo com avatares gravados (Liveness Check).
A Synchrony, uma das maiores emissoras de cartões de crédito nos Estados Unidos, com 70 milhões de contas ativas, tem a compreensão mais intuitiva dessa tendência. Kenneth Williams, vice-presidente sênior da Synchrony, disse em um e-mail à Forbes: “Muitas vezes vemos pessoas usando imagens e vídeos deepfake para autenticação, e podemos presumir com segurança que eles são criados usando inteligência artificial generativa”.
Uma pesquisa de junho de 2023 com 650 especialistas em segurança cibernética realizada pela empresa cibernética Deep Instinct, com sede em Nova York, mostrou que três quartos dos especialistas pesquisados viram um aumento na fraude online no ano passado, com “85% dos entrevistados atribuem esse aumento ao uso de IA generativa por maus atores.”
Além disso, a Comissão Federal de Comércio dos EUA também informou que os consumidores dos EUA perderam 8,8 mil milhões de dólares devido a fraudes em 2022, um aumento de mais de 40% em relação a 2021. Os maiores montantes perdidos provêm frequentemente de fraudes de investimento, mas as fraudes de impostores são as mais comuns, o que é um sinal sinistro, uma vez que estas fraudes são susceptíveis de serem ainda mais reforçadas pela inteligência artificial.
Os criminosos podem usar a IA generativa de diversas maneiras. Se você postar regularmente nas redes sociais ou em qualquer rede, eles podem dizer a um modelo de IA para escrever no seu estilo e, então, podem enviar uma mensagem de texto aos seus avós e implorar que enviem dinheiro para ajudá-lo. O que é ainda mais assustador é que, se eles tiverem uma breve amostra da voz de uma criança, poderão ligar para os pais da criança, fingir ser seu filho e fingir que foram sequestrados, exigindo que os pais paguem um resgate. Foi exatamente o que aconteceu com Jennifer DeStefano, mãe de quatro filhos no Arizona, quando testemunhou perante o Congresso em junho.
Não são apenas os pais e os avós; as empresas também estão sendo visadas. Os criminosos também podem se passar por vendedores e enviar e-mails aparentemente legítimos a contadores dizendo que precisam receber o pagamento o mais rápido possível, juntamente com instruções de pagamento para uma conta bancária que eles controlam. Ranjan, CEO da Sardine, disse que muitos dos próprios clientes iniciantes de fintech da Sardine caíram nessas armadilhas e perderam centenas de milhares de dólares.
Embora isso seja insignificante em comparação com os US$ 35 milhões que uma empresa japonesa perdeu em 2020 depois que a voz de um diretor da empresa foi clonada (a Forbes relatou pela primeira vez sobre o elaborado golpe na época), agora está se tornando cada vez mais comum. Esse caso anterior foi apenas uma provocação para algo semelhante. casos que se tornam mais frequentes, à medida que as ferramentas de inteligência artificial para escrita, imitação de voz e processamento de vídeo se tornam rapidamente mais capazes e acessíveis, até mesmo para fraudadores comuns. Rick Song, cofundador e CEO da empresa de prevenção de fraudes Persona, disse que no passado eram necessárias centenas ou milhares de fotos para criar um vídeo deepfake de alta qualidade, mas agora você só precisa de algumas fotos. (Sim, você pode fazer um vídeo falso sem um vídeo real, mas obviamente é mais fácil se você tiver um vídeo real disponível.)
Armadilhas e golpes telefônicos: os perigos da clonagem de som profundo
Assim como outras indústrias estão aplicando IA em seus negócios, os golpistas estão usando modelos generativos de IA lançados por gigantes da tecnologia para criar ferramentas prontas para uso, como FraudGPT e WormGPT.
Em um vídeo do YouTube postado em janeiro, Elon Musk, o homem mais rico do mundo, apareceu para promover a mais recente oportunidade de investimento em criptomoeda para seu público: a Tesla patrocinou um evento gratuito no valor de US$ 100 milhões, afirmou ele, que promete devolver aos participantes o dobro. em seus investimentos em criptomoedas como Bitcoin, Ethereum, Dogecoin ou Ethereum. “Sei que todos estão aqui com um propósito comum. Agora organizamos uma transmissão ao vivo onde cada proprietário de criptomoeda pode aumentar sua renda”, disse uma versão em baixa resolução de Musk no palco. “Sim, você ouviu direito, estou organizando um grande evento de criptomoeda para a SpaceX.”
Sim, este vídeo é um deepfake – o golpista usou seu discurso de fevereiro de 2022 no projeto de espaçonave reutilizável da SpaceX para imitar sua imagem e voz. Desde então, o YouTube retirou o vídeo, mas até então qualquer pessoa que tenha enviado criptomoeda para o endereço do vídeo quase certamente terá suas carteiras danificadas. Musk é o principal alvo de vídeos falsos porque existem inúmeras amostras de áudio dele disponíveis online para apoiar a clonagem de voz de IA, mas agora quase qualquer pessoa pode ser personificada.
No início deste ano, Larry Leonard, um homem de 93 anos que morava em uma comunidade de aposentados no sul da Flórida, estava em casa quando sua esposa atendeu um telefonema em seu telefone fixo. Um minuto depois, ela entregou o telefone a Leonard, e ele ouviu uma voz do outro lado da linha que parecia a de seu neto de 27 anos, dizendo que havia atropelado uma mulher com seu caminhão e estava na prisão. Embora Leonard tenha notado que a pessoa que ligou o chamou de "Vovô" em vez de "Vovô", como seu neto prefere ser chamado, a voz do homem era exatamente igual à de seu neto, e havia o fato de que seu neto realmente dirigia um caminhão. suas dúvidas de lado. Quando Leonard respondeu que iria ligar para os pais do neto, quem ligou desligou. Leonard logo descobre que seu neto está seguro e que toda a história – e a voz que a conta – é falsa.
“O fato de que eles foram capazes de capturar sua voz, seu tom e seu tom com tanta precisão foi aterrorizante e surpreendente para mim”, disse Leonard à Forbes. “Não houve pausas entre suas frases ou palavras, o que mostra que as palavras são lidas de uma máquina ou programa, mas soam exatamente como os reais.”
Os idosos são frequentemente alvo deste tipo de fraudes, mas é hora de cada um de nós ter cuidado com as chamadas recebidas, mesmo que venham de um número que parece familiar – como um vizinho. “Cada vez mais, não podemos confiar nas ligações que recebemos porque o golpista falsificou [o número de telefone]”, lamenta Kathy Stokes, diretora de programas de prevenção de fraudes da AARP.). 38 milhões de membros com 50 anos ou mais. "Não podemos confiar nos e-mails que recebemos, não podemos confiar nas mensagens de texto que recebemos. Portanto, estamos excluídos das formas típicas de comunicação uns com os outros."
Num outro desenvolvimento sinistro, até novas medidas de segurança estão ameaçadas. Por exemplo, grandes instituições financeiras, como o gigante dos fundos mútuos Vanguard Group, que serve mais de 50 milhões de investidores, estão a oferecer aos clientes a opção de receber determinados serviços falando ao telefone em vez de responder a perguntas de segurança. "Sua voz é única, assim como suas impressões digitais."
Vanguard explicou em um vídeo de novembro de 2021 incentivando os clientes a se inscreverem para verificação de voz. Mas os avanços na tecnologia de clonagem de voz sugerem que as empresas precisam repensar a prática. Ranjan, da Sardine, disse que viu algumas pessoas usarem tecnologia de clonagem de voz para se autenticarem com sucesso em bancos e obterem acesso a contas. Um porta-voz da Vanguard se recusou a comentar quais medidas a empresa poderia tomar para impedir o avanço da tecnologia de clonagem de voz.
As pequenas empresas (e mesmo as grandes empresas) que utilizam procedimentos informais para pagar contas ou transferir dinheiro também são vulneráveis a maus actores. Há muito tempo é comum que os fraudadores exijam o pagamento enviando por e-mail faturas falsas que parecem ser de fornecedores.
Agora, aproveitando ferramentas de inteligência artificial amplamente disponíveis, os golpistas podem usar versões clonadas de vozes executivas para ligar para funcionários da empresa, fingindo autorizar transações, ou pedir aos funcionários que divulguem dados confidenciais em software de “phishing” ou “phishing de voz”. “Quando se trata de se passar por executivos e cometer fraudes de alto valor, isso é enorme e é uma ameaça muito real”, disse Rick Song, CEO da Persona, que descreveu isso como seu “maior medo em termos de voz”.
A IA pode enganar os especialistas em fraude?
Os criminosos utilizam cada vez mais a inteligência artificial generativa para enganar os especialistas em fraude – mesmo que estes especialistas em fraude e as empresas tecnológicas atuem como guardas armados e furgões de dinheiro no atual sistema financeiro digital.
Uma das principais funções dessas empresas é verificar a identidade dos consumidores para proteger as instituições financeiras e seus clientes contra perdas. Uma das maneiras pelas quais empresas de prevenção de fraudes como Socure, Mitek e Onfido verificam as identidades dos clientes é por meio de "verificações de vivacidade" - ou seja, elas pedem que você tire uma foto ou um vídeo de selfie e, em seguida, use a foto ou o videoclipe para combinar com seu rosto à sua. A imagem do cartão de identificação deve ser enviada para correspondência.
Depois de saberem como o sistema funciona, os ladrões compram fotos de carteiras de motorista reais na dark web e depois usam programas de troca de rostos em vídeo – ferramentas que estão se tornando mais baratas e acessíveis – para que o avatar da vida real de outra pessoa seja sobreposto ao seu próprio rosto. . Eles podem então falar e mover a cabeça atrás do rosto digital de outra pessoa, aumentando suas chances de enganar as verificações de atividade.
“Houve um crescimento considerável no número de rostos falsos, que são gerados pela IA e são de alta qualidade, e também houve um crescimento nos ataques de fraude gerados automaticamente visando verificações de atividades”, disse Song. pela indústria, mas para alguns, “provavelmente estamos vendo dez vezes mais do que vimos no ano passado.” As empresas de fintech e criptomoedas são particularmente vulneráveis a tais ataques.
Especialistas antifraude disseram à Forbes que suspeitam que provedores de verificação de identidade de alto nível, como Socure e Mitek, viram suas métricas de prevenção de fraude caírem como resultado. O CEO da Socure, Johnny Ayers, insiste que "isso é absolutamente falso" e diz que os novos modelos lançados nos últimos meses levaram a um aumento nas capturas dos 2% mais arriscados de fraude de identidade de identidade (14%). No entanto, reconheceu que alguns clientes têm demorado a adotar os novos modelos da Socure, o que poderá impactar o seu desempenho. “Um de nossos clientes é um dos três maiores bancos do país e agora está quatro versões atrás”, disse Ayers.
A Mitek se recusou a comentar especificamente sobre as métricas de desempenho à prova de fraude de seus modelos, mas seu vice-presidente sênior, Chris Briggs, disse que se um modelo específico foi desenvolvido há 18 meses, “então sim, você poderia argumentar que o modelo antigo não é tão bom na prevenção de fraudes como o novo modelo. Com o tempo, a Mitek continuará a treinar e retreinar o modelo usando fluxos de dados da vida real, bem como dados de laboratório."
JPMorgan Chase, Bank of America e Wells Fargo se recusaram a comentar sobre os desafios que enfrentam com a fraude generativa de IA. Um porta-voz do Chime, o maior banco digital dos Estados Unidos que enfrentou grandes problemas de fraude no passado, disse que o banco ainda não viu um aumento nas fraudes relacionadas à inteligência artificial generativa.
Hoje, a fraude financeira está por trás de criminosos que vão desde criminosos solitários até gangues complexas de dezenas ou mesmo centenas de criminosos. As maiores gangues criminosas, assim como as empresas, possuem estruturas organizacionais multicamadas e pessoal técnico sênior, incluindo cientistas de dados.
“Todos têm os seus próprios centros de comando e controlo”, disse Ranjan.Alguns membros de gangues são responsáveis por lançar iscos – como enviar e-mails de phishing ou fazer chamadas telefónicas. Se alguém morder a isca, coloca outro cúmplice em contato com o fraudado, que se passa por gerente de agência bancária e tenta fazer com que você transfira dinheiro de sua conta. Outra etapa importante: muitas vezes eles pedem que você instale um programa como o Microsoft TeamViewer ou Citrix para controlar remotamente o seu computador. "Eles podem deixar seu computador completamente preto", disse Ranjan. "Então o golpista fará mais transações (com seu dinheiro) e retirará o dinheiro para outro URL que eles controlam." Os golpistas usam para fraudar as pessoas (um truque comum, especialmente entre os idosos, é mentir que a conta da outra parte foi controlada pelo golpista e que a cooperação da outra parte é necessária para recuperar os fundos.
Diferentes estratégias para OpenAI e Meta
O processo de fraude acima não requer necessariamente o uso de inteligência artificial, mas as ferramentas de inteligência artificial podem tornar as táticas dos golpistas mais eficientes e confiáveis.
A OpenAI tentou introduzir proteções para evitar que as pessoas usassem o ChatGPT para fraudes. Por exemplo, se um usuário pedir ao ChatGPT para redigir um e-mail solicitando o número da conta bancária de alguém, o ChatGPT se recusará a executar a instrução e responderá: “Sinto muito, mas não posso ajudar com esta solicitação”. cometer fraude Ainda é muito fácil.
A OpenAI se recusou a comentar este artigo, referindo-nos apenas às postagens de blog publicadas pela empresa, uma das quais foi publicada em março de 2022 e diz: “Não existe solução mágica para implantação responsável, por isso tentamos desenvolver e compreender as limitações de nosso modelo e possíveis caminhos para abuso, e abordamos questões relacionadas em todas as fases da implantação.”
Comparado com o OpenAI, o grande modelo de linguagem Llama 2 lançado pela Meta tem maior probabilidade de ser usado como ferramenta criminosa por criminosos experientes porque o Llama 2 é um modelo de código aberto e todos os códigos podem ser visualizados e usados. Especialistas dizem que isso abre mais caminhos para os criminosos tomarem o modelo para si e depois usá-lo para minar a segurança da rede. Por exemplo, pode-se construir ferramentas maliciosas de IA em cima disso. A Forbes pediu comentários a Meta, mas não recebeu resposta. O CEO da Meta, Mark Zuckerberg, disse em julho que manter o código aberto do Llama melhoraria sua “segurança porque o software de código aberto seria mais examinado e mais pessoas poderiam trabalhar juntas”.
As empresas de prevenção de fraudes também estão tentando inovar mais rapidamente para acompanhar os avanços na IA e fazer maior uso de novos tipos de dados para detectar fraudadores. "A maneira como você digita, a maneira como você anda ou a maneira como segura o telefone - essas características comportamentais definem você, mas esses dados não são acessíveis ao domínio público", disse Ranjan. "É difícil dizer on-line se uma pessoa é quem eles dizem ser. Essa pessoa, a IA incorporada, desempenhará um grande papel." Em outras palavras, precisamos de IA para capturar criminosos que usam IA para cometer fraudes.
Cinco dicas para se proteger contra fraudes de IA:
Este artigo foi traduzido de
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A IA se tornará o próximo “senhor supremo” da fraude telefônica global?
Original: Jeff Kauflin, Emily Mason
Fonte: Forbes
Título original: "Como a inteligência artificial está alimentando fraudes financeiras e tornando-as mais invisíveis"
De "The Hunt" e "All or Nothing" a "Parrot Killing" lançado na semana passada, filmes relacionados a fraudes estão fornecendo um método eficaz de propaganda para o controle do crime na China. No entanto, com a popularização de uma nova rodada de tecnologia de IA, desafios futuros Provavelmente mais grave. Para os Estados Unidos, do outro lado do oceano, o combate à fraude pode tornar-se outro novo consenso entre o país e a China numa era de incerteza. Só em 2020, as pesquisas dos EUA mostram que 56 milhões de pessoas nos Estados Unidos foram fraudadas por telefonemas, o que representa cerca de um sexto da população dos EUA. Entre elas, 17% dos americanos foram fraudados mais de uma vez.
No campo da fraude nas telecomunicações, a Índia é para os Estados Unidos o que Mianmar é para a China. Mas é evidente que a Índia tem mais terreno para o desenvolvimento da indústria da fraude do que Mianmar. Por um lado, o inglês, como língua oficial, tem uma taxa de penetração relativamente alta na Índia, e a Índia também tem uma "vantagem natural" em termos de talentos; por outro lado, a Índia tornou-se uma plataforma estrangeira para grandes empresas multinacionais desde 2000. Terceirizadores de atendimento ao cliente por telefone criam novos golpes telefônicos com o mesmo sotaque, mas com conteúdo diferente. Mas com uma nova ronda de tecnologia de IA, o “trono” da Índia no domínio da fraude telefónica pode ser substituído.
Desde mensagens de texto elegantes até clonagem de vozes e troca de rostos em vídeos, a IA generativa está dando aos fraudadores uma nova arma poderosa.
"Esta carta/carta é para informar que o Chase tem seu reembolso de US$ 2.000 pendente. Para agilizar o processo e garantir que você receba seu reembolso o mais rápido possível, siga estas instruções: Ligue para o Atendimento ao Cliente do Chase 1-800-953-XXXX para verifique o status do seu reembolso. Certifique-se de ter as informações da sua conta e qualquer informação relevante em mãos..."
Se você fez negócios com o Chase e recebeu esta mensagem por e-mail ou mensagem de texto, provavelmente pensou que era verdade. Parecia profissional, sem as frases estranhas, a gramática incorreta ou os epítetos estranhos que caracterizaram as mensagens de phishing que recebemos com frequência no passado.
Isto não é surpreendente, já que a mensagem foi gerada pelo ChatGPT, um chatbot de inteligência artificial lançado pela gigante tecnológica OpenAI no final do ano passado. Como aviso, apenas digitamos ChatGPT: "Envie a alguém um e-mail informando que Chase lhe deve um reembolso de US$ 2.000. Peça que ele ligue para 1-800-953-XXXX para obter o reembolso. (Para fazer o ChatGPT funcionar, precisamos insira um número completo, mas obviamente não o publicaremos aqui.)
“Os golpistas agora falam perfeitamente, como qualquer outro falante nativo”, disse Soups Ranjan, cofundador e CEO da Sardine, uma startup antifraude em São Francisco. Um banco digital dos EUA solicitou anonimato O diretor antifraude do banco também confirmou que os clientes dos bancos são cada vez mais enganados porque “as mensagens de texto que recebem quase não têm falhas”. (Para evitar se tornar uma vítima, veja as cinco dicas no final deste artigo.)
Neste novo mundo que acolhe a inteligência artificial generativa ou modelos de aprendizagem profunda que podem criar conteúdo com base nas informações que recebem, agora é mais fácil do que nunca para aqueles com intenções nefastas produzir texto, áudio e até vídeo. Estes textos, áudios e até vídeos não só podem enganar potenciais vítimas individuais, como também podem enganar os programas agora utilizados para impedir fraudes. Não há nada de único na IA a este respeito – afinal, os bandidos têm sido os primeiros a adotar novas tecnologias, com a polícia a persegui-los. Por exemplo, em 1989, a Forbes expôs como os ladrões usavam computadores comuns e impressoras laser para falsificar cheques para fraudar bancos, sem que os bancos tomassem quaisquer medidas especiais para detectar essas notas falsas.
IA alimenta o aumento da fraude online
Hoje, a inteligência artificial generativa representa uma ameaça que pode eventualmente tornar obsoletas as medidas mais avançadas de prevenção de fraudes, como a autenticação de voz e até mesmo “verificações de atividade” projetadas para combinar avatares ao vivo com avatares gravados (Liveness Check).
A Synchrony, uma das maiores emissoras de cartões de crédito nos Estados Unidos, com 70 milhões de contas ativas, tem a compreensão mais intuitiva dessa tendência. Kenneth Williams, vice-presidente sênior da Synchrony, disse em um e-mail à Forbes: “Muitas vezes vemos pessoas usando imagens e vídeos deepfake para autenticação, e podemos presumir com segurança que eles são criados usando inteligência artificial generativa”.
Uma pesquisa de junho de 2023 com 650 especialistas em segurança cibernética realizada pela empresa cibernética Deep Instinct, com sede em Nova York, mostrou que três quartos dos especialistas pesquisados viram um aumento na fraude online no ano passado, com “85% dos entrevistados atribuem esse aumento ao uso de IA generativa por maus atores.”
Além disso, a Comissão Federal de Comércio dos EUA também informou que os consumidores dos EUA perderam 8,8 mil milhões de dólares devido a fraudes em 2022, um aumento de mais de 40% em relação a 2021. Os maiores montantes perdidos provêm frequentemente de fraudes de investimento, mas as fraudes de impostores são as mais comuns, o que é um sinal sinistro, uma vez que estas fraudes são susceptíveis de serem ainda mais reforçadas pela inteligência artificial.
Os criminosos podem usar a IA generativa de diversas maneiras. Se você postar regularmente nas redes sociais ou em qualquer rede, eles podem dizer a um modelo de IA para escrever no seu estilo e, então, podem enviar uma mensagem de texto aos seus avós e implorar que enviem dinheiro para ajudá-lo. O que é ainda mais assustador é que, se eles tiverem uma breve amostra da voz de uma criança, poderão ligar para os pais da criança, fingir ser seu filho e fingir que foram sequestrados, exigindo que os pais paguem um resgate. Foi exatamente o que aconteceu com Jennifer DeStefano, mãe de quatro filhos no Arizona, quando testemunhou perante o Congresso em junho.
Não são apenas os pais e os avós; as empresas também estão sendo visadas. Os criminosos também podem se passar por vendedores e enviar e-mails aparentemente legítimos a contadores dizendo que precisam receber o pagamento o mais rápido possível, juntamente com instruções de pagamento para uma conta bancária que eles controlam. Ranjan, CEO da Sardine, disse que muitos dos próprios clientes iniciantes de fintech da Sardine caíram nessas armadilhas e perderam centenas de milhares de dólares.
Embora isso seja insignificante em comparação com os US$ 35 milhões que uma empresa japonesa perdeu em 2020 depois que a voz de um diretor da empresa foi clonada (a Forbes relatou pela primeira vez sobre o elaborado golpe na época), agora está se tornando cada vez mais comum. Esse caso anterior foi apenas uma provocação para algo semelhante. casos que se tornam mais frequentes, à medida que as ferramentas de inteligência artificial para escrita, imitação de voz e processamento de vídeo se tornam rapidamente mais capazes e acessíveis, até mesmo para fraudadores comuns. Rick Song, cofundador e CEO da empresa de prevenção de fraudes Persona, disse que no passado eram necessárias centenas ou milhares de fotos para criar um vídeo deepfake de alta qualidade, mas agora você só precisa de algumas fotos. (Sim, você pode fazer um vídeo falso sem um vídeo real, mas obviamente é mais fácil se você tiver um vídeo real disponível.)
Armadilhas e golpes telefônicos: os perigos da clonagem de som profundo
Assim como outras indústrias estão aplicando IA em seus negócios, os golpistas estão usando modelos generativos de IA lançados por gigantes da tecnologia para criar ferramentas prontas para uso, como FraudGPT e WormGPT.
Em um vídeo do YouTube postado em janeiro, Elon Musk, o homem mais rico do mundo, apareceu para promover a mais recente oportunidade de investimento em criptomoeda para seu público: a Tesla patrocinou um evento gratuito no valor de US$ 100 milhões, afirmou ele, que promete devolver aos participantes o dobro. em seus investimentos em criptomoedas como Bitcoin, Ethereum, Dogecoin ou Ethereum. “Sei que todos estão aqui com um propósito comum. Agora organizamos uma transmissão ao vivo onde cada proprietário de criptomoeda pode aumentar sua renda”, disse uma versão em baixa resolução de Musk no palco. “Sim, você ouviu direito, estou organizando um grande evento de criptomoeda para a SpaceX.”
Sim, este vídeo é um deepfake – o golpista usou seu discurso de fevereiro de 2022 no projeto de espaçonave reutilizável da SpaceX para imitar sua imagem e voz. Desde então, o YouTube retirou o vídeo, mas até então qualquer pessoa que tenha enviado criptomoeda para o endereço do vídeo quase certamente terá suas carteiras danificadas. Musk é o principal alvo de vídeos falsos porque existem inúmeras amostras de áudio dele disponíveis online para apoiar a clonagem de voz de IA, mas agora quase qualquer pessoa pode ser personificada.
No início deste ano, Larry Leonard, um homem de 93 anos que morava em uma comunidade de aposentados no sul da Flórida, estava em casa quando sua esposa atendeu um telefonema em seu telefone fixo. Um minuto depois, ela entregou o telefone a Leonard, e ele ouviu uma voz do outro lado da linha que parecia a de seu neto de 27 anos, dizendo que havia atropelado uma mulher com seu caminhão e estava na prisão. Embora Leonard tenha notado que a pessoa que ligou o chamou de "Vovô" em vez de "Vovô", como seu neto prefere ser chamado, a voz do homem era exatamente igual à de seu neto, e havia o fato de que seu neto realmente dirigia um caminhão. suas dúvidas de lado. Quando Leonard respondeu que iria ligar para os pais do neto, quem ligou desligou. Leonard logo descobre que seu neto está seguro e que toda a história – e a voz que a conta – é falsa.
“O fato de que eles foram capazes de capturar sua voz, seu tom e seu tom com tanta precisão foi aterrorizante e surpreendente para mim”, disse Leonard à Forbes. “Não houve pausas entre suas frases ou palavras, o que mostra que as palavras são lidas de uma máquina ou programa, mas soam exatamente como os reais.”
Os idosos são frequentemente alvo deste tipo de fraudes, mas é hora de cada um de nós ter cuidado com as chamadas recebidas, mesmo que venham de um número que parece familiar – como um vizinho. “Cada vez mais, não podemos confiar nas ligações que recebemos porque o golpista falsificou [o número de telefone]”, lamenta Kathy Stokes, diretora de programas de prevenção de fraudes da AARP.). 38 milhões de membros com 50 anos ou mais. "Não podemos confiar nos e-mails que recebemos, não podemos confiar nas mensagens de texto que recebemos. Portanto, estamos excluídos das formas típicas de comunicação uns com os outros."
Num outro desenvolvimento sinistro, até novas medidas de segurança estão ameaçadas. Por exemplo, grandes instituições financeiras, como o gigante dos fundos mútuos Vanguard Group, que serve mais de 50 milhões de investidores, estão a oferecer aos clientes a opção de receber determinados serviços falando ao telefone em vez de responder a perguntas de segurança. "Sua voz é única, assim como suas impressões digitais."
Vanguard explicou em um vídeo de novembro de 2021 incentivando os clientes a se inscreverem para verificação de voz. Mas os avanços na tecnologia de clonagem de voz sugerem que as empresas precisam repensar a prática. Ranjan, da Sardine, disse que viu algumas pessoas usarem tecnologia de clonagem de voz para se autenticarem com sucesso em bancos e obterem acesso a contas. Um porta-voz da Vanguard se recusou a comentar quais medidas a empresa poderia tomar para impedir o avanço da tecnologia de clonagem de voz.
As pequenas empresas (e mesmo as grandes empresas) que utilizam procedimentos informais para pagar contas ou transferir dinheiro também são vulneráveis a maus actores. Há muito tempo é comum que os fraudadores exijam o pagamento enviando por e-mail faturas falsas que parecem ser de fornecedores.
Agora, aproveitando ferramentas de inteligência artificial amplamente disponíveis, os golpistas podem usar versões clonadas de vozes executivas para ligar para funcionários da empresa, fingindo autorizar transações, ou pedir aos funcionários que divulguem dados confidenciais em software de “phishing” ou “phishing de voz”. “Quando se trata de se passar por executivos e cometer fraudes de alto valor, isso é enorme e é uma ameaça muito real”, disse Rick Song, CEO da Persona, que descreveu isso como seu “maior medo em termos de voz”.
A IA pode enganar os especialistas em fraude?
Os criminosos utilizam cada vez mais a inteligência artificial generativa para enganar os especialistas em fraude – mesmo que estes especialistas em fraude e as empresas tecnológicas atuem como guardas armados e furgões de dinheiro no atual sistema financeiro digital.
Uma das principais funções dessas empresas é verificar a identidade dos consumidores para proteger as instituições financeiras e seus clientes contra perdas. Uma das maneiras pelas quais empresas de prevenção de fraudes como Socure, Mitek e Onfido verificam as identidades dos clientes é por meio de "verificações de vivacidade" - ou seja, elas pedem que você tire uma foto ou um vídeo de selfie e, em seguida, use a foto ou o videoclipe para combinar com seu rosto à sua. A imagem do cartão de identificação deve ser enviada para correspondência.
Depois de saberem como o sistema funciona, os ladrões compram fotos de carteiras de motorista reais na dark web e depois usam programas de troca de rostos em vídeo – ferramentas que estão se tornando mais baratas e acessíveis – para que o avatar da vida real de outra pessoa seja sobreposto ao seu próprio rosto. . Eles podem então falar e mover a cabeça atrás do rosto digital de outra pessoa, aumentando suas chances de enganar as verificações de atividade.
“Houve um crescimento considerável no número de rostos falsos, que são gerados pela IA e são de alta qualidade, e também houve um crescimento nos ataques de fraude gerados automaticamente visando verificações de atividades”, disse Song. pela indústria, mas para alguns, “provavelmente estamos vendo dez vezes mais do que vimos no ano passado.” As empresas de fintech e criptomoedas são particularmente vulneráveis a tais ataques.
Especialistas antifraude disseram à Forbes que suspeitam que provedores de verificação de identidade de alto nível, como Socure e Mitek, viram suas métricas de prevenção de fraude caírem como resultado. O CEO da Socure, Johnny Ayers, insiste que "isso é absolutamente falso" e diz que os novos modelos lançados nos últimos meses levaram a um aumento nas capturas dos 2% mais arriscados de fraude de identidade de identidade (14%). No entanto, reconheceu que alguns clientes têm demorado a adotar os novos modelos da Socure, o que poderá impactar o seu desempenho. “Um de nossos clientes é um dos três maiores bancos do país e agora está quatro versões atrás”, disse Ayers.
A Mitek se recusou a comentar especificamente sobre as métricas de desempenho à prova de fraude de seus modelos, mas seu vice-presidente sênior, Chris Briggs, disse que se um modelo específico foi desenvolvido há 18 meses, “então sim, você poderia argumentar que o modelo antigo não é tão bom na prevenção de fraudes como o novo modelo. Com o tempo, a Mitek continuará a treinar e retreinar o modelo usando fluxos de dados da vida real, bem como dados de laboratório."
JPMorgan Chase, Bank of America e Wells Fargo se recusaram a comentar sobre os desafios que enfrentam com a fraude generativa de IA. Um porta-voz do Chime, o maior banco digital dos Estados Unidos que enfrentou grandes problemas de fraude no passado, disse que o banco ainda não viu um aumento nas fraudes relacionadas à inteligência artificial generativa.
Hoje, a fraude financeira está por trás de criminosos que vão desde criminosos solitários até gangues complexas de dezenas ou mesmo centenas de criminosos. As maiores gangues criminosas, assim como as empresas, possuem estruturas organizacionais multicamadas e pessoal técnico sênior, incluindo cientistas de dados.
“Todos têm os seus próprios centros de comando e controlo”, disse Ranjan.Alguns membros de gangues são responsáveis por lançar iscos – como enviar e-mails de phishing ou fazer chamadas telefónicas. Se alguém morder a isca, coloca outro cúmplice em contato com o fraudado, que se passa por gerente de agência bancária e tenta fazer com que você transfira dinheiro de sua conta. Outra etapa importante: muitas vezes eles pedem que você instale um programa como o Microsoft TeamViewer ou Citrix para controlar remotamente o seu computador. "Eles podem deixar seu computador completamente preto", disse Ranjan. "Então o golpista fará mais transações (com seu dinheiro) e retirará o dinheiro para outro URL que eles controlam." Os golpistas usam para fraudar as pessoas (um truque comum, especialmente entre os idosos, é mentir que a conta da outra parte foi controlada pelo golpista e que a cooperação da outra parte é necessária para recuperar os fundos.
Diferentes estratégias para OpenAI e Meta
O processo de fraude acima não requer necessariamente o uso de inteligência artificial, mas as ferramentas de inteligência artificial podem tornar as táticas dos golpistas mais eficientes e confiáveis.
A OpenAI tentou introduzir proteções para evitar que as pessoas usassem o ChatGPT para fraudes. Por exemplo, se um usuário pedir ao ChatGPT para redigir um e-mail solicitando o número da conta bancária de alguém, o ChatGPT se recusará a executar a instrução e responderá: “Sinto muito, mas não posso ajudar com esta solicitação”. cometer fraude Ainda é muito fácil.
A OpenAI se recusou a comentar este artigo, referindo-nos apenas às postagens de blog publicadas pela empresa, uma das quais foi publicada em março de 2022 e diz: “Não existe solução mágica para implantação responsável, por isso tentamos desenvolver e compreender as limitações de nosso modelo e possíveis caminhos para abuso, e abordamos questões relacionadas em todas as fases da implantação.”
Comparado com o OpenAI, o grande modelo de linguagem Llama 2 lançado pela Meta tem maior probabilidade de ser usado como ferramenta criminosa por criminosos experientes porque o Llama 2 é um modelo de código aberto e todos os códigos podem ser visualizados e usados. Especialistas dizem que isso abre mais caminhos para os criminosos tomarem o modelo para si e depois usá-lo para minar a segurança da rede. Por exemplo, pode-se construir ferramentas maliciosas de IA em cima disso. A Forbes pediu comentários a Meta, mas não recebeu resposta. O CEO da Meta, Mark Zuckerberg, disse em julho que manter o código aberto do Llama melhoraria sua “segurança porque o software de código aberto seria mais examinado e mais pessoas poderiam trabalhar juntas”.
As empresas de prevenção de fraudes também estão tentando inovar mais rapidamente para acompanhar os avanços na IA e fazer maior uso de novos tipos de dados para detectar fraudadores. "A maneira como você digita, a maneira como você anda ou a maneira como segura o telefone - essas características comportamentais definem você, mas esses dados não são acessíveis ao domínio público", disse Ranjan. "É difícil dizer on-line se uma pessoa é quem eles dizem ser. Essa pessoa, a IA incorporada, desempenhará um grande papel." Em outras palavras, precisamos de IA para capturar criminosos que usam IA para cometer fraudes.
Cinco dicas para se proteger contra fraudes de IA: