Akankah AI menjadi “penguasa” penipuan telepon global berikutnya?

Asli: Jeff Kauflin, Emily Mason

Sumber: Forbes

Judul asli: "Bagaimana kecerdasan buatan memicu penipuan finansial dan membuatnya semakin tidak terlihat"

Dari "The Hunt" dan "All or Nothing" hingga "Parrot Killing" yang dirilis minggu lalu, film-film yang berhubungan dengan penipuan menyediakan metode propaganda yang efektif untuk pengendalian kejahatan di Tiongkok. Namun, dengan mempopulerkan babak baru teknologi AI, tantangan masa depan Mungkin lebih parah. Bagi Amerika Serikat, anti-penipuan dapat menjadi konsensus baru antara AS dan Tiongkok di era ketidakpastian. Pada tahun 2020 saja, jajak pendapat di Amerika menunjukkan bahwa sebanyak 56 juta orang di Amerika telah ditipu melalui panggilan telepon, yaitu sekitar seperenam dari populasi Amerika. Di antara mereka, 17% orang Amerika telah ditipu lebih dari satu kali.

Dalam bidang penipuan telekomunikasi, India bagi Amerika Serikat sama seperti Myanmar bagi Tiongkok. Namun jelas bahwa India memiliki lebih banyak lahan untuk berkembangnya industri penipuan dibandingkan Myanmar. Di satu sisi, bahasa Inggris, sebagai bahasa resmi, memiliki tingkat penetrasi yang relatif tinggi di India, dan India juga memiliki "keunggulan alami" dalam hal bakat; di sisi lain, India telah menjadi platform luar negeri bagi perusahaan multinasional besar. sejak tahun 2000. Agen outsourcing layanan pelanggan telepon membuat penipuan telepon baru dengan aksen yang sama namun kontennya berbeda. Namun dengan adanya babak baru teknologi AI, “takhta” India dalam bidang penipuan telepon mungkin akan tergantikan.

Dari pesan teks yang ramping hingga mengkloning suara dan bertukar wajah dalam video, AI generatif memberikan senjata baru yang ampuh bagi penipu.

"Surat/surat ini untuk memberi tahu Anda bahwa pengembalian dana Chase sebesar $2.000 sedang menunggu keputusan. Untuk mempercepat proses dan memastikan Anda menerima pengembalian dana secepat mungkin, ikuti petunjuk berikut: Silakan hubungi Layanan Pelanggan Chase 1-800-953-XXXX ke periksa status pengembalian dana Anda. Pastikan informasi akun Anda dan informasi relevan lainnya sudah siap..."

Jika Anda pernah berbisnis dengan Chase dan menerima pesan ini melalui email atau pesan teks, Anda mungkin mengira itu benar. Kedengarannya profesional, tanpa ungkapan aneh, tata bahasa yang buruk, atau julukan aneh yang menjadi ciri pesan phishing yang sering kita terima di masa lalu.

Hal ini tidak mengherankan, karena pesan tersebut dihasilkan oleh ChatGPT, chatbot kecerdasan buatan yang dirilis oleh raksasa teknologi OpenAI akhir tahun lalu. Sebagai perintah, kita cukup mengetikkan ChatGPT: "Kirimkan email kepada seseorang yang memberitahukan kepadanya bahwa Chase berhutang pengembalian dana sebesar $2.000. Minta dia menghubungi 1-800-953-XXXX untuk mendapatkan pengembalian dana tersebut. (Agar ChatGPT berfungsi, kita harus masukkan nomor lengkapnya, tapi jelas kami tidak akan mempublikasikannya di sini.)

“Para penipu kini berbicara dengan sempurna, sama seperti penutur asli lainnya,” kata Soups Ranjan, salah satu pendiri dan CEO Sardine, sebuah startup anti-penipuan di San Francisco.Sebuah bank digital AS meminta anonimitas Direktur anti-penipuan Bank juga menegaskan bahwa nasabah bank semakin banyak ditipu karena "pesan teks yang mereka terima hampir tidak ada cacatnya." (Untuk menghindari diri Anda menjadi korban, lihat lima tips di akhir artikel ini.)

Di dunia baru yang menyambut kecerdasan buatan generatif atau model pembelajaran mendalam yang dapat membuat konten berdasarkan informasi yang diberikan, kini lebih mudah bagi mereka yang memiliki niat jahat untuk menghasilkan teks, audio, dan bahkan video. Semuanya lebih mudah. Teks, audio, dan bahkan video ini tidak hanya dapat menipu calon korban, namun juga dapat mengelabui program yang kini digunakan untuk menggagalkan penipuan. Tidak ada yang unik mengenai AI dalam hal ini—bagaimanapun juga, pelaku kejahatan telah lama menjadi pengguna awal teknologi baru, dan polisi terus mengejar mereka. Misalnya, pada tahun 1989, Forbes mengungkap bagaimana pencuri menggunakan komputer biasa dan printer laser untuk memalsukan cek guna menipu bank, tanpa bank mengambil langkah khusus untuk mendeteksi uang kertas palsu tersebut.

AI memicu meningkatnya penipuan online

Konsumen AS melaporkan kepada Komisi Perdagangan Federal AS (FTC) bahwa mereka mengalami kerugian sebesar $8,8 miliar akibat penipuan tahun lalu – dan itu belum termasuk jumlah pencurian yang tidak dilaporkan.

Saat ini, kecerdasan buatan generatif menimbulkan ancaman yang pada akhirnya dapat membuat langkah-langkah pencegahan penipuan paling canggih saat ini menjadi usang, seperti otentikasi suara dan bahkan “pemeriksaan aktivitas” yang dirancang untuk mencocokkan avatar langsung dengan avatar yang direkam. (Liveness Check).

Synchrony, salah satu penerbit kartu kredit terbesar di Amerika Serikat dengan 70 juta akun aktif, memiliki pemahaman paling intuitif mengenai tren ini. Kenneth Williams, wakil presiden senior di Synchrony, mengatakan dalam email ke Forbes, "Kami sering melihat orang menggunakan gambar dan video palsu untuk otentikasi, dan kami dapat dengan aman berasumsi bahwa Mereka dibuat menggunakan kecerdasan buatan generatif.”

Survei yang dilakukan pada bulan Juni 2023 terhadap 650 pakar keamanan siber yang dilakukan oleh perusahaan siber Deep Instinct yang berbasis di New York menunjukkan bahwa tiga perempat pakar yang disurvei telah melihat peningkatan penipuan online selama setahun terakhir, dengan “85% responden Responden mengaitkan peningkatan ini dengan penggunaan AI generatif oleh aktor jahat.”

Selain itu, Komisi Perdagangan Federal AS juga melaporkan bahwa konsumen AS kehilangan $8,8 miliar akibat penipuan pada tahun 2022, meningkat lebih dari 40% dari tahun 2021. Jumlah kerugian terbesar sering kali berasal dari penipuan investasi, namun penipuan palsu adalah yang paling umum, yang merupakan pertanda buruk karena penipuan ini kemungkinan besar akan semakin diperkuat oleh kecerdasan buatan.

Penjahat dapat menggunakan AI generatif dengan berbagai cara yang memusingkan. Jika Anda memposting secara teratur di media sosial atau jaringan apa pun, mereka dapat meminta model AI untuk menulis sesuai gaya Anda, dan kemudian mereka dapat mengirim pesan kepada kakek-nenek Anda dan meminta mereka mengirimi Anda uang untuk membantu Anda. Yang lebih menakutkan lagi adalah jika mereka memiliki sampel suara singkat dari seorang anak, mereka dapat menelepon orang tua anak tersebut, berpura-pura menjadi anaknya, dan berpura-pura telah diculik, menuntut orang tuanya membayar uang tebusan. Hal itulah yang terjadi pada Jennifer DeStefano, ibu empat anak asal Arizona, ketika dia bersaksi di depan Kongres pada bulan Juni.

Bukan hanya orang tua dan kakek-nenek, dunia usaha juga menjadi sasarannya. Penjahat juga dapat menyamar sebagai vendor dan mengirimkan email yang tampak sah kepada akuntan yang menyatakan bahwa mereka perlu menerima pembayaran sesegera mungkin, bersama dengan instruksi pembayaran untuk rekening bank yang mereka kendalikan. Ranjan, CEO Sardine, mengatakan banyak klien startup fintech Sardine sendiri yang jatuh ke dalam perangkap ini dan kehilangan ratusan ribu dolar.

Meskipun jumlah tersebut tidak seberapa jika dibandingkan dengan kerugian sebesar $35 juta yang dialami perusahaan Jepang pada tahun 2020 setelah suara direktur perusahaan dikloning (Forbes pertama kali melaporkan penipuan rumit tersebut pada saat itu), namun kini hal ini menjadi semakin umum. Kasus-kasus ini semakin sering terjadi, karena alat kecerdasan buatan untuk menulis, meniru suara, dan memproses video dengan cepat menjadi lebih mampu dan mudah diakses, bahkan oleh penipu biasa. Biayanya juga lebih murah. Rick Song, salah satu pendiri dan CEO perusahaan pencegahan penipuan Persona, mengatakan bahwa dulu Anda memerlukan ratusan atau ribuan foto untuk membuat video deepfake berkualitas tinggi, namun sekarang Anda hanya memerlukan beberapa foto. (Ya, Anda dapat membuat video palsu tanpa video asli, tetapi jelas akan lebih mudah jika Anda memiliki video asli.)

Jebakan dan Penipuan Telepon: Bahaya Kloning Suara Dalam

Sama seperti industri lain yang menerapkan kecerdasan buatan pada bisnisnya, penipu juga menggunakan model AI generatif yang dirilis oleh raksasa teknologi untuk membuat alat siap pakai, seperti FraudGPT dan WormGPT.

Dalam video YouTube yang diposting pada bulan Januari, Elon Musk, orang terkaya di dunia, muncul untuk mempromosikan peluang investasi cryptocurrency terbaru kepada audiensnya: Tesla mensponsori acara gratis senilai $100 juta, klaimnya, yang menjanjikan pengembalian dana dua kali lipat kepada peserta. atas investasi mereka dalam mata uang kripto seperti Bitcoin, Ethereum, Dogecoin, atau Ethereum. "Saya tahu semua orang di sini memiliki tujuan yang sama. Sekarang kami mengadakan siaran langsung di mana setiap pemilik mata uang kripto dapat meningkatkan pendapatan mereka," kata Musk versi resolusi rendah di atas panggung. "Ya, Anda tidak salah dengar, saya mengadakan acara cryptocurrency besar untuk SpaceX."

Ya, video ini palsu - penipu menggunakan pidatonya pada bulan Februari 2022 di proyek pesawat luar angkasa SpaceX yang dapat digunakan kembali untuk meniru gambar dan suaranya. YouTube telah menghapus video tersebut, namun hingga saat itu, siapa pun yang mengirim mata uang kripto ke alamat dalam video tersebut hampir pasti dompetnya akan rusak. Musk adalah target utama video palsu karena ada banyak sekali sampel audio dirinya yang tersedia secara online untuk mendukung kloning suara AI, namun kini hampir semua orang dapat ditiru.

Awal tahun ini, Larry Leonard, seorang pria berusia 93 tahun yang tinggal di komunitas pensiunan di Florida Selatan, sedang berada di rumah ketika istrinya menjawab panggilan telepon di telepon rumah. Semenit kemudian, dia menyerahkan telepon kepada Leonard, dan Leonard mendengar suara di ujung sana yang terdengar seperti suara cucunya yang berusia 27 tahun, mengatakan bahwa dia telah menabrak seorang wanita dengan truknya dan berada di penjara. Meskipun Leonard memperhatikan bahwa si penelepon memanggilnya "Kakek" dan bukannya "Kakek", sebagaimana cucunya lebih suka dipanggil, suara pria itu persis seperti suara cucunya, dan terdapat fakta bahwa cucunya benar-benar mengemudikan truk. mengesampingkan keraguannya. Ketika Leonard menjawab bahwa dia akan menelepon orang tua cucunya, penelepon itu menutup telepon. Leonard segera mengetahui bahwa cucunya selamat dan bahwa keseluruhan cerita – dan suara yang menceritakannya – adalah salah.

“Fakta bahwa mereka mampu menangkap suaranya, nadanya, dan nada suaranya dengan begitu akurat sangat menakutkan sekaligus mengejutkan saya,” kata Leonard kepada Forbes. “Tidak ada jeda antara kalimat atau kata-kata mereka, yang menunjukkan bahwa kata-kata itu dibacakan. dari mesin atau program, namun terdengar seperti aslinya.”

Orang-orang lanjut usia sering kali menjadi sasaran penipuan seperti ini, namun sudah waktunya bagi kita untuk mewaspadai panggilan masuk, meskipun panggilan tersebut berasal dari nomor yang terlihat familier – seperti tetangga. “Semakin sering, kami tidak dapat mempercayai panggilan yang kami terima karena penipu telah memalsukan [nomor telepon],” keluh Kathy Stokes, direktur program pencegahan penipuan di AARP. ).” AARP adalah penyedia lobi dan layanan dengan hampir semua 38 juta anggota berusia 50 tahun ke atas. “Kami tidak bisa mempercayai email yang kami terima, kami tidak bisa mempercayai pesan teks yang kami terima. Jadi kami dikecualikan dari cara-cara umum berkomunikasi satu sama lain.”

Dalam perkembangan buruk lainnya, bahkan langkah-langkah keamanan baru pun terancam. Misalnya, lembaga keuangan besar seperti raksasa reksa dana Vanguard Group, yang melayani lebih dari 50 juta investor, menawarkan pelanggan pilihan untuk menerima layanan tertentu dengan berbicara di telepon daripada menjawab pertanyaan keamanan. “Suaramu unik, seperti sidik jarimu.”

Vanguard menjelaskan dalam video November 2021 yang mendesak pelanggan untuk mendaftar verifikasi suara. Namun kemajuan dalam teknologi kloning suara menunjukkan bahwa perusahaan perlu memikirkan kembali praktik tersebut. Ranjan dari Sardine mengatakan dia telah melihat beberapa orang menggunakan teknologi kloning suara untuk berhasil mengautentikasi diri mereka ke bank dan mendapatkan akses ke rekening. Juru bicara Vanguard menolak berkomentar mengenai langkah apa yang mungkin diambil perusahaan untuk mencegah kemajuan teknologi kloning suara.

Usaha kecil (dan bahkan perusahaan besar) yang menggunakan prosedur informal untuk membayar tagihan atau mentransfer uang juga rentan terhadap pelaku kejahatan. Sudah lama menjadi hal biasa bagi penipu untuk meminta pembayaran dengan mengirimkan faktur palsu melalui email yang tampaknya berasal dari pemasok.

Sekarang, dengan memanfaatkan alat kecerdasan buatan yang tersedia secara luas, penipu dapat menggunakan versi kloning dari suara eksekutif untuk menelepon karyawan perusahaan, berpura-pura mengotorisasi transaksi, atau meminta karyawan untuk mengungkapkan data sensitif dalam perangkat lunak "phishing" atau "voice phishing". “Jika menyangkut peniruan identitas eksekutif dan melakukan penipuan bernilai tinggi, itu sangat besar dan merupakan ancaman yang sangat nyata,” kata CEO Persona Rick Song, yang menggambarkannya sebagai “ketakutan terbesarnya dalam hal suara.”

Bisakah AI menipu pakar penipuan?

Penjahat semakin banyak yang menggunakan kecerdasan buatan generatif untuk mengelabui para ahli penipuan—bahkan ketika para ahli penipuan dan perusahaan teknologi ini bertindak sebagai penjaga bersenjata dan pengangkut uang tunai dalam sistem keuangan yang sarat digital saat ini.

Salah satu fungsi utama perusahaan-perusahaan ini adalah memverifikasi identitas konsumen untuk melindungi lembaga keuangan dan pelanggannya dari kerugian. Salah satu cara perusahaan pencegahan penipuan seperti Socure, Mitek, dan Onfido memverifikasi identitas pelanggan adalah melalui "pemeriksaan keaktifan"—yaitu, mereka meminta Anda mengambil foto atau video selfie, lalu menggunakan foto atau klip video tersebut untuk mencocokkan wajah Anda. ke milikmu. Gambar kartu identitas harus diserahkan untuk pencocokan.

Begitu mereka mengetahui cara kerja sistem, pencuri membeli foto SIM asli di web gelap dan kemudian menggunakan program pertukaran wajah video—alat yang kini semakin murah dan mudah diakses—untuk membuat avatar orang lain di kehidupan nyata ditempelkan ke wajah mereka sendiri. . Mereka kemudian dapat berbicara dan menggerakkan kepala mereka ke belakang wajah digital orang lain, sehingga meningkatkan peluang mereka untuk menipu pemeriksaan aktivitas.

“Ada peningkatan besar dalam jumlah wajah palsu yang dihasilkan oleh AI dan berkualitas tinggi, dan ada juga peningkatan serangan penipuan yang dihasilkan secara otomatis yang menargetkan pemeriksaan aktivitas,” kata Song. oleh industri, namun bagi sebagian orang, “kita mungkin melihat sepuluh kali lipat dari apa yang kita lihat tahun lalu.” Perusahaan fintech dan mata uang kripto sangat rentan terhadap serangan semacam itu.

Pakar anti-penipuan mengatakan kepada Forbes bahwa mereka mencurigai penyedia verifikasi identitas terkemuka seperti Socure dan Mitek mengalami penurunan metrik pencegahan penipuan. CEO Socure Johnny Ayers menegaskan "ini sama sekali tidak benar" dan mengatakan model baru yang mereka luncurkan selama beberapa bulan terakhir telah menyebabkan peningkatan tangkapan dari 2% penipuan peniruan identitas paling berisiko sebesar 14%. Namun, dia mengakui bahwa beberapa pelanggan lambat dalam mengadopsi model baru Socure, yang dapat berdampak pada kinerja mereka. “Salah satu klien kami adalah salah satu dari tiga bank teratas di negara ini, dan mereka sekarang tertinggal empat versi,” kata Ayers.

Mitek menolak memberikan komentar khusus mengenai metrik kinerja modelnya yang anti penipuan, namun wakil presiden seniornya Chris Briggs mengatakan bahwa jika model tertentu dikembangkan 18 bulan yang lalu, "maka ya, Anda dapat berargumentasi bahwa model lama tidak sebaik model tersebut." mencegah penipuan sebagai model baru. Seiring waktu, Mitek akan terus melatih dan melatih ulang model tersebut menggunakan aliran data nyata serta data laboratorium.”

JPMorgan Chase, Bank of America, dan Wells Fargo menolak berkomentar mengenai tantangan yang mereka hadapi terkait penipuan AI generatif. Juru bicara Chime, bank digital terbesar di Amerika Serikat yang pernah mengalami masalah penipuan besar-besaran di masa lalu, mengatakan bank tersebut belum melihat peningkatan penipuan terkait kecerdasan buatan generatif.

Saat ini, penipuan keuangan berada di belakang para penjahat mulai dari penjahat tunggal hingga kelompok kompleks yang terdiri dari puluhan atau bahkan ratusan penjahat. Geng kriminal terbesar, seperti halnya perusahaan, memiliki struktur organisasi berlapis-lapis dan staf teknis senior termasuk ilmuwan data.

“Mereka semua mempunyai pusat komando dan kendali masing-masing,” kata Ranjan.Beberapa anggota geng bertanggung jawab untuk memberikan umpan – seperti mengirim email phishing atau melakukan panggilan telepon. Jika seseorang mengambil umpan, mereka akan menghubungkan kaki tangan lain dengan orang yang ditipu. Kaki tangan ini berpura-pura menjadi manajer cabang bank dan mencoba membuat Anda mentransfer uang dari rekening Anda. Langkah penting lainnya: Mereka sering meminta Anda menginstal program seperti Microsoft TeamViewer atau Citrix untuk mengontrol komputer Anda dari jarak jauh. “Mereka dapat membuat komputer Anda menjadi gelap gulita,” kata Ranjan. “Kemudian penipu akan melakukan lebih banyak transaksi (dengan uang Anda) dan menarik uang tersebut ke URL lain yang mereka kendalikan.” Penipu biasa menipu orang ( Trik umum, terutama di kalangan para lansia, adalah berbohong bahwa rekening pihak lain telah dikuasai oleh penipu dan diperlukan kerja sama pihak lain untuk mendapatkan kembali dana tersebut.

Strategi berbeda untuk OpenAI dan Meta

Proses penipuan di atas tidak selalu memerlukan penggunaan kecerdasan buatan, namun alat kecerdasan buatan dapat membuat taktik para penipu menjadi lebih efisien dan kredibel.

OpenAI telah mencoba memperkenalkan perlindungan untuk mencegah orang menggunakan ChatGPT untuk penipuan. Misalnya, jika pengguna meminta ChatGPT untuk membuat draf email yang meminta nomor rekening bank seseorang, ChatGPT akan menolak untuk menjalankan instruksi tersebut dan menjawab: "Maaf, tetapi saya tidak dapat membantu permintaan ini." Namun, menggunakan ChatGPT untuk melakukan penipuan Masih sangat mudah.

OpenAI menolak berkomentar untuk artikel ini, merujuk kami hanya pada postingan blog yang diterbitkan oleh perusahaan, salah satunya diterbitkan pada Maret 2022 dan berbunyi: “Tidak ada solusi terbaik untuk penerapan yang bertanggung jawab, jadi kami mencoba mengembangkan dan memahami keterbatasan dari model kami dan potensi penyalahgunaan, serta mengatasi masalah terkait di setiap tahap penerapan."

Dibandingkan dengan OpenAI, model bahasa besar Llama 2 yang diluncurkan oleh Meta lebih cenderung digunakan sebagai alat kriminal oleh penjahat berpengalaman karena Llama 2 adalah model sumber terbuka dan semua kode dapat dilihat dan digunakan. Para ahli mengatakan hal ini membuka lebih banyak jalan bagi penjahat untuk mengambil model tersebut untuk diri mereka sendiri dan kemudian menggunakannya untuk merusak keamanan jaringan. Misalnya, seseorang dapat membuat alat AI berbahaya di atasnya. Forbes meminta komentar Meta tetapi tidak mendapat tanggapan. CEO Meta Mark Zuckerberg mengatakan pada bulan Juli bahwa menjaga Llama open source akan meningkatkan “keselamatan dan keamanan karena perangkat lunak open source akan lebih diteliti dan lebih banyak orang dapat bekerja sama.” Temukan dan identifikasi solusi untuk masalah.”

Perusahaan pencegahan penipuan juga berusaha berinovasi lebih cepat untuk mengikuti kemajuan AI dan memanfaatkan lebih banyak tipe data baru untuk mengenali penipu. “Cara Anda mengetik, cara Anda berjalan, atau cara Anda memegang ponsel – ciri-ciri perilaku ini mendefinisikan Anda, namun data ini tidak dapat diakses dalam domain publik,” kata Ranjan. “Sulit untuk mengetahui secara online apakah seseorang siapa yang mereka katakan. Orang itu, AI yang tertanam akan memainkan peran besar." Dengan kata lain, kita membutuhkan AI untuk menangkap penjahat yang menggunakan AI untuk melakukan penipuan.

Lima tips untuk melindungi diri Anda dari penipuan AI:

Artikel ini diterjemahkan dari

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)