Yapay zeka, küresel telefon dolandırıcılığının bir sonraki "efendisi" mi olacak?

Orijinal: Jeff Kauflin, Emily Mason

Kaynak: Forbes

Orijinal başlık: "Yapay zeka finansal dolandırıcılığı nasıl körüklüyor ve onu daha görünmez hale getiriyor"

"Av" ve "Ya Hep Ya Hiç"ten geçen hafta yayınlanan "Papağan Öldürme"ye kadar, dolandırıcılıkla ilgili filmler Çin'in suç kontrolü için etkili bir propaganda yöntemi sağlıyor. Ancak yeni bir yapay zeka teknolojisi turunun yaygınlaşmasıyla birlikte gelecekteki zorluklar ortaya çıkacak. Muhtemelen daha şiddetli. Okyanusun diğer tarafındaki ABD için dolandırıcılığın önlenmesi, belirsizlik çağında Çin ile arasında yeni bir fikir birliğine dönüşebilir. Yalnızca 2020'de ABD anketleri, ABD'de 56 milyon kadar insanın, yani ABD nüfusunun yaklaşık altıda birinin telefon görüşmeleri yoluyla dolandırıldığını gösteriyor. Bunların arasında Amerikalıların %17'si birden fazla kez dolandırıldı.

Telekom dolandırıcılığı alanında, Çin için Myanmar ne ise ABD için de Hindistan odur. Ancak Hindistan'ın dolandırıcılık sektörünün gelişmesi için Myanmar'dan daha fazla zemine sahip olduğu açık. Bir yandan resmi dil olarak İngilizce Hindistan'da nispeten yüksek bir yaygınlığa sahip ve Hindistan'ın yetenekler açısından da "doğal bir avantajı" var; diğer yandan Hindistan büyük çokuluslu şirketler için denizaşırı bir platform haline geldi. 2000'den beri. Telefonla müşteri hizmetleri konusunda dış kaynak sağlayanlar, aynı vurguyla ancak farklı içerikle yeni telefon dolandırıcılıkları yaratıyor. Ancak yeni bir yapay zeka teknolojisi turuyla Hindistan'ın telefon dolandırıcılığı alanındaki "tahtı" değişebilir.

Üretken yapay zeka, gösterişli kısa mesajlardan ses kopyalamaya ve videolarda yüz değiştirmeye kadar dolandırıcılara güçlü ve yeni bir silah sunuyor.

"Bu mektup/mektup, Chase'in 2.000$'lık geri ödemenizin beklemede olduğunu bildirmek içindir. Süreci hızlandırmak ve geri ödemenizi olabildiğince çabuk almanızı sağlamak için lütfen şu talimatları izleyin: Lütfen Chase Müşteri Hizmetlerini 1-800-953-XXXX numaralı telefondan arayın. Geri ödemenizin durumunu kontrol edin. Lütfen hesap bilgilerinizi ve ilgili tüm bilgilerinizi hazır bulundurduğunuzdan emin olun..."

Chase ile iş yaptıysanız ve bu mesajı bir e-posta veya kısa mesaj olarak aldıysanız, muhtemelen bunun doğru olduğunu düşündünüz. Geçmişte sıklıkla aldığımız kimlik avı mesajlarını karakterize eden tuhaf ifadeler, kötü dilbilgisi veya tuhaf lakaplar olmadan, kulağa profesyonel geliyordu.

Mesaj, teknoloji devi OpenAI tarafından geçen yılın sonlarında piyasaya sürülen yapay zeka chatbotu ChatGPT tarafından oluşturulduğu için bu şaşırtıcı değil. Bir istem olarak, ChatGPT yazmamız yeterli: "Birine, Chase'in kendisine 2.000 $ geri ödeme borcu olduğunu söyleyen bir e-posta gönderin. Geri ödemeyi almak için 1-800-953-XXXX'i aramasını sağlayın. (ChatGPT'nin işbirliği yapması için, biz Tam sayıyı girmeniz gerekiyor, ancak elbette bunu burada yayınlamayacağız.)

San Francisco'daki dolandırıcılıkla mücadele girişimi Sardine'in kurucu ortağı ve CEO'su Soups Ranjan, "Dolandırıcılar artık tıpkı diğer anadili konuşanlar gibi mükemmel konuşuyor" dedi. Banka müşterilerinin "aldıkları kısa mesajlarda neredeyse hiçbir kusur bulunmadığı" için giderek daha fazla aldatıldığını doğruladı. (Kendinizin de kurban olmasını önlemek için bu makalenin sonundaki beş ipucuna bakın.)

Besledikleri bilgilere dayanarak içerik oluşturabilen üretken yapay zeka veya derin öğrenme modellerini memnuniyetle karşılayan bu yeni dünyada, kötü niyetli kişilerin metin, ses ve hatta video üretmesi artık her zamankinden daha kolay. Bu metinler, sesler ve hatta videolar potansiyel bireysel kurbanları yanıltmakla kalmıyor, aynı zamanda dolandırıcılığı engellemek için kullanılan programları da kandırabiliyor. Bu bakımdan yapay zekanın benzersiz bir tarafı yok; sonuçta kötü adamlar uzun zamandır yeni teknolojileri ilk benimseyen kişiler olmuş ve polis de onların peşinde. Örneğin, 1989'da Forbes, bankaların bu sahte banknotları tespit etmek için herhangi bir özel adım atmasına gerek kalmadan, hırsızların bankaları dolandırmak amacıyla çeklerde sahtecilik yapmak için sıradan bilgisayarları ve lazer yazıcıları nasıl kullandıklarını ortaya çıkardı.

Yapay zeka çevrimiçi dolandırıcılığın yükselişini körüklüyor

ABD'li tüketiciler, ABD Federal Ticaret Komisyonu'na (FTC), geçen yıl dolandırıcılık nedeniyle rekor düzeyde 8,8 milyar dolar kaybettiklerini bildirdi. Bu rakama bildirilmemiş çalıntı miktarlar dahil değil.

Bugün, üretken yapay zeka, sesli kimlik doğrulama ve hatta canlı avatarları kayıtlı avatarlarla eşleştirmek için tasarlanmış "etkinlik kontrolleri" (Canlılık Kontrolü) gibi günümüzün en gelişmiş dolandırıcılık önleme önlemlerini sonunda geçersiz kılabilecek bir tehdit oluşturuyor.

70 milyon aktif hesabıyla Amerika Birleşik Devletleri'ndeki en büyük kredi kartı veren kuruluşlardan biri olan Synchrony, bu eğilimi en sezgisel şekilde anlayan kişidir. Synchrony'nin kıdemli başkan yardımcısı Kenneth Williams, Forbes'a gönderdiği bir e-postada şunları söyledi: "Kimlik doğrulama için derin sahte görüntüler ve videolar kullanan kişileri sıklıkla görüyoruz ve bunların üretken yapay zeka kullanılarak oluşturulduğunu rahatlıkla varsayabiliriz."

New York merkezli siber firma Deep Instinct'in 650 siber güvenlik uzmanıyla Haziran 2023'te yaptığı bir anket, ankete katılan uzmanların dörtte üçünün geçen yıl çevrimiçi dolandırıcılıkta bir artış gördüğünü gösterdi. kötü aktörler tarafından üretken yapay zekanın etkisi."

Ayrıca ABD Federal Ticaret Komisyonu, ABD'li tüketicilerin dolandırıcılık nedeniyle 2022'de 8,8 milyar dolar kaybettiğini, bu rakamın 2021'e göre %40'tan fazla arttığını da bildirdi. Kaybedilen en büyük miktarlar genellikle yatırım dolandırıcılıklarından gelir, ancak sahtekarlık dolandırıcılıkları en yaygın olanıdır; bu, bu dolandırıcılıkların yapay zeka tarafından daha da geliştirilebileceği endişe verici bir işarettir.

Suçlular üretken yapay zekayı baş döndürücü çeşitli şekillerde kullanabilir. Düzenli olarak sosyal medyada veya herhangi bir ağda gönderi paylaşıyorsanız, bir yapay zeka modeline sizin tarzınızda yazmasını söyleyebilirler ve ardından büyükanne ve büyükbabanıza mesaj atıp size yardım etmeleri için size para göndermeleri için yalvarabilirler. Daha da korkutucu olan şey, eğer bir çocuğun kısa bir ses örneğine sahiplerse, çocuğun ebeveynlerini arayabilir, onların çocuğu gibi davranabilir ve kaçırılmış gibi davranarak ebeveynlerinden fidye ödemesini talep edebilirler. Arizona'da dört çocuk annesi olan Jennifer DeStefano'nun Haziran ayında Kongre önünde ifade vermesi sırasında başına gelen de tam olarak buydu.

Sadece ebeveynler ve büyükanne ve büyükbabalar değil, işletmeler de hedef alınıyor. Suçlular ayrıca satıcı gibi davranarak muhasebecilere, kontrol ettikleri bir banka hesabına ilişkin ödeme talimatlarının yanı sıra ödemeyi mümkün olan en kısa sürede almaları gerektiğini söyleyen meşru görünümlü e-postalar gönderebilir. Sardine'in CEO'su Ranjan, Sardine'in fintech startup müşterilerinin birçoğunun bizzat bu tuzaklara düştüğünü ve yüzbinlerce dolar kaybettiğini söyledi.

Bu, bir Japon şirketinin 2020 yılında bir şirket yöneticisinin sesinin kopyalanmasının ardından kaybettiği 35 milyon dolar ile karşılaştırıldığında sönük kalsa da (Forbes o dönemde ayrıntılı dolandırıcılığı ilk kez bildirmişti), artık giderek daha yaygın hale geliyor. Yazma, ses taklidi ve video işlemeye yönelik yapay zeka araçları hızla daha yetenekli ve sıradan dolandırıcılar için bile erişilebilir hale geldikçe bu vakalar daha sık hale geliyor ve aynı zamanda daha ucuz. Dolandırıcılık önleme şirketi Persona'nın kurucu ortağı ve CEO'su Rick Song, geçmişte yüksek kaliteli deepfake video oluşturmak için yüzlerce veya binlerce fotoğrafa ihtiyacınız olduğunu, ancak artık yalnızca birkaç fotoğrafa ihtiyacınız olduğunu söyledi. (Evet, gerçek bir video olmadan sahte bir video oluşturabilirsiniz, ancak tabii ki elinizde gerçek bir video varsa bu daha kolay olur.)

Tuzaklar ve Telefon Dolandırıcılıkları: Derin Ses Klonlamanın Tehlikeleri

Tıpkı diğer endüstrilerin yapay zekayı kendi işletmelerine uygulamaları gibi, dolandırıcılar da FraudGPT ve WormGPT gibi kullanıma hazır araçlar oluşturmak için teknoloji devleri tarafından piyasaya sürülen üretken yapay zeka modellerini kullanıyor.

Ocak ayında yayınlanan bir YouTube videosunda, dünyanın en zengin adamı Elon Musk, izleyicilerine en son kripto para birimi yatırım fırsatını tanıtıyor gibi göründü: Tesla'nın, katılımcılara iki kat daha fazla geri ödeme sözü veren 100 milyon dolar değerinde ücretsiz bir etkinliğe sponsor olduğunu iddia etti. Bitcoin, Ethereum, Dogecoin veya Ethereum gibi kripto para birimlerine yaptıkları yatırımlarda. Musk'ın düşük çözünürlüklü bir versiyonu sahnede şunları söyledi: "Herkesin ortak bir amaç için burada olduğunu biliyorum. Artık her kripto para sahibinin gelirini artırabileceği bir canlı yayına ev sahipliği yapıyoruz." "Evet, beni doğru duydunuz, SpaceX için büyük bir kripto para birimi etkinliğine ev sahipliği yapıyorum."

Evet, bu video bir deepfake - Dolandırıcı, SpaceX'in yeniden kullanılabilir uzay aracı projesiyle ilgili Şubat 2022'deki konuşmasını kendi imajını ve sesini taklit etmek için kullandı. YouTube o zamandan beri videoyu yayından kaldırdı ancak o zamana kadar videodaki adrese kripto para birimi gönderen herkesin cüzdanlarının hasar görmesi neredeyse muhtemeldir. Musk, sahte videoların ana hedefi çünkü yapay zeka ses klonlamasını desteklemek için çevrimiçi olarak ona ait sayısız ses örneği mevcut ancak artık neredeyse herkesin kimliğine bürünülebiliyor.

Bu yılın başlarında, Güney Florida'da bir huzurevinde yaşayan 93 yaşındaki Larry Leonard, karısı sabit hattından bir telefon görüşmesine cevap verdiğinde evdeydi. Bir dakika sonra telefonu Leonard'a verdi ve Leonard karşı taraftan 27 yaşındaki torununun sesine benzeyen, kamyonuyla bir kadına çarptığını ve hapse girdiğini söyleyen bir ses duydu. Leonard, arayan kişinin kendisine torununun tercih ettiği şekilde "Büyükbaba" yerine "Büyükbaba" dediğini fark etse de, adamın sesi tam olarak torununun sesine benziyordu ve torununun aslında bir kamyon kullandığı gerçeği vardı. şüpheleri bir kenara bırakıldı. Leonard torununun ailesini arayacağını söylediğinde arayan kişi telefonu kapattı. Leonard çok geçmeden torununun güvende olduğunu ve tüm hikayenin ve bunu anlatan sesin yanlış olduğunu öğrenir.

Leonard, Forbes'a şunları söyledi: "Sesini, tonunu ve tonunu bu kadar doğru bir şekilde yakalayabilmeleri benim için hem korkutucu hem de şaşırtıcıydı." "Cümleleri veya kelimeleri arasında hiçbir duraklama yoktu, bu da şunu gösteriyor: Kelimeler okunuyor bir makineden ya da programdan geliyor ama tıpkı gerçeğine benziyorlar.”

Yaşlılar genellikle bu tür dolandırıcılıkların hedefi oluyor, ancak her birimizin, komşumuz gibi tanıdık görünen bir numaradan gelse bile gelen çağrılara karşı dikkatli olmamızın zamanı geldi. AARP dolandırıcılık önleme programlarının yöneticisi Kathy Stokes, "Dolandırıcı [telefon numarasını] dolandırdığı için aldığımız çağrılara giderek daha fazla güvenemiyoruz" diye yakınıyor. )." AARP neredeyse bir lobicilik ve hizmet sağlayıcısıdır. 50 yaş ve üzeri 38 milyon üye. "Aldığımız e-postalara, aldığımız kısa mesajlara güvenemeyiz. Dolayısıyla birbirimizle iletişim kurmanın tipik yollarından dışlanıyoruz."

Bir başka kaygı verici gelişme ise yeni güvenlik önlemlerinin bile tehdit altında olmasıdır. Örneğin 50 milyondan fazla yatırımcıya hizmet veren yatırım fonu devi Vanguard Group gibi büyük finans kuruluşları, müşterilerine güvenlik sorularına cevap vermek yerine belirli hizmetleri telefonda konuşarak alma seçeneği sunuyor. "Sesiniz parmak izleriniz gibi benzersizdir."

Vanguard, Kasım 2021'de yayınladığı bir videoda müşterileri sesli doğrulamaya kaydolmaya çağırdığını açıkladı. Ancak ses klonlama teknolojisindeki ilerlemeler, şirketlerin uygulamayı yeniden düşünmesi gerektiğini gösteriyor. Sardine'den Ranjan, bazı kişilerin bankalara başarıyla kimlik doğrulamak ve hesaplara erişim sağlamak için ses klonlama teknolojisini kullandığını gördüğünü söyledi. Vanguard'ın bir sözcüsü, şirketin ses klonlama teknolojisinin ilerlemesini önlemek için hangi adımları atabileceği konusunda yorum yapmaktan kaçındı.

Fatura ödemek veya para aktarmak için resmi olmayan prosedürleri kullanan küçük işletmeler (ve hatta büyük işletmeler) de kötü aktörlere karşı savunmasızdır. Dolandırıcıların tedarikçilerden geliyormuş gibi görünen sahte faturaları e-postayla göndererek ödeme talep etmesi uzun zamandır yaygın bir durum.

Artık yaygın olarak bulunan yapay zeka araçlarından yararlanan dolandırıcılar, şirket çalışanlarını aramak, işlemleri yetkilendiriyormuş gibi yapmak veya çalışanlardan hassas verileri "kimlik avı" veya "sesli kimlik avı" yazılımlarında açıklamalarını istemek için yönetici seslerinin klonlanmış versiyonlarını kullanabilir. Persona CEO'su Rick Song, bunu "ses açısından en büyük korkusu" olarak nitelendirerek, "Yöneticileri taklit etmek ve yüksek değerde dolandırıcılık yapmak söz konusu olduğunda, bu çok büyük ve çok gerçek bir tehdit" dedi.

Yapay zeka dolandırıcılık uzmanlarını kandırabilir mi?

Dolandırıcılık uzmanları ve teknoloji şirketleri günümüzün dijital ağırlıklı finansal sisteminde silahlı muhafızlar ve para çekme araçları gibi hareket etseler de, suçlular dolandırıcılık uzmanlarını kandırmak için üretken yapay zekayı giderek daha fazla kullanıyor.

Bu şirketlerin temel işlevlerinden biri, finansal kurumları ve müşterilerini kayıplardan korumak için tüketicilerin kimliğini doğrulamaktır. Socure, Mitek ve Onfido gibi dolandırıcılık önleme şirketlerinin müşterilerin kimliklerini doğrulama yollarından biri "canlılık kontrolleri"dir; yani sizden bir selfie fotoğrafı veya videosu çekmenizi ve ardından bu fotoğrafı veya video klibi yüzünüze uyacak şekilde kullanmanızı isterler. Eşleştirme için kimlik kartı resminin gönderilmesi gerekmektedir.

Sistemin nasıl çalıştığını öğrendikten sonra hırsızlar, karanlık ağdan gerçek sürücü ehliyetlerinin fotoğraflarını satın alır ve daha sonra video yüz değiştirme programlarını (giderek daha ucuz ve daha erişilebilir hale gelen araçlar) kullanırlar. Başka birinin gerçek hayattaki avatarı kendi yüzüne eklenir. . Daha sonra konuşabiliyor ve başlarını başka birinin dijital yüzünün arkasına doğru hareket ettirebiliyorlar, bu da etkinlik kontrollerini yanıltma şanslarını artırıyor.

Song, "Yapay zeka tarafından oluşturulan ve yüksek kalitede sahte yüzlerin sayısında önemli bir artış oldu ve ayrıca etkinlik kontrollerini hedef alan otomatik olarak oluşturulan dolandırıcılık saldırılarında da bir büyüme oldu" dedi. sektör bazında, ancak bazıları için "geçen yıl gördüklerimizin muhtemelen on katını görüyoruz." Fintech ve kripto para şirketleri bu tür saldırılara karşı özellikle savunmasız.

Dolandırıcılıkla mücadele uzmanları Forbes'a, Socure ve Mitek gibi yüksek profilli kimlik doğrulama sağlayıcılarının bunun sonucunda dolandırıcılık önleme ölçümlerinin düştüğünden şüphelendiklerini söyledi. Socure CEO'su Johnny Ayers, "bunun kesinlikle doğru olmadığı" konusunda ısrar ediyor ve son birkaç ayda piyasaya sürdükleri yeni modellerin, en riskli %2'lik dilimdeki kimlik taklitçiliği dolandırıcılığı %14'lük dilimin yakalanmasında artışa yol açtığını söylüyor. Ancak bazı müşterilerin Socure'un yeni modellerini benimsemekte yavaş davrandığını ve bunun da performanslarını etkileyebileceğini kabul etti. Ayers, "Müşterilerimizden biri ülkedeki en büyük üç bankadan biri ve şu anda dört versiyon gerideler" dedi.

Mitek, modellerinin dolandırıcılığa dayanıklı performans ölçümleri hakkında özel olarak yorum yapmaktan kaçındı ancak kıdemli başkan yardımcısı Chris Briggs, eğer belirli bir model 18 ay önce geliştirildiyse "o zaman evet, eski modelin performans ölçütleri konusunda o kadar iyi olmadığını iddia edebilirsiniz" dedi. Yeni model olarak sahtekarlığın önlenmesi. Mitek, zamanla modeli gerçek hayattaki veri akışlarının yanı sıra laboratuvar verilerini kullanarak eğitmeye ve yeniden eğitmeye devam edecek."

JPMorgan Chase, Bank of America ve Wells Fargo, üretken yapay zeka dolandırıcılığı konusunda karşılaştıkları zorluklar hakkında yorum yapmaktan kaçındı. Geçmişte büyük dolandırıcılık sorunları yaşayan ABD'nin en büyük dijital bankası Chime'ın sözcüsü, bankanın üretken yapay zekayla ilgili dolandırıcılıkta henüz bir artış görmediğini söyledi.

Bugün, yalnız suçlulardan düzinelerce, hatta yüzlerce suçludan oluşan karmaşık çetelere kadar çeşitli suçluların arkasında mali dolandırıcılık var. Şirketler gibi en büyük suç çeteleri de çok katmanlı organizasyon yapılarına ve veri bilimcileri de içeren üst düzey teknik personele sahiptir.

Ranjan, "Hepsinin kendi komuta ve kontrol merkezleri var" dedi. Bazı çete üyeleri, kimlik avı e-postaları göndermek veya telefon görüşmeleri yapmak gibi yemleri dağıtmaktan sorumlu. Birisi yemi yutarsa, dolandırılan kişiyle başka bir suç ortağını temasa geçiriyorlar.Bu suç ortağı, banka şube müdürü gibi davranarak, hesabınızdan para aktarmanızı sağlamaya çalışıyor. Bir başka önemli adım: Bilgisayarınızı uzaktan kontrol etmek için sıklıkla Microsoft TeamViewer veya Citrix gibi bir program yüklemenizi isteyeceklerdir. Ranjan, "Bilgisayarınızı tamamen karartabilirler" dedi. "Sonra dolandırıcı (paranızla) daha fazla işlem yapacak ve parayı kontrol ettikleri başka bir URL'ye çekecek." Dolandırıcılar, insanları dolandırmak için kullanırlar ( Özellikle aralarında yaygın bir hile) Yaşlılar, karşı tarafın hesabının dolandırıcı tarafından kontrol edildiğine ve parayı geri almak için karşı tarafın işbirliğine ihtiyaç duyulduğuna dair yalan söylemektir.

OpenAI ve Meta için farklı stratejiler

Yukarıdaki dolandırıcılık süreci mutlaka yapay zeka kullanımını gerektirmez ancak yapay zeka araçları dolandırıcıların taktiklerini daha verimli ve güvenilir hale getirebilir.

OpenAI, insanların ChatGPT'yi dolandırıcılık amacıyla kullanmasını önlemek için korumalar sunmaya çalıştı. Örneğin, bir kullanıcı ChatGPT'den birisinin banka hesap numarasını isteyen bir e-posta taslağı hazırlamasını isterse, ChatGPT talimatı uygulamayı reddedecek ve şu yanıtı verecektir: "Üzgünüm ama bu isteğe yardımcı olamam." Ancak ChatGPT'yi kullanmak dolandırıcılık yapmak Hala çok kolay.

OpenAI bu makale hakkında yorum yapmayı reddetti ve bize yalnızca şirket tarafından yayınlanan ve bunlardan biri Mart 2022'de yayınlanan blog gönderilerine atıfta bulundu ve şu ifadeleri kullandı: "Sorumlu dağıtım için sihirli bir çözüm yoktur, bu nedenle sınırlamaları geliştirmeye ve anlamaya çalışıyoruz. Modelimiz ve olası kötüye kullanım yolları üzerinde çalışıyoruz ve dağıtımın her aşamasında ilgili sorunları ele alıyoruz."

OpenAI ile karşılaştırıldığında, Meta tarafından başlatılan büyük dil modeli Llama 2'nin deneyimli suçlular tarafından bir suç aracı olarak kullanılma olasılığı daha yüksektir çünkü Llama 2 açık kaynaklı bir modeldir ve tüm kodlar görüntülenip kullanılabilir. Uzmanlar, bunun suçlulara modeli kendileri için almaları ve daha sonra bunu ağ güvenliğini zayıflatmak için kullanmaları için daha fazla yol açtığını söylüyor. Örneğin, bunun üzerine kötü amaçlı yapay zeka araçları oluşturulabilir. Forbes, Meta'dan yorum yapmasını istedi ancak bir yanıt alamadı. Meta CEO'su Mark Zuckerberg Temmuz ayında Llama'yı açık kaynak olarak tutmanın "güvenlik ve güvenliği artıracağını, çünkü açık kaynak yazılımın daha fazla inceleneceğini ve daha fazla insanın birlikte çalışabileceğini" söyledi. Sorunlara çözüm bulun ve tanımlayın."

Dolandırıcılığı önleme şirketleri de yapay zekadaki gelişmelere ayak uydurmak ve dolandırıcıları tespit etmek için yeni veri türlerinden daha fazla yararlanmak için daha hızlı yenilik yapmaya çalışıyor. Ranjan, "Yazma şekliniz, yürüme şekliniz veya telefonunuzu tutma şekliniz - bu davranışsal özellikler sizi tanımlar, ancak bu verilere kamuya açık olarak erişilemez" dedi. "Bir kişinin çevrimiçi olup olmadığını söylemek zordur. Kim olduklarını söylüyorlar. Bu kişi, yerleşik yapay zeka büyük bir rol oynayacak." Başka bir deyişle, dolandırıcılık yapmak için yapay zekayı kullanan suçluları yakalamak için yapay zekaya ihtiyacımız var.

Kendinizi AI sahtekarlığından korumak için beş ipucu:

Bu makale şuradan tercüme edilmiştir:

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)