Оригінальна назва: «Як штучний інтелект сприяє фінансовому шахрайству та робить його непомітним»
Від «Полювання» та «Все або нічого» до «Вбивства папуг», випущених минулого тижня, пов’язані з шахрайством фільми є ефективним методом пропаганди для боротьби зі злочинністю в Китаї. Однак із популяризацією нового етапу технології штучного інтелекту майбутні виклики Мабуть, серйозніше. Для Сполучених Штатів по той бік океану боротьба з шахрайством може стати ще одним новим консенсусом між ними та Китаєм в епоху невизначеності. Лише у 2020 році опитування в США показують, що 56 мільйонів людей у Сполучених Штатах були ошукані телефонними дзвінками, що становить приблизно одну шосту населення США. Серед них 17% американців зазнавали обману більше одного разу.
У сфері телекомунікаційного шахрайства Індія для Сполучених Штатів — це те ж саме, що М’янма для Китаю. Але очевидно, що в Індії більше грунту для розвитку індустрії шахрайства, ніж у М’янмі. З одного боку, англійська як офіційна мова має відносно високий рівень проникнення в Індію, і Індія також має «природну перевагу» з точки зору талантів; з іншого боку, Індія стала закордонним майданчиком для великих транснаціональних компаній з 2000 року. Аутсорсери телефонного обслуговування клієнтів створюють нові телефонні шахрайства з тим самим акцентом, але іншим змістом. Але з новим витком технології ШІ «трон» Індії в області телефонного шахрайства може бути замінений.
Від елегантних текстових повідомлень до клонування голосів і зміни облич у відео – генеративний штучний інтелект дає шахраям нову потужну зброю.
«Цим листом/листом потрібно повідомити вам, що Chase очікує на повернення ваших 2000 доларів США. Щоб пришвидшити процес і гарантувати, що ви отримаєте відшкодування якнайшвидше, дотримуйтесь цих інструкцій: зателефонуйте в службу підтримки клієнтів Chase 1-800-953-XXXX за номером перевірте статус вашого відшкодування. Будь ласка, переконайтеся, що інформація вашого облікового запису та будь-яка відповідна інформація готові..."
Якщо ви співпрацювали з Chase і отримали це повідомлення електронною поштою чи текстовим повідомленням, ви, ймовірно, думали, що це правда. Це звучало професійно, без дивних фраз, поганої граматики чи дивних епітетів, які характеризували фішингові повідомлення, які ми часто отримували в минулому.
Це не дивно, оскільки повідомлення було створено ChatGPT, чат-ботом зі штучним інтелектом, випущеним технологічним гігантом OpenAI наприкінці минулого року. У якості підказки ми просто вводимо ChatGPT: «Надішліть комусь електронний лист із повідомленням, що Чейз винен повернути йому 2000 доларів США. Нехай він зателефонує за номером 1-800-953-XXXX, щоб отримати відшкодування. (Щоб змусити ChatGPT працювати, ми повинні введіть повне число, але, очевидно, ми не будемо публікувати його тут.)
«Шахраї тепер говорять ідеально, як і будь-які інші носії мови», — сказав Супс Ранджан, співзасновник і генеральний директор Sardine, стартапу, що займається боротьбою з шахрайством у Сан-Франциско.Цифровий банк США попросив залишитися анонімним. підтвердив, що клієнтів банків обманюють все частіше, тому що «в текстових повідомленнях, які вони отримують, майже немає недоліків». (Щоб не стати жертвою, перегляньте п’ять порад у кінці цієї статті.)
У цьому новому світі, який вітає генеративний штучний інтелект або моделі глибокого навчання, які можуть створювати контент на основі отриманої інформації, тим, хто має підлі наміри, тепер простіше, ніж будь-коли, створювати текст, аудіо та навіть відео. Ці тексти, аудіо та навіть відео можуть не тільки ввести в оману потенційних окремих жертв, вони також можуть обдурити програми, які зараз використовуються для запобігання шахрайству. У цьому відношенні немає нічого унікального в штучному інтелекті — зрештою, погані хлопці вже давно були першими запроваджувачами нових технологій, а поліція ганялася за ними. Наприклад, ще в 1989 році Forbes викрив, як злодії використовували звичайні комп’ютери та лазерні принтери для підробки чеків, щоб обдурити банки, не вживаючи банками жодних спеціальних заходів для виявлення цих фальшивих купюр.
ШІ сприяє зростанню онлайн-шахрайства
Американські споживачі повідомили Федеральній торговій комісії США (FTC), що минулого року вони втратили через шахрайство рекордні 8,8 мільярда доларів США — і це не включає незаявлені суми вкрадених.
Сьогодні генеративний штучний інтелект становить загрозу, яка з часом може зробити застарілими найсучасніші засоби запобігання шахрайству, такі як автентифікація голосу та навіть «перевірки активності», призначені для зіставлення живих аватарів із записаними аватарами (Liveness Check).
Synchrony, один із найбільших емітентів кредитних карток у Сполучених Штатах із 70 мільйонами активних облікових записів, має найбільш інтуїтивне розуміння цієї тенденції. Кеннет Вільямс, старший віце-президент Synchrony, сказав в електронному листі Forbes: «Ми часто бачимо, як люди використовують зображення та відео deepfake для автентифікації, і ми можемо з упевненістю припустити, що вони створені за допомогою генеративного штучного інтелекту».
Опитування 650 експертів з кібербезпеки, проведене нью-йоркською кіберкомпанією Deep Instinct у червні 2023 року, показало, що три чверті опитаних експертів помітили зростання онлайн-шахрайства за останній рік, причому «85% респондентів пояснюють це зростання використанням генеративного ШІ поганими акторами».
Крім того, Федеральна торгова комісія США також повідомила, що споживачі США втратили 8,8 мільярда доларів через шахрайство у 2022 році, що на понад 40% більше, ніж у 2021 році. Найбільші втрачені суми часто походять від інвестиційного шахрайства, але шахрайство з самозванцями є найпоширенішим, що є зловісною ознакою, оскільки ці шахрайства, ймовірно, будуть ще більше посилені штучним інтелектом.
Злочинці можуть використовувати генеративний ШІ запаморочливою різноманітністю способів. Якщо ви регулярно публікуєте публікації в соціальних мережах або будь-якій іншій мережі, вони можуть сказати моделі ШІ писати у вашому стилі, а потім вони можуть написати вашим бабусям і дідусям і благати їх надіслати вам гроші, щоб допомогти вам. Ще страшніше те, що якщо у них є короткий зразок голосу дитини, вони можуть зателефонувати батькам дитини, прикинутися їхньою дитиною та вдавати, що їх викрали, вимагаючи від батьків заплатити викуп. Саме це сталося з Дженніфер ДеСтефано, матір'ю чотирьох дітей з Арізони, коли вона давала свідчення перед Конгресом у червні.
Це не лише батьки, бабусі та дідусі, але й бізнес. Злочинці також можуть видавати себе за продавців і надсилати бухгалтерам легітимні електронні листи, в яких повідомляють, що їм потрібно якнайшвидше отримати платіж разом із платіжними інструкціями для банківського рахунку, який вони контролюють. Ранджан, генеральний директор Sardine, сказав, що багато клієнтів фінтех-стартапів Sardine самі потрапили в ці пастки та втратили сотні тисяч доларів.
Хоча ця сума блідне в порівнянні з 35 мільйонами доларів, які японська компанія втратила у 2020 році після клонування голосу директора компанії (Forbes уперше повідомив про складну аферу в той час), тепер це стає все більш поширеним. Цей попередній випадок був лише тизером для подібних випадки, які стають все більш частими, оскільки інструменти штучного інтелекту для письма, імітації голосу та обробки відео стрімко стають більш потужними та доступними навіть для звичайних шахраїв. Це також дешевше. Рік Сонг, співзасновник і генеральний директор компанії Persona із запобігання шахрайству, сказав, що раніше вам потрібні були сотні чи тисячі фотографій, щоб створити високоякісне глибоке фейкове відео, а тепер вам потрібно лише кілька фотографій. Зробіть це. (Так, ви можете зробити підроблене відео без справжнього відео, але, очевидно, легше, якщо у вас є справжнє відео.)
Пастки та телефонне шахрайство: небезпека клонування глибокого звуку
Подібно до того, як інші галузі застосовують ШІ у своєму бізнесі, шахраї використовують генеративні моделі ШІ, випущені технологічними гігантами, для створення готових інструментів, таких як FraudGPT і WormGPT.
У відео на YouTube, опублікованому в січні, Ілон Маск, найбагатша людина світу, здається, рекламував своїй аудиторії нову можливість інвестування криптовалюти: Tesla спонсорувала безкоштовний захід на суму 100 мільйонів доларів, як він стверджував. , який обіцяє повернути учасникам удвічі більше. на їхні інвестиції в такі криптовалюти, як Bitcoin, Ethereum, Dogecoin або Ethereum. «Я знаю, що всі тут зі спільною метою. Зараз ми проводимо пряму трансляцію, під час якої кожен власник криптовалюти може збільшити свій дохід», — сказав Маск на сцені у версії з низькою роздільною здатністю. «Так, ви мене правильно почули, я організовую велику криптовалютну подію для SpaceX».
Так, це відео є діпфейком – шахрай використав свою промову в лютому 2022 року про проект багаторазового космічного корабля SpaceX, щоб імітувати його зображення та голос. Відтоді YouTube видалив відео, але до того часу кожен, хто надсилав криптовалюту на адресу, указану у відео, майже напевно постраждає від гаманців. Маск є основною мішенню для фальшивих відео, оскільки в Інтернеті є незліченна кількість його аудіо-зразків для підтримки голосового клонування штучним інтелектом, але тепер майже будь-хто може видати себе за іншу особу.
На початку цього року Ларрі Леонард, 93-річний чоловік, який жив у селищі для пенсіонерів у Південній Флориді, був удома, коли його дружина відповіла на телефонний дзвінок зі стаціонарного телефону. Через хвилину вона передала слухавку Леонарду, і він почув на іншому кінці голос, схожий на голос його 27-річного онука, який сказав, що він збив жінку своєю вантажівкою і перебуває у в'язниці. Хоча Леонард помітив, що той, хто дзвонив, називав його «дідусем», а не «дідусем», як воліє називати його онук, голос чоловіка був точно таким же, як і його онук, і був факт, що його онук насправді керував вантажівкою. його сумніви вбік. Коли Леонард відповів, що збирається зателефонувати батькам онука, той, хто телефонував, поклав трубку. Незабаром Леонард дізнається, що його онук у безпеці і що вся історія - і голос, який її розповідає - неправдиві.
«Той факт, що вони змогли так точно вловити його голос, його тон і інтонацію, був для мене водночас жахаючим і дивовижним, — сказав Леонард Forbes. — Між їхніми реченнями чи словами не було пауз, що свідчить про те, що слова читаються. з машини чи програми, але вони звучать як справжні».
Люди похилого віку часто стають мішенню для таких типів шахрайства, але настав час кожному з нас бути обережним щодо вхідних дзвінків, навіть якщо вони надходять із номеру, який виглядає знайомим, наприклад, від сусіда. «Ми все більше й більше не можемо довіряти дзвінкам, які отримуємо, тому що шахрай підмінив [телефонний номер]», — нарікає Кеті Стокс, директор програм із запобігання шахрайству в AARP. ). 38 мільйонів учасників віком від 50 років. «Ми не можемо довіряти електронним листам, які отримуємо, ми не можемо довіряти текстовим повідомленням, які отримуємо. Тому ми виключені з типових способів спілкування один з одним».
В іншому зловісному розвитку подій під загрозою навіть нові заходи безпеки. Наприклад, такі великі фінансові установи, як гігант взаємних фондів Vanguard Group, який обслуговує понад 50 мільйонів інвесторів, пропонують клієнтам можливість отримувати певні послуги, розмовляючи по телефону, замість того, щоб відповідати на секретні запитання. «Твій голос унікальний, як і відбитки пальців».
Vanguard пояснив у відео від листопада 2021 року, закликаючи клієнтів зареєструватися для голосової перевірки. Але прогрес у технології клонування голосу говорить про те, що компаніям потрібно переглянути цю практику. Ранджан із Sardine сказав, що він бачив, як деякі люди використовують технологію клонування голосу, щоб успішно ідентифікувати себе в банках і отримати доступ до рахунків. Представник Vanguard відмовився коментувати, які кроки компанія може вжити, щоб запобігти розвитку технології клонування голосу.
Малі підприємства (і навіть великі підприємства), які використовують неофіційні процедури для оплати рахунків або переказу грошей, також вразливі для зловмисників. Уже давно шахраї зазвичай вимагають оплату, надсилаючи електронною поштою підроблені рахунки-фактури, видані постачальниками.
Тепер, використовуючи широкодоступні інструменти штучного інтелекту, шахраї можуть використовувати клоновані версії голосів керівників, щоб дзвонити співробітникам компанії, вдаючи, що авторизують транзакції, або просити співробітників розкрити конфіденційні дані в програмному забезпеченні для «фішингу» або «голосового фішингу». «Коли справа доходить до видавання себе за керівників і вчинення шахрайства з великою вартістю, це величезна і дуже реальна загроза», — сказав генеральний директор Persona Рік Сонг, який назвав це своїм «найбільшим страхом з точки зору голосу».
Чи може ШІ обдурити експертів з шахрайства?
Злочинці все частіше використовують генеративний штучний інтелект, щоб обдурити експертів з шахрайства, навіть якщо ці експерти з шахрайства та технологічні компанії діють як озброєні охоронці та фургони з готівкою в сучасній цифровій фінансовій системі.
Однією з основних функцій цих компаній є перевірка особистості споживачів, щоб захистити фінансові установи та їхніх клієнтів від збитків. Одним із способів, якими компанії із запобігання шахрайству, як-от Socure, Mitek і Onfido, перевіряють особистість клієнтів, є «перевірка життєдіяльності», тобто вони просять вас зробити фотографію або відео для селфі, а потім використати фотографію чи відеоролик відповідно до вашого обличчя Зображення ідентифікаційної картки потрібно надіслати для зіставлення.
Дізнавшись, як працює система, злодії купують фотографії справжніх водійських прав у дарк-мережі, а потім використовують відеопрограми для заміни обличчя — інструменти, які стають дешевшими та доступнішими — щоб чужий справжній аватар накладався на їхнє обличчя. . Потім вони можуть говорити та рухати головою позаду чужого цифрового обличчя, збільшуючи свої шанси обдурити перевірки активності.
«Відмічається значне зростання кількості підроблених облич, які генеруються штучним інтелектом і є високоякісними, а також спостерігається зростання автоматично створених атак шахрайства, націлених на перевірку активності», — сказав Сонг. Він сказав, що шахрайство. за галузями, але для деяких «ми, ймовірно, бачимо в десять разів більше, ніж ми бачили минулого року.» Фінтех-компанії та криптовалютні компанії особливо вразливі до таких атак.
Експерти з боротьби з шахрайством повідомили Forbes, що вони підозрюють, що внаслідок цього впали показники запобігання шахрайству у високопоставлених постачальників послуг перевірки особи, таких як Socure та Mitek. Генеральний директор Socure Джонні Айерс наполягає на тому, що «це абсолютна неправда», і каже, що нові моделі, які вони запровадили протягом останніх кількох місяців, призвели до збільшення випадків 2% найризикованіших випадків шахрайства з видаванням себе за особу на 14%. Однак він визнав, що деякі клієнти повільно приймають нові моделі Socure, що може вплинути на їх продуктивність. «Один із наших клієнтів входить до трійки найкращих банків країни, і зараз вони відстають на чотири версії», — сказав Айерс.
Компанія Mitek відмовилася конкретно коментувати показники стійкості до шахрайства своїх моделей, але її старший віце-президент Кріс Бріггс сказав, що якщо конкретна модель була розроблена 18 місяців тому, «тоді так, можна стверджувати, що стара модель не така хороша в запобігання шахрайству в якості нової моделі. З часом Mitek продовжуватиме навчати та перенавчати модель, використовуючи реальні потоки даних, а також дані лабораторії».
JPMorgan Chase, Bank of America та Wells Fargo відмовилися коментувати проблеми, з якими вони стикаються у зв’язку з генеративним шахрайством зі штучним інтелектом. Представник Chime, найбільшого цифрового банку в Сполучених Штатах, який у минулому стикався з серйозними проблемами шахрайства, сказав, що в банку ще не спостерігається зростання шахрайства, пов’язаного з генеративним штучним інтелектом.
Сьогодні фінансові шахрайства стоять за різними злочинцями, починаючи від злочинців-одинаків і закінчуючи складними бандами з десятків або навіть сотень злочинців. Найбільші злочинні угруповання, як і компанії, мають багаторівневі організаційні структури та старший технічний персонал, у тому числі науковців з обробки даних.
«Вони всі мають власні центри командування та контролю», — сказав Ранджан.Деякі члени банди відповідають за розведення наживки, наприклад, надсилання фішингових електронних листів або здійснення телефонних дзвінків. Якщо хтось потрапляє на вудку, він зв’язує з ошуканим іншого спільника, який представляється керівником відділення банку і намагається змусити вас перевести гроші з вашого рахунку. Ще один важливий крок: вони часто просять вас встановити програму на кшталт Microsoft TeamViewer або Citrix для дистанційного керування комп’ютером. "Вони можуть зробити ваш комп'ютер повністю чорним, - сказав Ранджан. - Тоді шахрай зробить більше транзакцій (з вашими грошима) і виведе гроші на іншу URL-адресу, яку вони контролюють". Шахраї використовують, щоб обдурити людей (поширений трюк, особливо серед людям похилого віку, це брехня про те, що обліковий запис іншої сторони контролювався шахраєм і що для повернення коштів потрібна співпраця іншої сторони.
Різні стратегії для OpenAI і Meta
Наведений вище процес шахрайства не обов’язково потребує використання штучного інтелекту, але інструменти штучного інтелекту можуть зробити тактику шахраїв ефективнішою та надійнішою.
OpenAI спробував запровадити захист, щоб люди не використовували ChatGPT для шахрайства. Наприклад, якщо користувач просить ChatGPT написати електронний лист із запитом на номер чийогось банківського рахунку, ChatGPT відмовиться виконати інструкцію та відповість: «Вибачте, але я не можу допомогти з цим запитом». Однак використання ChatGPT вчинити шахрайство Все ще дуже легко.
OpenAI відмовився коментувати цю статтю, посилаючись лише на опубліковані компанією публікації в блозі, одна з яких була опублікована в березні 2022 року та говорить: «Немає жодного засобу для відповідального розгортання, тому ми намагаємося розробити та зрозуміти обмеження нашу модель і потенційні шляхи зловживань, а також вирішувати пов’язані з цим проблеми на кожному етапі розгортання».
Порівняно з OpenAI, велика мовна модель Llama 2, запущена Meta, швидше за все, буде використана як злочинний інструмент досвідченими злочинцями, оскільки Llama 2 є моделлю з відкритим кодом, і всі коди можна переглядати та використовувати. Експерти кажуть, що це відкриває більше можливостей для злочинців взяти модель для себе, а потім використовувати її для підриву безпеки мережі. Наприклад, на його основі можна створити шкідливі інструменти ШІ. Forbes звернувся до Мети за коментарем, але не отримав відповіді. У липні генеральний директор Meta Марк Цукерберг заявив, що збереження відкритого вихідного коду Llama підвищить її «безпеку та безпеку, оскільки програмне забезпечення з відкритим кодом буде більш ретельно перевірятися, і більше людей зможуть працювати разом». Знайдіть і визначте рішення проблем».
Компанії, які займаються запобіганням шахрайству, також намагаються швидше впроваджувати інновації, щоб не відставати від прогресу ШІ та ширше використовувати нові типи даних для виявлення шахраїв. «Те, як ви друкуєте, як ви ходите або як ви тримаєте телефон — ці риси поведінки визначають вас, але ці дані недоступні у відкритому доступі», — сказав Ранджан. «В Інтернеті важко визначити, чи є людина ким вони себе видають. Ця особа, вбудований штучний інтелект відіграватиме велику роль". Іншими словами, нам потрібен штучний інтелект, щоб ловити злочинців, які використовують ШІ для шахрайства.
П’ять порад, як захистити себе від шахрайства зі штучним інтелектом:
Ця стаття перекладена з
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Чи стане ШІ наступним «володарем» глобального телефонного шахрайства?
Оригінал: Джефф Кауфлін, Емілі Мейсон
Джерело: Forbes
Оригінальна назва: «Як штучний інтелект сприяє фінансовому шахрайству та робить його непомітним»
Від «Полювання» та «Все або нічого» до «Вбивства папуг», випущених минулого тижня, пов’язані з шахрайством фільми є ефективним методом пропаганди для боротьби зі злочинністю в Китаї. Однак із популяризацією нового етапу технології штучного інтелекту майбутні виклики Мабуть, серйозніше. Для Сполучених Штатів по той бік океану боротьба з шахрайством може стати ще одним новим консенсусом між ними та Китаєм в епоху невизначеності. Лише у 2020 році опитування в США показують, що 56 мільйонів людей у Сполучених Штатах були ошукані телефонними дзвінками, що становить приблизно одну шосту населення США. Серед них 17% американців зазнавали обману більше одного разу.
У сфері телекомунікаційного шахрайства Індія для Сполучених Штатів — це те ж саме, що М’янма для Китаю. Але очевидно, що в Індії більше грунту для розвитку індустрії шахрайства, ніж у М’янмі. З одного боку, англійська як офіційна мова має відносно високий рівень проникнення в Індію, і Індія також має «природну перевагу» з точки зору талантів; з іншого боку, Індія стала закордонним майданчиком для великих транснаціональних компаній з 2000 року. Аутсорсери телефонного обслуговування клієнтів створюють нові телефонні шахрайства з тим самим акцентом, але іншим змістом. Але з новим витком технології ШІ «трон» Індії в області телефонного шахрайства може бути замінений.
Від елегантних текстових повідомлень до клонування голосів і зміни облич у відео – генеративний штучний інтелект дає шахраям нову потужну зброю.
«Цим листом/листом потрібно повідомити вам, що Chase очікує на повернення ваших 2000 доларів США. Щоб пришвидшити процес і гарантувати, що ви отримаєте відшкодування якнайшвидше, дотримуйтесь цих інструкцій: зателефонуйте в службу підтримки клієнтів Chase 1-800-953-XXXX за номером перевірте статус вашого відшкодування. Будь ласка, переконайтеся, що інформація вашого облікового запису та будь-яка відповідна інформація готові..."
Якщо ви співпрацювали з Chase і отримали це повідомлення електронною поштою чи текстовим повідомленням, ви, ймовірно, думали, що це правда. Це звучало професійно, без дивних фраз, поганої граматики чи дивних епітетів, які характеризували фішингові повідомлення, які ми часто отримували в минулому.
Це не дивно, оскільки повідомлення було створено ChatGPT, чат-ботом зі штучним інтелектом, випущеним технологічним гігантом OpenAI наприкінці минулого року. У якості підказки ми просто вводимо ChatGPT: «Надішліть комусь електронний лист із повідомленням, що Чейз винен повернути йому 2000 доларів США. Нехай він зателефонує за номером 1-800-953-XXXX, щоб отримати відшкодування. (Щоб змусити ChatGPT працювати, ми повинні введіть повне число, але, очевидно, ми не будемо публікувати його тут.)
«Шахраї тепер говорять ідеально, як і будь-які інші носії мови», — сказав Супс Ранджан, співзасновник і генеральний директор Sardine, стартапу, що займається боротьбою з шахрайством у Сан-Франциско.Цифровий банк США попросив залишитися анонімним. підтвердив, що клієнтів банків обманюють все частіше, тому що «в текстових повідомленнях, які вони отримують, майже немає недоліків». (Щоб не стати жертвою, перегляньте п’ять порад у кінці цієї статті.)
У цьому новому світі, який вітає генеративний штучний інтелект або моделі глибокого навчання, які можуть створювати контент на основі отриманої інформації, тим, хто має підлі наміри, тепер простіше, ніж будь-коли, створювати текст, аудіо та навіть відео. Ці тексти, аудіо та навіть відео можуть не тільки ввести в оману потенційних окремих жертв, вони також можуть обдурити програми, які зараз використовуються для запобігання шахрайству. У цьому відношенні немає нічого унікального в штучному інтелекті — зрештою, погані хлопці вже давно були першими запроваджувачами нових технологій, а поліція ганялася за ними. Наприклад, ще в 1989 році Forbes викрив, як злодії використовували звичайні комп’ютери та лазерні принтери для підробки чеків, щоб обдурити банки, не вживаючи банками жодних спеціальних заходів для виявлення цих фальшивих купюр.
ШІ сприяє зростанню онлайн-шахрайства
Сьогодні генеративний штучний інтелект становить загрозу, яка з часом може зробити застарілими найсучасніші засоби запобігання шахрайству, такі як автентифікація голосу та навіть «перевірки активності», призначені для зіставлення живих аватарів із записаними аватарами (Liveness Check).
Synchrony, один із найбільших емітентів кредитних карток у Сполучених Штатах із 70 мільйонами активних облікових записів, має найбільш інтуїтивне розуміння цієї тенденції. Кеннет Вільямс, старший віце-президент Synchrony, сказав в електронному листі Forbes: «Ми часто бачимо, як люди використовують зображення та відео deepfake для автентифікації, і ми можемо з упевненістю припустити, що вони створені за допомогою генеративного штучного інтелекту».
Опитування 650 експертів з кібербезпеки, проведене нью-йоркською кіберкомпанією Deep Instinct у червні 2023 року, показало, що три чверті опитаних експертів помітили зростання онлайн-шахрайства за останній рік, причому «85% респондентів пояснюють це зростання використанням генеративного ШІ поганими акторами».
Крім того, Федеральна торгова комісія США також повідомила, що споживачі США втратили 8,8 мільярда доларів через шахрайство у 2022 році, що на понад 40% більше, ніж у 2021 році. Найбільші втрачені суми часто походять від інвестиційного шахрайства, але шахрайство з самозванцями є найпоширенішим, що є зловісною ознакою, оскільки ці шахрайства, ймовірно, будуть ще більше посилені штучним інтелектом.
Злочинці можуть використовувати генеративний ШІ запаморочливою різноманітністю способів. Якщо ви регулярно публікуєте публікації в соціальних мережах або будь-якій іншій мережі, вони можуть сказати моделі ШІ писати у вашому стилі, а потім вони можуть написати вашим бабусям і дідусям і благати їх надіслати вам гроші, щоб допомогти вам. Ще страшніше те, що якщо у них є короткий зразок голосу дитини, вони можуть зателефонувати батькам дитини, прикинутися їхньою дитиною та вдавати, що їх викрали, вимагаючи від батьків заплатити викуп. Саме це сталося з Дженніфер ДеСтефано, матір'ю чотирьох дітей з Арізони, коли вона давала свідчення перед Конгресом у червні.
Це не лише батьки, бабусі та дідусі, але й бізнес. Злочинці також можуть видавати себе за продавців і надсилати бухгалтерам легітимні електронні листи, в яких повідомляють, що їм потрібно якнайшвидше отримати платіж разом із платіжними інструкціями для банківського рахунку, який вони контролюють. Ранджан, генеральний директор Sardine, сказав, що багато клієнтів фінтех-стартапів Sardine самі потрапили в ці пастки та втратили сотні тисяч доларів.
Хоча ця сума блідне в порівнянні з 35 мільйонами доларів, які японська компанія втратила у 2020 році після клонування голосу директора компанії (Forbes уперше повідомив про складну аферу в той час), тепер це стає все більш поширеним. Цей попередній випадок був лише тизером для подібних випадки, які стають все більш частими, оскільки інструменти штучного інтелекту для письма, імітації голосу та обробки відео стрімко стають більш потужними та доступними навіть для звичайних шахраїв. Це також дешевше. Рік Сонг, співзасновник і генеральний директор компанії Persona із запобігання шахрайству, сказав, що раніше вам потрібні були сотні чи тисячі фотографій, щоб створити високоякісне глибоке фейкове відео, а тепер вам потрібно лише кілька фотографій. Зробіть це. (Так, ви можете зробити підроблене відео без справжнього відео, але, очевидно, легше, якщо у вас є справжнє відео.)
Пастки та телефонне шахрайство: небезпека клонування глибокого звуку
Подібно до того, як інші галузі застосовують ШІ у своєму бізнесі, шахраї використовують генеративні моделі ШІ, випущені технологічними гігантами, для створення готових інструментів, таких як FraudGPT і WormGPT.
У відео на YouTube, опублікованому в січні, Ілон Маск, найбагатша людина світу, здається, рекламував своїй аудиторії нову можливість інвестування криптовалюти: Tesla спонсорувала безкоштовний захід на суму 100 мільйонів доларів, як він стверджував. , який обіцяє повернути учасникам удвічі більше. на їхні інвестиції в такі криптовалюти, як Bitcoin, Ethereum, Dogecoin або Ethereum. «Я знаю, що всі тут зі спільною метою. Зараз ми проводимо пряму трансляцію, під час якої кожен власник криптовалюти може збільшити свій дохід», — сказав Маск на сцені у версії з низькою роздільною здатністю. «Так, ви мене правильно почули, я організовую велику криптовалютну подію для SpaceX».
Так, це відео є діпфейком – шахрай використав свою промову в лютому 2022 року про проект багаторазового космічного корабля SpaceX, щоб імітувати його зображення та голос. Відтоді YouTube видалив відео, але до того часу кожен, хто надсилав криптовалюту на адресу, указану у відео, майже напевно постраждає від гаманців. Маск є основною мішенню для фальшивих відео, оскільки в Інтернеті є незліченна кількість його аудіо-зразків для підтримки голосового клонування штучним інтелектом, але тепер майже будь-хто може видати себе за іншу особу.
На початку цього року Ларрі Леонард, 93-річний чоловік, який жив у селищі для пенсіонерів у Південній Флориді, був удома, коли його дружина відповіла на телефонний дзвінок зі стаціонарного телефону. Через хвилину вона передала слухавку Леонарду, і він почув на іншому кінці голос, схожий на голос його 27-річного онука, який сказав, що він збив жінку своєю вантажівкою і перебуває у в'язниці. Хоча Леонард помітив, що той, хто дзвонив, називав його «дідусем», а не «дідусем», як воліє називати його онук, голос чоловіка був точно таким же, як і його онук, і був факт, що його онук насправді керував вантажівкою. його сумніви вбік. Коли Леонард відповів, що збирається зателефонувати батькам онука, той, хто телефонував, поклав трубку. Незабаром Леонард дізнається, що його онук у безпеці і що вся історія - і голос, який її розповідає - неправдиві.
«Той факт, що вони змогли так точно вловити його голос, його тон і інтонацію, був для мене водночас жахаючим і дивовижним, — сказав Леонард Forbes. — Між їхніми реченнями чи словами не було пауз, що свідчить про те, що слова читаються. з машини чи програми, але вони звучать як справжні».
Люди похилого віку часто стають мішенню для таких типів шахрайства, але настав час кожному з нас бути обережним щодо вхідних дзвінків, навіть якщо вони надходять із номеру, який виглядає знайомим, наприклад, від сусіда. «Ми все більше й більше не можемо довіряти дзвінкам, які отримуємо, тому що шахрай підмінив [телефонний номер]», — нарікає Кеті Стокс, директор програм із запобігання шахрайству в AARP. ). 38 мільйонів учасників віком від 50 років. «Ми не можемо довіряти електронним листам, які отримуємо, ми не можемо довіряти текстовим повідомленням, які отримуємо. Тому ми виключені з типових способів спілкування один з одним».
В іншому зловісному розвитку подій під загрозою навіть нові заходи безпеки. Наприклад, такі великі фінансові установи, як гігант взаємних фондів Vanguard Group, який обслуговує понад 50 мільйонів інвесторів, пропонують клієнтам можливість отримувати певні послуги, розмовляючи по телефону, замість того, щоб відповідати на секретні запитання. «Твій голос унікальний, як і відбитки пальців».
Vanguard пояснив у відео від листопада 2021 року, закликаючи клієнтів зареєструватися для голосової перевірки. Але прогрес у технології клонування голосу говорить про те, що компаніям потрібно переглянути цю практику. Ранджан із Sardine сказав, що він бачив, як деякі люди використовують технологію клонування голосу, щоб успішно ідентифікувати себе в банках і отримати доступ до рахунків. Представник Vanguard відмовився коментувати, які кроки компанія може вжити, щоб запобігти розвитку технології клонування голосу.
Малі підприємства (і навіть великі підприємства), які використовують неофіційні процедури для оплати рахунків або переказу грошей, також вразливі для зловмисників. Уже давно шахраї зазвичай вимагають оплату, надсилаючи електронною поштою підроблені рахунки-фактури, видані постачальниками.
Тепер, використовуючи широкодоступні інструменти штучного інтелекту, шахраї можуть використовувати клоновані версії голосів керівників, щоб дзвонити співробітникам компанії, вдаючи, що авторизують транзакції, або просити співробітників розкрити конфіденційні дані в програмному забезпеченні для «фішингу» або «голосового фішингу». «Коли справа доходить до видавання себе за керівників і вчинення шахрайства з великою вартістю, це величезна і дуже реальна загроза», — сказав генеральний директор Persona Рік Сонг, який назвав це своїм «найбільшим страхом з точки зору голосу».
Чи може ШІ обдурити експертів з шахрайства?
Злочинці все частіше використовують генеративний штучний інтелект, щоб обдурити експертів з шахрайства, навіть якщо ці експерти з шахрайства та технологічні компанії діють як озброєні охоронці та фургони з готівкою в сучасній цифровій фінансовій системі.
Однією з основних функцій цих компаній є перевірка особистості споживачів, щоб захистити фінансові установи та їхніх клієнтів від збитків. Одним із способів, якими компанії із запобігання шахрайству, як-от Socure, Mitek і Onfido, перевіряють особистість клієнтів, є «перевірка життєдіяльності», тобто вони просять вас зробити фотографію або відео для селфі, а потім використати фотографію чи відеоролик відповідно до вашого обличчя Зображення ідентифікаційної картки потрібно надіслати для зіставлення.
Дізнавшись, як працює система, злодії купують фотографії справжніх водійських прав у дарк-мережі, а потім використовують відеопрограми для заміни обличчя — інструменти, які стають дешевшими та доступнішими — щоб чужий справжній аватар накладався на їхнє обличчя. . Потім вони можуть говорити та рухати головою позаду чужого цифрового обличчя, збільшуючи свої шанси обдурити перевірки активності.
«Відмічається значне зростання кількості підроблених облич, які генеруються штучним інтелектом і є високоякісними, а також спостерігається зростання автоматично створених атак шахрайства, націлених на перевірку активності», — сказав Сонг. Він сказав, що шахрайство. за галузями, але для деяких «ми, ймовірно, бачимо в десять разів більше, ніж ми бачили минулого року.» Фінтех-компанії та криптовалютні компанії особливо вразливі до таких атак.
Експерти з боротьби з шахрайством повідомили Forbes, що вони підозрюють, що внаслідок цього впали показники запобігання шахрайству у високопоставлених постачальників послуг перевірки особи, таких як Socure та Mitek. Генеральний директор Socure Джонні Айерс наполягає на тому, що «це абсолютна неправда», і каже, що нові моделі, які вони запровадили протягом останніх кількох місяців, призвели до збільшення випадків 2% найризикованіших випадків шахрайства з видаванням себе за особу на 14%. Однак він визнав, що деякі клієнти повільно приймають нові моделі Socure, що може вплинути на їх продуктивність. «Один із наших клієнтів входить до трійки найкращих банків країни, і зараз вони відстають на чотири версії», — сказав Айерс.
Компанія Mitek відмовилася конкретно коментувати показники стійкості до шахрайства своїх моделей, але її старший віце-президент Кріс Бріггс сказав, що якщо конкретна модель була розроблена 18 місяців тому, «тоді так, можна стверджувати, що стара модель не така хороша в запобігання шахрайству в якості нової моделі. З часом Mitek продовжуватиме навчати та перенавчати модель, використовуючи реальні потоки даних, а також дані лабораторії».
JPMorgan Chase, Bank of America та Wells Fargo відмовилися коментувати проблеми, з якими вони стикаються у зв’язку з генеративним шахрайством зі штучним інтелектом. Представник Chime, найбільшого цифрового банку в Сполучених Штатах, який у минулому стикався з серйозними проблемами шахрайства, сказав, що в банку ще не спостерігається зростання шахрайства, пов’язаного з генеративним штучним інтелектом.
Сьогодні фінансові шахрайства стоять за різними злочинцями, починаючи від злочинців-одинаків і закінчуючи складними бандами з десятків або навіть сотень злочинців. Найбільші злочинні угруповання, як і компанії, мають багаторівневі організаційні структури та старший технічний персонал, у тому числі науковців з обробки даних.
«Вони всі мають власні центри командування та контролю», — сказав Ранджан.Деякі члени банди відповідають за розведення наживки, наприклад, надсилання фішингових електронних листів або здійснення телефонних дзвінків. Якщо хтось потрапляє на вудку, він зв’язує з ошуканим іншого спільника, який представляється керівником відділення банку і намагається змусити вас перевести гроші з вашого рахунку. Ще один важливий крок: вони часто просять вас встановити програму на кшталт Microsoft TeamViewer або Citrix для дистанційного керування комп’ютером. "Вони можуть зробити ваш комп'ютер повністю чорним, - сказав Ранджан. - Тоді шахрай зробить більше транзакцій (з вашими грошима) і виведе гроші на іншу URL-адресу, яку вони контролюють". Шахраї використовують, щоб обдурити людей (поширений трюк, особливо серед людям похилого віку, це брехня про те, що обліковий запис іншої сторони контролювався шахраєм і що для повернення коштів потрібна співпраця іншої сторони.
Різні стратегії для OpenAI і Meta
Наведений вище процес шахрайства не обов’язково потребує використання штучного інтелекту, але інструменти штучного інтелекту можуть зробити тактику шахраїв ефективнішою та надійнішою.
OpenAI спробував запровадити захист, щоб люди не використовували ChatGPT для шахрайства. Наприклад, якщо користувач просить ChatGPT написати електронний лист із запитом на номер чийогось банківського рахунку, ChatGPT відмовиться виконати інструкцію та відповість: «Вибачте, але я не можу допомогти з цим запитом». Однак використання ChatGPT вчинити шахрайство Все ще дуже легко.
OpenAI відмовився коментувати цю статтю, посилаючись лише на опубліковані компанією публікації в блозі, одна з яких була опублікована в березні 2022 року та говорить: «Немає жодного засобу для відповідального розгортання, тому ми намагаємося розробити та зрозуміти обмеження нашу модель і потенційні шляхи зловживань, а також вирішувати пов’язані з цим проблеми на кожному етапі розгортання».
Порівняно з OpenAI, велика мовна модель Llama 2, запущена Meta, швидше за все, буде використана як злочинний інструмент досвідченими злочинцями, оскільки Llama 2 є моделлю з відкритим кодом, і всі коди можна переглядати та використовувати. Експерти кажуть, що це відкриває більше можливостей для злочинців взяти модель для себе, а потім використовувати її для підриву безпеки мережі. Наприклад, на його основі можна створити шкідливі інструменти ШІ. Forbes звернувся до Мети за коментарем, але не отримав відповіді. У липні генеральний директор Meta Марк Цукерберг заявив, що збереження відкритого вихідного коду Llama підвищить її «безпеку та безпеку, оскільки програмне забезпечення з відкритим кодом буде більш ретельно перевірятися, і більше людей зможуть працювати разом». Знайдіть і визначте рішення проблем».
Компанії, які займаються запобіганням шахрайству, також намагаються швидше впроваджувати інновації, щоб не відставати від прогресу ШІ та ширше використовувати нові типи даних для виявлення шахраїв. «Те, як ви друкуєте, як ви ходите або як ви тримаєте телефон — ці риси поведінки визначають вас, але ці дані недоступні у відкритому доступі», — сказав Ранджан. «В Інтернеті важко визначити, чи є людина ким вони себе видають. Ця особа, вбудований штучний інтелект відіграватиме велику роль". Іншими словами, нам потрібен штучний інтелект, щоб ловити злочинців, які використовують ШІ для шахрайства.
П’ять порад, як захистити себе від шахрайства зі штучним інтелектом: