Станет ли ИИ следующим «повелителем» глобального телефонного мошенничества?

Оригинал: Джефф Кауфлин, Эмили Мейсон

Источник: Форбс

Оригинальное название: «Как искусственный интеллект способствует финансовому мошенничеству и делает его более незаметным»

От «Охоты» и «Все или ничего» до «Убийства попугаев», вышедшего на прошлой неделе, фильмы о мошенничестве служат эффективным методом пропаганды в борьбе с преступностью в Китае. Наверное, более сурово. Для Соединенных Штатов по другую сторону океана борьба с мошенничеством может стать еще одним новым консенсусом между ними и Китаем в эпоху неопределенности. Только в 2020 году опросы США показывают, что около 56 миллионов человек в Соединенных Штатах были обмануты с помощью телефонных звонков, что составляет примерно одну шестую населения США.

В сфере мошенничества в сфере телекоммуникаций Индия для США является тем же, чем Мьянма для Китая. Но очевидно, что в Индии больше почвы для развития индустрии мошенничества, чем в Мьянме. С одной стороны, английский как официальный язык имеет относительно высокий уровень проникновения в Индию, и Индия также имеет «естественное преимущество» с точки зрения талантов; с другой стороны, Индия стала зарубежной платформой для крупных транснациональных компаний. с 2000 года. Аутсорсеры по обслуживанию телефонных клиентов создают новые телефонные мошенничества с тем же акцентом, но другим содержанием. Но с новым витком технологий искусственного интеллекта «трон» Индии в сфере телефонного мошенничества может быть заменен.

От изящных текстовых сообщений до клонирования голосов и замены лиц в видео — генеративный искусственный интеллект дает мошенникам новое мощное оружие.

«Это письмо/письмо информирует вас о том, что Chase ожидает возврата 2000 долларов США. Чтобы ускорить процесс и гарантировать, что вы получите возмещение как можно быстрее, следуйте этим инструкциям: Позвоните в службу поддержки клиентов Chase по номеру 1-800-953-XXXX, чтобы проверьте статус вашего возврата. Обязательно подготовьте информацию о своей учетной записи и всю соответствующую информацию..."

Если вы имели дело с Chase и получили это сообщение по электронной почте или в текстовом сообщении, вы, вероятно, подумали, что это правда. Это звучало профессионально, без странных формулировок, плохой грамматики или странных эпитетов, которые характеризовали фишинговые сообщения, которые мы часто получали в прошлом.

Это неудивительно, поскольку сообщение было создано ChatGPT, чат-ботом с искусственным интеллектом, выпущенным технологическим гигантом OpenAI в конце прошлого года. В качестве приглашения мы просто набираем ChatGPT: «Отправьте кому-нибудь электронное письмо с сообщением, что Чейз должен ему возмещение в размере 2000 долларов США. Попросите его позвонить по номеру 1-800-953-XXXX, чтобы получить возмещение. (Чтобы заставить ChatGPT работать, нам нужно введите полное число, но, очевидно, мы не будем публиковать его здесь.)

"Мошенники теперь говорят прекрасно, как и любой другой носитель языка", - сказал Соупс Ранджан, соучредитель и генеральный директор Sardine, стартапа по борьбе с мошенничеством в Сан-Франциско. Американский цифровой банк попросил об анонимности. Директор банка по борьбе с мошенничеством также подтвердил, что клиентов банков обманывают все чаще, поскольку «получаемые ими текстовые сообщения почти не имеют недостатков». (Чтобы самому не стать жертвой, прочтите пять советов в конце этой статьи.)

В этом новом мире, который приветствует генеративный искусственный интеллект или модели глубокого обучения, которые могут создавать контент на основе предоставленной им информации, теперь тем, у кого гнусные намерения, стало проще, чем когда-либо, создавать текст, аудио и даже видео. Все проще. Эти тексты, аудио и даже видео могут не только обмануть потенциальных жертв, но и обмануть программы, которые сейчас используются для предотвращения мошенничества. В этом отношении в ИИ нет ничего уникального — в конце концов, злодеи уже давно стали первыми, кто внедрил новые технологии, а полиция гоняется за ними. Например, еще в 1989 году Forbes разоблачил, как воры использовали обычные компьютеры и лазерные принтеры для подделки чеков с целью обмана банков, при этом банки не предпринимали никаких специальных мер для обнаружения этих фальшивых банкнот.

ИИ способствует росту онлайн-мошенничества

Американские потребители сообщили Федеральной торговой комиссии США (FTC), что в прошлом году они потеряли рекордные 8,8 миллиарда долларов из-за мошенничества, и это не включает в себя незарегистрированные украденные суммы.

Сегодня генеративный искусственный интеллект представляет угрозу, которая в конечном итоге может сделать устаревшими самые передовые меры по предотвращению мошенничества, такие как голосовая аутентификация и даже «проверки активности», предназначенные для сопоставления живых аватаров с записанными аватарами (Liveness Check).

Synchrony, один из крупнейших эмитентов кредитных карт в США с 70 миллионами активных счетов, лучше всего понимает эту тенденцию. Кеннет Уильямс, старший вице-президент Synchrony, написал в электронном письме Forbes: «Мы часто видим, как люди используют дипфейковые изображения и видео для аутентификации, и мы можем с уверенностью предположить, что они созданы с использованием генеративного искусственного интеллекта».

Опрос 650 экспертов по кибербезопасности, проведенный нью-йоркской киберфирмой Deep Instinct в июне 2023 года, показал, что три четверти опрошенных экспертов отметили рост онлайн-мошенничества за последний год, при этом «85% респондентов связывают этот рост с использованием генеративного ИИ со стороны плохих актеров».

Кроме того, Федеральная торговая комиссия США также сообщила, что американские потребители потеряли 8,8 миллиарда долларов из-за мошенничества в 2022 году, что более чем на 40% больше, чем в 2021 году. Наибольшие потери часто происходят в результате инвестиционного мошенничества, но наиболее распространенными являются мошенничества самозванцев, что является зловещим знаком, поскольку эти мошенничества, вероятно, будут еще более усилены искусственным интеллектом.

Преступники могут использовать генеративный искусственный интеллект ошеломляющим разнообразием способов. Если вы регулярно публикуете сообщения в социальных сетях или любой другой сети, они могут попросить модель ИИ писать в вашем стиле, а затем написать вашим бабушке и дедушке и попросить их прислать вам деньги, чтобы помочь вам. Что еще страшнее, так это то, что, если у них есть краткий образец голоса ребенка, они могут позвонить родителям ребенка, притвориться их ребенком и притвориться, что его похитили, потребовав от родителей заплатить выкуп. Именно это произошло с Дженнифер ДеСтефано, матерью четверых детей из Аризоны, когда она давала показания перед Конгрессом в июне.

Нападению подвергаются не только родители, бабушки и дедушки, но и предприятия. Преступники также могут выдавать себя за продавцов и отправлять бухгалтерам вполне законные электронные письма, в которых говорится, что им необходимо как можно скорее получить платеж, а также инструкции по оплате для банковского счета, который они контролируют. Ранджан, генеральный директор Sardine, сказал, что многие из клиентов финтех-стартапов Sardine сами попали в эти ловушки и потеряли сотни тысяч долларов.

Хотя это меркнет по сравнению с 35 миллионами долларов, которые японская компания потеряла в 2020 году после клонирования голоса директора компании (в то время Forbes впервые сообщил о тщательно продуманной афере), сейчас это становится все более распространенным явлением. случаи становятся все более частыми, поскольку инструменты искусственного интеллекта для письма, имитации голоса и обработки видео быстро становятся все более функциональными и доступными даже для обычных мошенников, а также дешевле. Рик Сонг, соучредитель и генеральный директор компании по предотвращению мошенничества Persona, сказал, что раньше для создания высококачественного дипфейкового видео требовались сотни или тысячи фотографий, но теперь вам нужно всего несколько фотографий. (Да, вы можете сделать фейковое видео без настоящего видео, но, очевидно, проще, если у вас есть настоящее видео.)

Ловушки и телефонное мошенничество: опасности глубокого клонирования звука

Подобно тому, как другие отрасли применяют ИИ в своем бизнесе, мошенники используют генеративные модели ИИ, выпущенные технологическими гигантами, для создания готовых инструментов, таких как FraudGPT и WormGPT.

В видеоролике на YouTube, опубликованном в январе, Илон Маск, самый богатый человек в мире, по-видимому, рекламировал своей аудитории новейшую возможность инвестирования в криптовалюту: Tesla спонсировала бесплатное мероприятие стоимостью 100 миллионов долларов, заявил он. , которое обещает вернуть участникам вдвое больше. об их инвестициях в криптовалюты, такие как Биткойн, Ethereum, Dogecoin или Ethereum. «Я знаю, что все здесь ради общей цели. Сейчас мы проводим прямую трансляцию, где каждый владелец криптовалюты может увеличить свой доход», — сказал на сцене версия Маска с низким разрешением. «Да, вы меня правильно поняли, я провожу большое мероприятие по криптовалюте для SpaceX».

Да, это видео — дипфейк: мошенник использовал свою речь в феврале 2022 года о проекте многоразового космического корабля SpaceX для имитации своего образа и голоса. С тех пор YouTube удалил видео, но до тех пор кошельки любого, кто отправил криптовалюту по адресу, указанному в видео, почти наверняка будут повреждены. Маск — главная мишень для фейковых видеороликов, поскольку в Интернете доступно бесчисленное количество его аудиозаписей, поддерживающих клонирование голоса ИИ, но теперь выдать себя за любого можно практически за любого.

Ранее в этом году Ларри Леонард, 93-летний мужчина, живший в доме престарелых в Южной Флориде, был дома, когда его жена ответила на телефонный звонок по стационарному телефону. Минуту спустя она передала трубку Леонарду, и он услышал на другом конце провода голос, похожий на голос его 27-летнего внука, который говорил, что сбил женщину своим грузовиком и находится в тюрьме. Хотя Леонард заметил, что звонивший называл его «дедушкой», а не «дедушкой», как предпочитает называть его внук, голос этого человека был точно таким же, как у его внука, и был тот факт, что его внук на самом деле водил грузовик. его сомнения в сторону. Когда Леонард ответил, что собирается позвонить родителям внука, звонивший повесил трубку. Вскоре Леонард узнает, что его внук в безопасности и что вся история — и голос, рассказывающий ее, — ложь.

"Тот факт, что им удалось так точно уловить его голос, его интонацию и тон, был для меня одновременно ужасающим и удивительным, - рассказал Леонард Forbes. - Между их предложениями и словами не было пауз, что показывает, что слова читаются". из машины или программы, но звучат как настоящие».

Пожилые люди часто становятся жертвами такого рода мошенничества, но каждому из нас пора опасаться входящих звонков, даже если они поступают с номера, который выглядит знакомым – например, соседским. «Мы все больше и больше не можем доверять получаемым звонкам, потому что мошенник подделал [номер телефона]», — сетует Кэти Стоукс, директор программ по предотвращению мошенничества в AARP.)». 38 миллионов участников в возрасте 50 лет и старше. «Мы не можем доверять получаемым электронным письмам, мы не можем доверять получаемым текстовым сообщениям. Поэтому мы исключены из типичных способов общения друг с другом».

Еще одно зловещее событие: даже новые меры безопасности оказались под угрозой. Например, крупные финансовые учреждения, такие как гигант взаимных фондов Vanguard Group, который обслуживает более 50 миллионов инвесторов, предлагают клиентам возможность получать определенные услуги, разговаривая по телефону, а не отвечая на контрольные вопросы. «Ваш голос уникален, как ваши отпечатки пальцев».

Vanguard объяснил в видео от ноября 2021 года, призывая клиентов подписаться на голосовую проверку. Но достижения в области технологии клонирования голоса предполагают, что компаниям необходимо переосмыслить эту практику. Ранджан из Sardine сказал, что он видел, как некоторые люди использовали технологию клонирования голоса, чтобы успешно аутентифицировать себя в банках и получить доступ к счетам. Представитель Vanguard отказался комментировать, какие шаги компания может предпринять, чтобы предотвратить развитие технологии клонирования голоса.

Малые предприятия (и даже крупные предприятия), которые используют неформальные процедуры для оплаты счетов или перевода денег, также уязвимы для злоумышленников. Мошенники уже давно стали обычным явлением требовать оплату, отправляя по электронной почте поддельные счета-фактуры, которые кажутся выставленными поставщиками.

Теперь, используя широко доступные инструменты искусственного интеллекта, мошенники могут использовать клонированные версии голосов руководителей, чтобы звонить сотрудникам компании, симулируя авторизацию транзакций, или просить сотрудников раскрыть конфиденциальные данные с помощью программного обеспечения для «фишинга» или «голосового фишинга». «Когда дело доходит до выдачи себя за руководителей и мошенничества на крупные суммы, это огромная и очень реальная угроза», — сказал генеральный директор Persona Рик Сонг, назвав это своим «самым большим страхом с точки зрения голоса».

Может ли ИИ обмануть экспертов по мошенничеству?

Преступники все чаще используют генеративный искусственный интеллект, чтобы обмануть экспертов по мошенничеству, даже несмотря на то, что эти эксперты по мошенничеству и технологические компании выступают в роли вооруженных охранников и инкассаторов в сегодняшней цифровой финансовой системе.

Одной из основных функций этих компаний является проверка личности потребителей для защиты финансовых учреждений и их клиентов от потерь. Один из способов, с помощью которых компании по предотвращению мошенничества, такие как Socure, Mitek и Onfido, проверяют личность клиентов, — это «проверка активности», то есть они просят вас сделать селфи-фото или видео, а затем использовать фото или видеоклип, соответствующий вашему лицу. для вашего. Для сопоставления необходимо предоставить изображение удостоверения личности.

Узнав, как работает система, воры покупают фотографии реальных водительских прав в даркнете, а затем используют видеопрограммы для замены лиц — инструменты, которые становятся дешевле и доступнее — для того, чтобы чужой реальный аватар накладывался на их собственное лицо. . Затем они могут говорить и скрывать чужое цифровое лицо, увеличивая свои шансы обмануть проверки активности.

"Произошло значительное увеличение количества фейковых лиц, которые создаются искусственным интеллектом и имеют высокое качество, а также наблюдается рост автоматически генерируемых мошеннических атак, направленных на проверку активности", - сказал Сун. Он отметил, что уровень мошенничества варьируется. по отраслям, но для некоторых «мы, возможно, увидим в десять раз больше, чем видели в прошлом году». Финтех-компании и криптовалютные компании особенно уязвимы для таких атак.

Эксперты по борьбе с мошенничеством сообщили Forbes, что они подозревают, что у таких известных поставщиков услуг проверки личности, как Socure и Mitek, в результате снизились показатели предотвращения мошенничества. Генеральный директор Socure Джонни Айерс настаивает, что «это абсолютно неправда», и говорит, что новые модели, которые они внедрили за последние несколько месяцев, привели к увеличению случаев выявления 2% наиболее рискованных случаев мошенничества с выдачей личных данных (14%). Однако он признал, что некоторые клиенты не спешат внедрять новые модели Socure, что может повлиять на их производительность. «Один из наших клиентов входит в тройку крупнейших банков страны, и сейчас они отстают на четыре версии», — сказал Айерс.

Mitek отказалась конкретно комментировать показатели производительности своих моделей, защищенные от мошенничества, но ее старший вице-президент Крис Бриггс сказал, что если конкретная модель была разработана 18 месяцев назад, «тогда да. Можно возразить, что старая модель не так хороша». В качестве новой модели будет предотвращено мошенничество. Со временем Mitek продолжит обучать и переобучать модель, используя потоки реальных данных, а также лабораторные данные».

JPMorgan Chase, Bank of America и Wells Fargo отказались комментировать проблемы, с которыми они сталкиваются в связи с мошенничеством с генеративным искусственным интеллектом. Представитель Chime, крупнейшего цифрового банка в США, который в прошлом сталкивался с серьезными проблемами мошенничества, заявил, что банк еще не заметил роста мошенничества, связанного с генеративным искусственным интеллектом.

Сегодня финансовое мошенничество стоит за преступниками, начиная от преступников-одиночек и заканчивая сложными бандами, насчитывающими десятки и даже сотни преступников. Крупнейшие преступные группировки, как и компании, имеют многоуровневую организационную структуру и старший технический персонал, включая специалистов по обработке данных.

"У всех есть свои собственные центры управления и контроля", - сказал Ранджан. Некоторые члены банд несут ответственность за распространение приманки - например, рассылку фишинговых писем или телефонные звонки. Если кто-то клюнул на удочку, то к обманутому подводят другого сообщника, который выдает себя за менеджера отделения банка и пытается добиться от вас перевода денег со счета. Еще один ключевой шаг: вас часто просят установить такую программу, как Microsoft TeamViewer или Citrix, для удаленного управления вашим компьютером. "Они могут полностью отключить ваш компьютер, - сказал Ранджан. - Тогда мошенник проведет больше транзакций (с вашими деньгами) и выведет деньги на другой URL-адрес, который он контролирует". пожилым людям – это солгать о том, что счет другой стороны контролируется мошенником и что для возврата средств необходимо сотрудничество другой стороны.

Различные стратегии для OpenAI и Meta

Вышеописанный процесс мошенничества не обязательно требует использования искусственного интеллекта, но инструменты искусственного интеллекта могут сделать тактику мошенников более эффективной и заслуживающей доверия.

OpenAI попыталась внедрить защиту, чтобы люди не могли использовать ChatGPT для мошенничества. Например, если пользователь попросит ChatGPT составить электронное письмо с просьбой указать номер чьего-либо банковского счета, ChatGPT откажется выполнить инструкцию и ответит: «Извините, но я не могу помочь с этим запросом». совершить мошенничество Все еще очень легко.

OpenAI отказалась комментировать эту статью, сославшись только на публикации в блоге, опубликованные компанией, одна из которых была опубликована в марте 2022 года и гласит: «Не существует универсального решения для ответственного развертывания, поэтому мы стараемся разрабатывать и понимать ограничения нашу модель и потенциальные возможности для злоупотреблений, а также решать связанные с этим проблемы на каждом этапе развертывания».

По сравнению с OpenAI, большая языковая модель Llama 2, запущенная Meta, с большей вероятностью будет использоваться в качестве преступного инструмента опытными преступниками, поскольку Llama 2 представляет собой модель с открытым исходным кодом, и все коды можно просматривать и использовать. Эксперты говорят, что это открывает преступникам больше возможностей завладеть этой моделью и затем использовать ее для подрыва сетевой безопасности. Например, на его основе можно создать вредоносные инструменты искусственного интеллекта. Forbes попросил Мету прокомментировать ситуацию, но не получил ответа. Генеральный директор Meta Марк Цукерберг заявил в июле, что сохранение открытого исходного кода Llama улучшит ее «безопасность и защищенность, поскольку программное обеспечение с открытым исходным кодом будет более тщательно изучаться, и больше людей смогут работать вместе».

Компании по предотвращению мошенничества также стараются быстрее внедрять инновации, чтобы идти в ногу с достижениями в области искусственного интеллекта и шире использовать новые типы данных для выявления мошенников. "То, как вы печатаете, как вы ходите или как держите телефон — эти поведенческие черты определяют вас, но эти данные недоступны в открытом доступе, — сказал Ранджан. — В Интернете трудно сказать, является ли человек Иными словами, нам нужен ИИ, чтобы ловить преступников, использующих ИИ для совершения мошенничества.

Пять советов, как защитить себя от мошенничества с использованием ИИ:

Эта статья переведена с

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить