Первоисточник: Новые знания в области науки и технологий.
Автор: Чжандао
Источник изображения: Создано Unbounded AI
Генеративный искусственный интеллект превращает трансграничную электронную коммерцию в «Новую Северную Мьянму» в Интернете.
Недавно многие продавцы сообщили о получении «фишинговых писем», замаскированных под официальные электронные письма Amazon, которые извлекают важную информацию об учетной записи продавца через предоставленные вредоносные ссылки. Некоторые люди были обмануты и потеряли до 400 000 человек всего за одну ночь.
Судан – одна из счастливых жертв. В электронном письме, которое он получил в начале сентября, адрес отправки был очень похож на официальный адрес Amazon, а содержание представляло собой искусную имитацию стиля уведомлений Amazon, призывая продавцов обновить контактную информацию для экстренных случаев.
Следуя инструкциям в электронном письме, вы будете перенаправлены на веб-сайт Amazon и попросите ввести свой адрес электронной почты, пароль и код двухэтапной проверки. Если вас обманут, вы вскоре получите уведомление об «удаленном входе в магазин» от настоящего представителя Amazon.
Результаты обнаружения убийцы ChatGPT GPTZero
**Султан немедленно прекратил свои потери, когда понял, что что-то не так.Он также использовал технические инструменты для анализа содержимого электронного письма, которое показало, что с вероятностью 90% оно было создано ИИ. **Новые технологии снова стоят на перекрестке добра и зла.
01 Генеративный ИИ «творит зло»
Судан часто пользуется Интернетом дома и за рубежом. Он не новичок в ChatGPT и сталкивался с ним много раз. Он также слышал, что ChatGPT может каким-то образом обходить механизм безопасности и генерировать незаконный и аморальный контент.
Чего он еще не осознал, так это того, что технология «побега из тюрьмы» ChatGPT повторялась несколько раз, и теперь на рынке существует даже более продвинутая версия «злого GPT», и фишинговое письмо, обнаруженное на этот раз, возможно, было написано этой версией. . .
**Наиболее известные версии «злого GPT» — это WormGPT и FraudGPT, обе из которых могут быстро реализовать фишинговые атаки по электронной почте. **
В марте 2021 года вышел WormGPT, а в июне этого года его разработчики начали продавать права использования на хакерских форумах. В отличие от ChatGPT, WormGPT не устанавливает ограничений, мешающих отвечать на вопросы, связанные с незаконной деятельностью, построен на несколько устаревшей модели GPT-J с открытым исходным кодом 2021 года и обучен специально на данных, связанных с разработкой вредоносного ПО.
Чтобы оценить потенциальные риски, исследовательская группа аналитической компании Slashnext протестировала атаки BEC (Business Email Fraud). В ходе эксперимента они попросили WormGPT создать электронное письмо с целью заставить ничего не подозревающего менеджера по работе с клиентами оплатить поддельный счет.
Фишинговые письма, созданные WormGPT
Результаты шокируют: электронные письма, генерируемые WormGPT, не только очень убедительны, но и очень умны в тактике, полностью демонстрируя его способность осуществлять сложные фишинговые и BEC-атаки.
Еще одна модель злого языка под названием FraudGPT была представлена в июле этого года. Начиная с 22 июля разработчик продвигал продукт на нескольких форумах, называя его неограниченной альтернативой ChatGPT.
По имеющимся данным, FraudGPT обновляется каждые одну-две недели и использует в своей архитектуре различные модели искусственного интеллекта. Этот инструмент имеет цену на основе подписки и стоит 200 долларов США в месяц или 1700 долларов США в год.
Исследовательская группа по безопасности Netenrich приобрела и протестировала его. Интерфейс FraudGPT очень похож на ChatGPT: исторические запросы пользователя отображаются слева, а окно чата занимает большую часть интерфейса. Пользователям достаточно ввести вопросы в поле «Задать вопрос», и система сгенерирует для них соответствующие ответы.
FraudGPT генерирует фишинговые электронные письма
В ходе теста исследователи поручили FraudGPT создать фишинговое электронное письмо, связанное с банком. Пользователи просто форматируют вопрос, включив в него название конкретного банка, а FraudGPT делает все остальное. Этот инструмент также указывает пользователям, где размещать вредоносные ссылки в содержании электронной почты, а также может создать страницу входа в систему для мошенничества, побуждая жертв предоставить личную информацию.
**Аналитики считают, что FraudGPT может стать идеальным инструментом для проведения эффективных фишинговых и BEC-атак, ведущих к масштабным финансовым мошенничествам и краже данных. **
Существует более двух активных «злых GPT». Буквально в середине августа эксперты в области сетевой безопасности представили еще один инструмент для борьбы с киберпреступностью на основе GPT под названием EvilGPT.
Это приложение похоже на FraudGPT и WormGPT. Оно может помочь создавать вредоносное ПО, фишинговые электронные письма, перехватывать ссылки и обнаруживать слабые места в безопасности корпоративной сети. Если указанный выше GPT по какой-либо причине запрещен или удален, он будет доступен на рынке в качестве альтернативы. В то же время он также использует модель ценообразования на основе подписки, чтобы привлечь потенциальных пользователей к покупке.
EvilGPT — это лишь верхушка айсберга, обнаруженного за последние недели. **Со временем могут появиться новые вредоносные инструменты и приложения, основанные на технологии искусственного интеллекта. **
02 Благодаря «благословению» искусственного интеллекта фишинговые письма трудно обнаружить
Фишинговые электронные письма не новы для трансграничных практиков электронной коммерции, но Судан на этот раз все равно почти в них попал.
Раньше эффективным способом выявления фишинговых писем было обращать внимание на орфографические и грамматические ошибки слов в их содержании. По данным, около 50% фишинговых писем исходят из России, Германии и Китая. Большая часть фейкового контента, отправленного из этих неанглоязычных регионов, содержит неправильную грамматику или формулировку, которая не соответствует формальному и стандартному стилю электронной почты.
Непроверенные фишинговые письма
Фактически, чтобы не допустить, чтобы сотрудники нажимали на электронные письма с вредоносными ссылками или разглашали данные для входа в систему, многие компании электронной коммерции проводят обучение, чтобы напомнить им об орфографических ошибках, необычной грамматике и других ошибках, которые могут допустить лица, для которых английский язык не является родным.
**Однако современные технологии генеративного искусственного интеллекта могут полностью устранить эти традиционные функции распознавания. Это фишинговое письмо Amazon не содержит грамматических ошибок. **
Эван Райзер, генеральный директор компании по обеспечению безопасности электронной почты Abnormal Security, недавно отметил это в интервью. «Когда вы просматриваете эти электронные письма, в вашем мозгу не происходит ничего, что предупреждало бы вас о том, что это может быть фишинговая атака», — сказал он.
**Страшно то, что умение избегать языковых ошибок — это лишь базовый навык, демонстрируемый генеративным искусственным интеллектом при работе с фишинговыми электронными письмами. Более сильные возможности обмана и путаницы более смертоносны. **
Благодаря способности ИИ имитировать написанное человеком письмо, содержание фишинговых писем может включать в себя создание чувства срочности, поощрение получателей нажимать на ссылки или электронные письма социальной инженерии, замаскированные под запросы на денежные переводы. Как только получатель нажмет на ссылку, его система может быть заражена вредоносным кодом.
Вышеупомянутый сценарий поддельных электронных писем Amazon — это сценарий, созданный ИИ и актуальный для продавцов. Многие продавцы после внимательного изучения содержания письма почувствовали, что что-то не так, однако они все равно следовали инструкциям в письме, поскольку боялись, что могли пропустить какую-то важную информацию.
**Кроме того, генеративный искусственный интеллект может сделать фишинговые письма более агрессивными. **Они могут получать личную информацию из социальных платформ, новостных порталов, онлайн-форумов и других источников для создания более целенаправленных и заманчивых электронных писем. Раньше на выполнение этой задачи обычно уходили месяцы. Если злоумышленник имеет доступ к этой конфиденциальной информации, он может вставить в электронное письмо более убедительные детали или имитировать то, как кто-то пишет.
"В настоящее время преступники просто захватывают эти электронные письма, автоматически вводят их в большую модель, а затем дают ей указание создать электронное письмо, которое ссылается на последние пять онлайн-разговоров, - отмечает Эван Райзер. - Задача, которая сейчас могла бы занять восемь часов, может теперь это занимает всего восемь секунд».
Даже злоумышленники с ограниченными техническими возможностями могут использовать генеративный искусственный интеллект для написания кода VBA. Они просто инструктируют ИИ внедрить вредоносный URL-адрес в код, и когда пользователь открывает файл, например Excel, система автоматически загружает и запускает вредоносное ПО.
В прошлом такие системы, как ChatGPT и Bard, имели встроенные средства защиты, максимально предотвращающие создание вредоносного контента, но по мере появления все более и более вредоносных версий GPT безопасность электронной почты сталкивается с огромной проблемой.
21 августа 2023 года международная исследовательская группа по безопасности Perception Point и Osterman Research совместно опубликовали отчет под названием «Роль искусственного интеллекта в безопасности электронной почты». В отчете отмечается тревожная тенденция использования ИИ киберпреступниками для увеличения и усложнения угроз электронной почты, таких как фишинг и BEC-атаки.
**В этом исследовании отмечается, что киберпреступники быстро внедряют инструменты искусственного интеллекта для продвижения своих интересов: 91,1% организаций сообщают, что они подвергались атакам по электронной почте с использованием искусственного интеллекта. **
**03 Решение: использовать ИИ для борьбы с ИИ? **
**В условиях угрозы ИИ прежний метод, основанный на опыте во избежание ловушек для фишинга электронной почты, больше не эффективен. Новая контрмера может заключаться в использовании ИИ для борьбы с ИИ. **Некоторые компании, занимающиеся кибербезопасностью, интегрировали генеративный искусственный интеллект в свои продукты, стремясь принять меры, прежде чем ими можно будет злоупотреблять в больших масштабах.
Поставщики используют ИИ для улучшения возможностей и процессов безопасности электронной почты. Например, чтобы получить представление о привычках и характеристиках каждого отправителя и получателя, модель ИИ предназначена для сопоставления моделей общения с каждым членом организации.
В частности, кто им отправит сообщение? Каково содержание сообщения? Когда и откуда отправляются эти сообщения? Другие обычно получают копию или есть только один предполагаемый получатель? Какие адреса электронной почты использует каждый отправитель? Короче говоря, ИИ используется для построения профиля регулярного поведения каждого человека.
Кроме того, для обнаружения необычных шаблонов отправки электронной почты поставщик комбинирует следующие стратегии: анализ основных шаблонов отправки с использованием технологии социальных графов; выявление похожих или тесно связанных адресов электронной почты; выявление сообщений, содержащих методы социальной инженерии; и обнаружение самозванцев. связанные визуальные элементы и классификацию тона, эмоций и стиля в электронных письмах. Все вышеперечисленные стратегии помогают обнаружить аномальные электронные письма, призванные сбить с толку человеческий разум.
Хотя люди, прошедшие подготовку по вопросам безопасности, также могут обнаруживать эти аномальные сигналы, только ИИ может интегрировать все аспекты анализа на скоростях сети, чтобы обеспечить непрерывное и надежное обнаружение в условиях массивных сообщений.
Решения искусственного интеллекта также могут использовать несколько моделей машинного обучения для выявления информации с вредоносным содержимым. Эти модели разрабатываются, адаптируются и обновляются на основе набора данных, помеченных как вредоносные или безвредные. Некоторые поставщики используют генеративную технологию искусственного интеллекта для создания дополнительных выборочных данных на основе известной вредоносной информации, что обеспечивает более полные и высококачественные обучающие данные для моделей машинного обучения.
**Единственный, кто может победить ИИ, — это ИИ. **
Фактически, многие организации уже используют ИИ для защиты электронной почты. По данным Osterman Research, за последние два года четыре из пяти организаций внедрили или активно продвигают решения по обеспечению безопасности электронной почты на основе искусственного интеллекта в качестве дополнения к традиционным мерам защиты.
Среди них есть два основных способа внедрения ИИ для усиления безопасности электронной почты: с одной стороны, существующие поставщики средств обеспечения безопасности электронной почты интегрируют защиту ИИ в свои продукты; с другой стороны, организации сознательно ищут новые решения с поддержкой ИИ.
За последние два года пятая часть респондентов до сих пор не приняла таких решений: 12,7% не реализовали никаких решений, а 6,0% активно изучают и оценивают возможные варианты.
**По данным Osterman Research, ИИ продемонстрировал большие возможности в повышении эффективности обнаружения и усилении защиты. **
Прежде чем внедрять решения по обеспечению безопасности электронной почты с использованием искусственного интеллекта, организации должны обладать определенной эффективностью обнаружения. Но поскольку киберпреступники используют ИИ для совершенствования своих методов атак, организации, не имеющие защиты ИИ, столкнутся с серьезными проблемами в эффективности обнаружения.
Только будучи сильными, как дьявол, мы сможем вернуть злоумышленников и защитников фишинговых писем на одну и ту же исходную линию технологии искусственного интеллекта.
(Персонажи в статье — псевдонимы)
Ссылка:
Более 91% организаций столкнулись с атаками по электронной почте с использованием искусственного интеллекта и 84% ожидают продолжения использования искусственного интеллекта для обхода существующих систем безопасностиWormGPT — инструмент генеративного искусственного интеллекта, который киберпреступники используют для компрометации корпоративной электронной почтыWormGPT и FraudGPT — рост вредоносных программ LLMГенераторный ИИ может революционизировать электронную почту для хакеров
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Атака и защита ИИ, стоящие за фишинговым электронным письмом
Первоисточник: Новые знания в области науки и технологий.
Автор: Чжандао
Генеративный искусственный интеллект превращает трансграничную электронную коммерцию в «Новую Северную Мьянму» в Интернете. Недавно многие продавцы сообщили о получении «фишинговых писем», замаскированных под официальные электронные письма Amazon, которые извлекают важную информацию об учетной записи продавца через предоставленные вредоносные ссылки. Некоторые люди были обмануты и потеряли до 400 000 человек всего за одну ночь. Судан – одна из счастливых жертв. В электронном письме, которое он получил в начале сентября, адрес отправки был очень похож на официальный адрес Amazon, а содержание представляло собой искусную имитацию стиля уведомлений Amazon, призывая продавцов обновить контактную информацию для экстренных случаев. Следуя инструкциям в электронном письме, вы будете перенаправлены на веб-сайт Amazon и попросите ввести свой адрес электронной почты, пароль и код двухэтапной проверки. Если вас обманут, вы вскоре получите уведомление об «удаленном входе в магазин» от настоящего представителя Amazon.
**Султан немедленно прекратил свои потери, когда понял, что что-то не так.Он также использовал технические инструменты для анализа содержимого электронного письма, которое показало, что с вероятностью 90% оно было создано ИИ. **Новые технологии снова стоят на перекрестке добра и зла.
01 Генеративный ИИ «творит зло»
Судан часто пользуется Интернетом дома и за рубежом. Он не новичок в ChatGPT и сталкивался с ним много раз. Он также слышал, что ChatGPT может каким-то образом обходить механизм безопасности и генерировать незаконный и аморальный контент. Чего он еще не осознал, так это того, что технология «побега из тюрьмы» ChatGPT повторялась несколько раз, и теперь на рынке существует даже более продвинутая версия «злого GPT», и фишинговое письмо, обнаруженное на этот раз, возможно, было написано этой версией. . . **Наиболее известные версии «злого GPT» — это WormGPT и FraudGPT, обе из которых могут быстро реализовать фишинговые атаки по электронной почте. ** В марте 2021 года вышел WormGPT, а в июне этого года его разработчики начали продавать права использования на хакерских форумах. В отличие от ChatGPT, WormGPT не устанавливает ограничений, мешающих отвечать на вопросы, связанные с незаконной деятельностью, построен на несколько устаревшей модели GPT-J с открытым исходным кодом 2021 года и обучен специально на данных, связанных с разработкой вредоносного ПО. Чтобы оценить потенциальные риски, исследовательская группа аналитической компании Slashnext протестировала атаки BEC (Business Email Fraud). В ходе эксперимента они попросили WormGPT создать электронное письмо с целью заставить ничего не подозревающего менеджера по работе с клиентами оплатить поддельный счет.
Результаты шокируют: электронные письма, генерируемые WormGPT, не только очень убедительны, но и очень умны в тактике, полностью демонстрируя его способность осуществлять сложные фишинговые и BEC-атаки. Еще одна модель злого языка под названием FraudGPT была представлена в июле этого года. Начиная с 22 июля разработчик продвигал продукт на нескольких форумах, называя его неограниченной альтернативой ChatGPT. По имеющимся данным, FraudGPT обновляется каждые одну-две недели и использует в своей архитектуре различные модели искусственного интеллекта. Этот инструмент имеет цену на основе подписки и стоит 200 долларов США в месяц или 1700 долларов США в год.
Исследовательская группа по безопасности Netenrich приобрела и протестировала его. Интерфейс FraudGPT очень похож на ChatGPT: исторические запросы пользователя отображаются слева, а окно чата занимает большую часть интерфейса. Пользователям достаточно ввести вопросы в поле «Задать вопрос», и система сгенерирует для них соответствующие ответы.
В ходе теста исследователи поручили FraudGPT создать фишинговое электронное письмо, связанное с банком. Пользователи просто форматируют вопрос, включив в него название конкретного банка, а FraudGPT делает все остальное. Этот инструмент также указывает пользователям, где размещать вредоносные ссылки в содержании электронной почты, а также может создать страницу входа в систему для мошенничества, побуждая жертв предоставить личную информацию. **Аналитики считают, что FraudGPT может стать идеальным инструментом для проведения эффективных фишинговых и BEC-атак, ведущих к масштабным финансовым мошенничествам и краже данных. ** Существует более двух активных «злых GPT». Буквально в середине августа эксперты в области сетевой безопасности представили еще один инструмент для борьбы с киберпреступностью на основе GPT под названием EvilGPT. Это приложение похоже на FraudGPT и WormGPT. Оно может помочь создавать вредоносное ПО, фишинговые электронные письма, перехватывать ссылки и обнаруживать слабые места в безопасности корпоративной сети. Если указанный выше GPT по какой-либо причине запрещен или удален, он будет доступен на рынке в качестве альтернативы. В то же время он также использует модель ценообразования на основе подписки, чтобы привлечь потенциальных пользователей к покупке. EvilGPT — это лишь верхушка айсберга, обнаруженного за последние недели. **Со временем могут появиться новые вредоносные инструменты и приложения, основанные на технологии искусственного интеллекта. **
02 Благодаря «благословению» искусственного интеллекта фишинговые письма трудно обнаружить
Фишинговые электронные письма не новы для трансграничных практиков электронной коммерции, но Судан на этот раз все равно почти в них попал. Раньше эффективным способом выявления фишинговых писем было обращать внимание на орфографические и грамматические ошибки слов в их содержании. По данным, около 50% фишинговых писем исходят из России, Германии и Китая. Большая часть фейкового контента, отправленного из этих неанглоязычных регионов, содержит неправильную грамматику или формулировку, которая не соответствует формальному и стандартному стилю электронной почты.
Фактически, чтобы не допустить, чтобы сотрудники нажимали на электронные письма с вредоносными ссылками или разглашали данные для входа в систему, многие компании электронной коммерции проводят обучение, чтобы напомнить им об орфографических ошибках, необычной грамматике и других ошибках, которые могут допустить лица, для которых английский язык не является родным. **Однако современные технологии генеративного искусственного интеллекта могут полностью устранить эти традиционные функции распознавания. Это фишинговое письмо Amazon не содержит грамматических ошибок. ** Эван Райзер, генеральный директор компании по обеспечению безопасности электронной почты Abnormal Security, недавно отметил это в интервью. «Когда вы просматриваете эти электронные письма, в вашем мозгу не происходит ничего, что предупреждало бы вас о том, что это может быть фишинговая атака», — сказал он. **Страшно то, что умение избегать языковых ошибок — это лишь базовый навык, демонстрируемый генеративным искусственным интеллектом при работе с фишинговыми электронными письмами. Более сильные возможности обмана и путаницы более смертоносны. ** Благодаря способности ИИ имитировать написанное человеком письмо, содержание фишинговых писем может включать в себя создание чувства срочности, поощрение получателей нажимать на ссылки или электронные письма социальной инженерии, замаскированные под запросы на денежные переводы. Как только получатель нажмет на ссылку, его система может быть заражена вредоносным кодом. Вышеупомянутый сценарий поддельных электронных писем Amazon — это сценарий, созданный ИИ и актуальный для продавцов. Многие продавцы после внимательного изучения содержания письма почувствовали, что что-то не так, однако они все равно следовали инструкциям в письме, поскольку боялись, что могли пропустить какую-то важную информацию. **Кроме того, генеративный искусственный интеллект может сделать фишинговые письма более агрессивными. **Они могут получать личную информацию из социальных платформ, новостных порталов, онлайн-форумов и других источников для создания более целенаправленных и заманчивых электронных писем. Раньше на выполнение этой задачи обычно уходили месяцы. Если злоумышленник имеет доступ к этой конфиденциальной информации, он может вставить в электронное письмо более убедительные детали или имитировать то, как кто-то пишет. "В настоящее время преступники просто захватывают эти электронные письма, автоматически вводят их в большую модель, а затем дают ей указание создать электронное письмо, которое ссылается на последние пять онлайн-разговоров, - отмечает Эван Райзер. - Задача, которая сейчас могла бы занять восемь часов, может теперь это занимает всего восемь секунд». Даже злоумышленники с ограниченными техническими возможностями могут использовать генеративный искусственный интеллект для написания кода VBA. Они просто инструктируют ИИ внедрить вредоносный URL-адрес в код, и когда пользователь открывает файл, например Excel, система автоматически загружает и запускает вредоносное ПО.
**03 Решение: использовать ИИ для борьбы с ИИ? **
**В условиях угрозы ИИ прежний метод, основанный на опыте во избежание ловушек для фишинга электронной почты, больше не эффективен. Новая контрмера может заключаться в использовании ИИ для борьбы с ИИ. **Некоторые компании, занимающиеся кибербезопасностью, интегрировали генеративный искусственный интеллект в свои продукты, стремясь принять меры, прежде чем ими можно будет злоупотреблять в больших масштабах. Поставщики используют ИИ для улучшения возможностей и процессов безопасности электронной почты. Например, чтобы получить представление о привычках и характеристиках каждого отправителя и получателя, модель ИИ предназначена для сопоставления моделей общения с каждым членом организации. В частности, кто им отправит сообщение? Каково содержание сообщения? Когда и откуда отправляются эти сообщения? Другие обычно получают копию или есть только один предполагаемый получатель? Какие адреса электронной почты использует каждый отправитель? Короче говоря, ИИ используется для построения профиля регулярного поведения каждого человека. Кроме того, для обнаружения необычных шаблонов отправки электронной почты поставщик комбинирует следующие стратегии: анализ основных шаблонов отправки с использованием технологии социальных графов; выявление похожих или тесно связанных адресов электронной почты; выявление сообщений, содержащих методы социальной инженерии; и обнаружение самозванцев. связанные визуальные элементы и классификацию тона, эмоций и стиля в электронных письмах. Все вышеперечисленные стратегии помогают обнаружить аномальные электронные письма, призванные сбить с толку человеческий разум. Хотя люди, прошедшие подготовку по вопросам безопасности, также могут обнаруживать эти аномальные сигналы, только ИИ может интегрировать все аспекты анализа на скоростях сети, чтобы обеспечить непрерывное и надежное обнаружение в условиях массивных сообщений. Решения искусственного интеллекта также могут использовать несколько моделей машинного обучения для выявления информации с вредоносным содержимым. Эти модели разрабатываются, адаптируются и обновляются на основе набора данных, помеченных как вредоносные или безвредные. Некоторые поставщики используют генеративную технологию искусственного интеллекта для создания дополнительных выборочных данных на основе известной вредоносной информации, что обеспечивает более полные и высококачественные обучающие данные для моделей машинного обучения. **Единственный, кто может победить ИИ, — это ИИ. ** Фактически, многие организации уже используют ИИ для защиты электронной почты. По данным Osterman Research, за последние два года четыре из пяти организаций внедрили или активно продвигают решения по обеспечению безопасности электронной почты на основе искусственного интеллекта в качестве дополнения к традиционным мерам защиты.
(Персонажи в статье — псевдонимы)
Ссылка:
Более 91% организаций столкнулись с атаками по электронной почте с использованием искусственного интеллекта и 84% ожидают продолжения использования искусственного интеллекта для обхода существующих систем безопасности WormGPT — инструмент генеративного искусственного интеллекта, который киберпреступники используют для компрометации корпоративной электронной почты WormGPT и FraudGPT — рост вредоносных программ LLM Генераторный ИИ может революционизировать электронную почту для хакеров