01 AI восход: безопасная теневая война под двойным мечом технологий
С быстрым развитием технологий ИИ угрозы кибербезопасности становятся все более сложными, методы атак не только становятся более эффективными и скрытными, но и порождают новые формы «ИИ-хакеров», что приводит к различным новым кризисам в области кибербезопасности.
Проще говоря, это значит, что традиционные фишинговые атаки становятся интеллектуальными. Например, в более точных сценариях злоумышленник использует открытые социальные данные для обучения AI модели, массово генерируя персонализированные фишинговые письма, подражая стилю письма или языковым привычкам конкретного пользователя, осуществляя «кастомизированное» мошенничество, обходя традиционные фильтры спама и значительно повышая вероятность успеха атаки.
Далее речь пойдет о наиболее известном среди общественности глубоком подделывании (Deepfake) и мошенничестве с идентичностью. До того как технологии ИИ достигли зрелости, традиционная «атака с изменением лица», то есть мошенничество BEC, полное название которого «компрометация бизнес-электронной почты», заключается в том, что злоумышленник подделывает отправителя электронной почты, выдавая себя за вашего руководителя, коллегу или делового партнера, чтобы похитить коммерческую информацию или деньги, либо получить другие важные данные.
Сегодня «смена лиц» действительно произошла. Технологии смены лиц и изменения голоса, сгенерированные ИИ, могут подделывать личность публичных фигур или близких, использоваться для мошенничества, манипуляции общественным мнением и даже политического вмешательства. Всего два месяца назад финансовый директор одной из шанхайских компаний получил приглашение на видеоконференцию от «председателя», который через AI смены лиц и имитации голоса заявил, что необходимо срочно перечислить «гарантийный взнос за зарубежное сотрудничество». Директор, следуя указаниям, перевел 3,8 миллиона юаней на указанный счет, а затем понял, что это была иностранная мошенническая группа, использующая технологии глубокой подделки.
Третье - это автоматизированные атаки и эксплуатация уязвимостей. Прогресс технологий ИИ позволяет многим сценариям эволюционировать в сторону интеллектуальности и автоматизации, и сетевые атаки, естественно, не являются исключением. Злоумышленники могут использовать ИИ для автоматического сканирования системных уязвимостей, генерации динамического кода атак и реализации быстрого, безразборного нападения на цели. Например, «атака нулевого дня», управляемая ИИ, сразу после обнаружения уязвимости будет писать и выполнять вредоносные программы, и традиционные системы защиты не могут реагировать в реальном времени.
В этом году во время китайского Нового года официальный сайт DeepSeek стал жертвой DDoS-атаки супербольшой мощности в 3.2Tbps. Хакеры одновременно использовали API для внедрения атакующих образцов, изменяя веса модели, что привело к параличу основных служб на 48 часов, а прямые экономические убытки составили более десятков миллионов долларов. В ходе расследования после инцидента были обнаружены следы длительной скрытой деятельности NSA США.
Загрязнение данных и уязвимости моделей также являются новой угрозой. Злоумышленники внедряют ложную информацию в обучающие данные ИИ (т.е. отравление данных) или используют недостатки самой модели, чтобы заставить ИИ выдавать неправильные результаты — это может привести к непосредственным угрозам безопасности в ключевых областях и даже вызвать цепные катастрофические последствия, например, система автономного вождения может ошибочно интерпретировать «запрет на проезд» как «знак ограничения скорости», или медицинский ИИ может ошибочно классифицировать доброкачественную опухоль как злокачественную.
02 ИИ еще нуждается в ИИ
С учетом новых угроз кибербезопасности, вызванных ИИ, традиционные методы защиты уже неэффективны. Так какие же у нас есть стратегии для реагирования?
Не трудно заметить, что нынешний консенсус в отрасли указывает на «противодействие ИИ с помощью ИИ» — это не только升级 технических средств, но и изменение парадигмы безопасности.
Существующие попытки в основном делятся на три большие категории: технологии безопасности AI-моделей, отраслевые защитные приложения и более макроуровневое сотрудничество между правительством и международными организациями.
Ключ к безопасности защитных технологий моделей ИИ заключается в внутреннем усилении безопасности модели.
В качестве примера уязвимости «джейлбрейка» в больших языковых моделях (LLM) их механизмы безопасности часто оказываются неэффективными из-за универсальных стратегий предупреждений о джейлбрейке — злоумышленники систематически обходят встроенные защитные слои модели, побуждая ИИ генерировать насильственный, дискриминационный или незаконный контент. Чтобы предотвратить «джейлбрейк» LLM, компании, занимающиеся моделями, предпринимают различные попытки, например, Anthropic в феврале этого года выпустила «конституционный классификатор».
Здесь под «конституцией» подразумеваются неоспоримые правила естественного языка, служащие мерой безопасности, обученной на синтетических данных. Они позволяют и ограничивают определенные содержимое, осуществляя мониторинг входных и выходных данных в реальном времени. В тестах на базовых условиях модель Claude3.5, находясь под защитой классификатора, повысила уровень успешного предотвращения продвинутых попыток джейлбрейка с 14% до 95%, существенно снизив риск «джейлбрейка» ИИ.
Кроме моделей и более универсальных средств защиты, приложения для защиты на уровне отрасли также заслуживают внимания. Сценарная защита в вертикальных областях становится ключевым пунктом прорыва: финансовый сектор создает барьеры против мошенничества с помощью AI моделей управления рисками и многомодального анализа данных, экосистема с открытым исходным кодом использует технологии интеллектуального поиска уязвимостей для быстрого реагирования на нулевые угрозы, а защита конфиденциальной информации предприятий основывается на динамической системе управления, управляемой AI.
Например, решение, представленное Cisco на Международной неделе сетей в Сингапуре, может в реальном времени перехватывать запросы сотрудников на отправку конфиденциальных данных в ChatGPT и автоматически генерировать отчеты по соблюдению норм для оптимизации управленческого цикла.
На макроуровне правительственное и международное межрегиональное сотрудничество также ускоряется. Агентство по кибербезопасности Сингапура опубликовало «Руководство по безопасности систем искусственного интеллекта», вводя обязательное локальное развертывание и механизмы шифрования данных для сдерживания злоупотреблений генеративным ИИ, особенно для создания стандартов защиты от идентификации подделок с помощью ИИ в фишинговых атаках; США, Великобритания и Канада синхронно запускают «Программу сетевых агентов ИИ», сосредотачиваясь на разработке надежных систем и оперативной оценке APT-атак, укрепляя коллективную оборонную способность через совместную систему сертификации безопасности.
Итак, какие методы могут максимально эффективно использовать ИИ для решения проблем кибербезопасности в эпоху ИИ?
«Будущее требует AI безопасного интеллектуального центра и создания новой системы вокруг этого центра.» На втором форуме инноваций в кибербезопасности в Ухане основатель QingTeng Cloud Security Чжан Фу отметил в своем выступлении, что противодействие AI с помощью AI станет ядром будущей системы защиты кибербезопасности. «В течение 3 лет AI перевернет существующую безопасность и все 2B-секторы. Продукты будут пересозданы, что приведет к беспрецедентному повышению эффективности и возможностей. Будущие продукты будут предназначены для AI, а не для людей.»
Среди множества решений, режим Security Copilot явно демонстрирует, что «будущие продукты предназначены для ИИ»: год назад Microsoft выпустила интеллектуальный помощник Microsoft Security Copilot, чтобы помочь командам безопасности быстро и точно обнаруживать, расследовать и реагировать на инциденты безопасности; месяц назад была снова выпущена ИИ система для автоматической помощи в таких ключевых областях, как фишинг, безопасность данных и управление идентификацией.
Microsoft добавил шесть новых собственных AI-умных агентов для расширения функций Security Copilot. Три из них предназначены для помощи специалистам по кибербезопасности в отборе предупреждений: агент классификации фишинга проверяет фишинговые предупреждения и фильтрует ложные срабатывания; два других анализируют уведомления Purview и обнаруживают случаи несанкционированного использования служебных данных сотрудниками.
Оптимизатор условного доступа работает совместно с Microsoft Entra, указывая на небезопасные правила доступа пользователей и создавая однокнопочные решения для администраторов. Агенты по устранению уязвимостей интегрированы с инструментом управления устройствами Intune, что помогает быстро находить уязвимые терминалы и применять патчи операционной системы. Агенты по разведке угроз генерируют отчеты о киберугрозах, которые могут угрожать системам организации.
03 Безформенный: Защита высокоуровневых агентов L4
Неудивительно, что в стране, для достижения настоящего уровня безопасности в «автономном вождении», QingTeng Cloud Security представила полный стек безопасности интеллектуального агента «Усян». Будучи первым в мире продуктом безопасности ИИ, который преодолевает переход от «помощника ИИ» к «автономному интеллектуальному агенту» (Autopilot), его ключевое достижение заключается в разрушении традиционной модели «пассивного реагирования» инструментов, превращая его в автономный, автоматический и интеллектуальный.
С помощью интеграции технологий машинного обучения, графов знаний и автоматизированного принятия решений, «Бессознательное» может самостоятельно завершить весь процесс от обнаружения угроз до оценки влияния и реагирования, реализуя истинно автономное принятие решений и целенаправленность. Его дизайн «Архитектуры агентного ИИ» моделирует логику сотрудничества человеческой команды безопасности: «мозг» интегрирует базу знаний по кибербезопасности для поддержки планировочных возможностей, «глаза» осуществляют детальное восприятие динамики сетевой среды, «руки и ноги» гибко используют разнообразные инструменты безопасности, а через сотрудничество множества агентов формируется эффективная сеть анализа информации с разделением труда и обменом информацией.
С точки зрения технической реализации, «无相» использует «ReAct режим» (цикл Act-Observe-Think-Act) и «двухдвигательную архитектуру Plan AI + Action AI», что обеспечивает динамическую коррекцию в сложных задачах. Когда возникает аномалия в вызове инструмента, система может самостоятельно переключиться на резервный план, а не прерывать процесс. Например, в анализе APT-атак Plan AI выступает в роли «организатора», разбивая задачи на цели, а Action AI, как «эксперт по расследованию», выполняет анализ логов и моделирование угроз, оба работают параллельно на основе совместно используемой карты знаний в реальном времени.
На уровне функциональных модулей «无相» создал полноценную экосистему автономного принятия решений: симуляция интеллектуального агента, отражающая итеративное мышление аналитика по безопасности, динамическая оптимизация путей принятия решений; интеграция инструментов для запроса журналов безопасности хоста, получения разведывательной информации о сетевых угрозах и анализа вредоносного кода на основе LLM; реальное захватывание информации о активах хоста и сети; динамическое хранение ассоциаций сущностей в графе знаний для поддержки принятия решений; сотрудничество нескольких агентов через разделение задач и обмен информацией, параллельное выполнение задач.
В настоящее время "无相" демонстрирует наилучшие результаты в трех основных областях применения: оценка тревог, анализ происхождения и подготовка отчетов о безопасности.
В традиционных операциях безопасности проверка подлинности массовых предупреждений требует много времени и усилий. В качестве примера можно взять предупреждение о локальном повышении привилегий: интеллектуальный агент по оценке предупреждений автоматически анализирует характеристики угрозы, использует инструменты анализа прав процессов, отслеживания родительских процессов и проверки подписей программ, и в конечном итоге классифицирует его как ложное срабатывание — весь процесс проходит без вмешательства человека. В текущих тестах предупреждений QingTeng эта система уже достигла 100% покрытия предупреждений и 99,99% точности оценки, при этом сократив объем ручной работы более чем на 95%.
Столкнувшись с реальными угрозами, такими как атаки Webshell, агенты через извлечение кодовых характеристик, анализ прав доступа к файлам и другие многомерные связи мгновенно подтверждают эффективность атаки. Традиционно для глубокой трассировки, требующей сотрудничества нескольких отделов и занявшей несколько дней (например, восстановление путей распространения, оценка горизонтального воздействия), теперь система автоматически связывает журналы хостов, сетевой трафик, поведенческие базовые линии и другие потоки данных, создавая полный отчет о цепочке атаки, сокращая время отклика с «дней» до «минут».
«Наше ядро заключается в том, чтобы изменить сотрудничество между AI и человеком, можно рассматривать AI как человека для совместной работы, осуществляя переход от L2 к L4, то есть от вспомогательного вождения к высокоуровневому автономному вождению», - поделился Ху Цзюнь, вице-президент по продуктам QingTeng LianChuang. «С ростом числа сценариев, которые AI может адаптировать, и повышением успешности принятия решений, он постепенно сможет взять на себя больше ответственности, и таким образом, распределение ответственности между человеком и AI будет изменяться».
В сцене анализа источников сначала срабатывает тревога Webshell, инициируя совместную трассировку команды многоагентской безопасности, управляемой «безликим ИИ»: «эксперт по оценке» на основе тревоги локализует файл one.jsp и генерирует параллельные задачи, такие как анализ содержимого файла, трассировка автора, проверка по той же директории и отслеживание процессов. Агент «безопасности» вызывает инструменты журналирования файлов, быстро определяя процесс java (12606) как источник записи, этот процесс и связанный хост 10.108.108.23 (выявленный через журналы доступа с высокой частотой взаимодействия) постепенно включаются в расследование.
Интеллектуальные агенты динамически расширяют подсказки с помощью графиков угроз, углубляясь от одного файла к процессам и хостам, оценивая результаты задач, собранные экспертами, для комплексной оценки рисков. Этот процесс сокращает время ручной проверки с нескольких часов до нескольких дней до десятков минут, превосходя точность высококвалифицированных специалистов по безопасности, восстанавливая всю цепочку атак и осуществляя безупречное отслеживание горизонтальных перемещений. Оценка красной команды также показывает, что избежать их тотального расследования трудно.
«Большие модели лучше, чем человек, потому что они могут тщательно проверять все уголки и закоулки, а не полагаться на опыт, исключая маловероятные случаи», — объяснил Ху Цзюнь. «Таким образом, это соответствует лучшей широте и глубине.»
После завершения расследования сложных сценариев атак часто отнимает много времени и труда на организацию оповещений и журналов расследования, а также создание отчетов. ИИ может осуществлять обобщение одним щелчком мыши, четко представлять процесс атаки в виде визуальной временной шкалы и отображать ключевые узлы в последовательной манере, как в фильме — система будет автоматически сортировать ключевые доказательства для генерации ключевых кадров цепочки атак и объединять их с контекстной информацией окружающей среды, чтобы в конечном итоге сгенерировать динамическую карту цепочки атак, так что вся траектория атаки может быть представлена в интуитивно понятном и трехмерном виде.
04 Заключение
Очевидно, что развитие технологий ИИ представляет собой двойную угрозу для кибербезопасности.
С одной стороны, атакующие используют ИИ для автоматизации, персонализации и сокрытия атак; с другой стороны, защитники должны ускорить технологические инновации, усиливая возможности обнаружения и реагирования с помощью ИИ. В будущем соревнование в области ИИ между атакующими и защитниками определит общую ситуацию в кибербезопасности, а совершенствование безопасных интеллектуальных систем станет ключом к балансировке рисков и развития.
А безопасный интеллектуальный агент «Безликость» привнес новые изменения как в архитектуру безопасности, так и в когнитивный уровень.
«Безформенный» по сути изменяет способ использования ИИ, его прорыв заключается в том, что многомерное восприятие данных, генерация защитных стратегий и объяснимость решений объединяются в органическое целое — от прошлой модели использования ИИ как инструмента к наделению ИИ возможностями для самостоятельной и автоматической работы.
Анализируя журналы, текст, трафик и другие гетерогенные данные, система может уловить малейшие признаки APT-активности до того, как злоумышленник создаст полную цепочку атаки. Что еще более важно, визуализация процесса принятия решений и интерпретация делают черный ящик традиционных инструментов, которые «знают, что происходит, но не понимают, почему», историей — команда безопасности не только может увидеть угрозу, но и понять логику её эволюции.
Суть этой инновации заключается в переходе парадигмы мышления о безопасности от принципа "латать после утечки" к "предупредить перед дождем" и в переопределении правил атак и защиты.
«Безликое» похоже на охотника с цифровой интуицией: с помощью моделирования операций памяти в реальном времени и других микроповеденческих характеристик оно может вытащить скрытые пользовательские трояны из огромного шума; движок динамического управления атакующими поверхностями постоянно оценивает риск активов, обеспечивая точное направление защитных ресурсов на ключевые системы; а умный механизм усвоения информации о угрозах преобразует ежедневные тысячи тревог в осуществимые команды защиты, даже предсказывая направление эволюции новых видов атак — пока традиционные решения все еще изнемогают от борьбы с уже произошедшими вторжениями, «безликое» уже предвосхищает и блокирует следующий шаг злоумышленников.
«Рождение AI интеллектуальной центральной системы (высшего уровня безопасности) полностью изменит ландшафт кибербезопасности. И все, что нам нужно сделать, это полностью воспользоваться этой возможностью», — сказал Чжан Фу.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
«AI Хакер» наступает, как Agentic AI может стать новым защитником?
Автор: насосный гик
01 AI восход: безопасная теневая война под двойным мечом технологий
С быстрым развитием технологий ИИ угрозы кибербезопасности становятся все более сложными, методы атак не только становятся более эффективными и скрытными, но и порождают новые формы «ИИ-хакеров», что приводит к различным новым кризисам в области кибербезопасности.
Во-первых, генеративный ИИ кардинально меняет «точность» сетевого мошенничества.
Проще говоря, это значит, что традиционные фишинговые атаки становятся интеллектуальными. Например, в более точных сценариях злоумышленник использует открытые социальные данные для обучения AI модели, массово генерируя персонализированные фишинговые письма, подражая стилю письма или языковым привычкам конкретного пользователя, осуществляя «кастомизированное» мошенничество, обходя традиционные фильтры спама и значительно повышая вероятность успеха атаки.
Далее речь пойдет о наиболее известном среди общественности глубоком подделывании (Deepfake) и мошенничестве с идентичностью. До того как технологии ИИ достигли зрелости, традиционная «атака с изменением лица», то есть мошенничество BEC, полное название которого «компрометация бизнес-электронной почты», заключается в том, что злоумышленник подделывает отправителя электронной почты, выдавая себя за вашего руководителя, коллегу или делового партнера, чтобы похитить коммерческую информацию или деньги, либо получить другие важные данные.
Сегодня «смена лиц» действительно произошла. Технологии смены лиц и изменения голоса, сгенерированные ИИ, могут подделывать личность публичных фигур или близких, использоваться для мошенничества, манипуляции общественным мнением и даже политического вмешательства. Всего два месяца назад финансовый директор одной из шанхайских компаний получил приглашение на видеоконференцию от «председателя», который через AI смены лиц и имитации голоса заявил, что необходимо срочно перечислить «гарантийный взнос за зарубежное сотрудничество». Директор, следуя указаниям, перевел 3,8 миллиона юаней на указанный счет, а затем понял, что это была иностранная мошенническая группа, использующая технологии глубокой подделки.
Третье - это автоматизированные атаки и эксплуатация уязвимостей. Прогресс технологий ИИ позволяет многим сценариям эволюционировать в сторону интеллектуальности и автоматизации, и сетевые атаки, естественно, не являются исключением. Злоумышленники могут использовать ИИ для автоматического сканирования системных уязвимостей, генерации динамического кода атак и реализации быстрого, безразборного нападения на цели. Например, «атака нулевого дня», управляемая ИИ, сразу после обнаружения уязвимости будет писать и выполнять вредоносные программы, и традиционные системы защиты не могут реагировать в реальном времени.
В этом году во время китайского Нового года официальный сайт DeepSeek стал жертвой DDoS-атаки супербольшой мощности в 3.2Tbps. Хакеры одновременно использовали API для внедрения атакующих образцов, изменяя веса модели, что привело к параличу основных служб на 48 часов, а прямые экономические убытки составили более десятков миллионов долларов. В ходе расследования после инцидента были обнаружены следы длительной скрытой деятельности NSA США.
Загрязнение данных и уязвимости моделей также являются новой угрозой. Злоумышленники внедряют ложную информацию в обучающие данные ИИ (т.е. отравление данных) или используют недостатки самой модели, чтобы заставить ИИ выдавать неправильные результаты — это может привести к непосредственным угрозам безопасности в ключевых областях и даже вызвать цепные катастрофические последствия, например, система автономного вождения может ошибочно интерпретировать «запрет на проезд» как «знак ограничения скорости», или медицинский ИИ может ошибочно классифицировать доброкачественную опухоль как злокачественную.
02 ИИ еще нуждается в ИИ
С учетом новых угроз кибербезопасности, вызванных ИИ, традиционные методы защиты уже неэффективны. Так какие же у нас есть стратегии для реагирования?
Не трудно заметить, что нынешний консенсус в отрасли указывает на «противодействие ИИ с помощью ИИ» — это не только升级 технических средств, но и изменение парадигмы безопасности.
Существующие попытки в основном делятся на три большие категории: технологии безопасности AI-моделей, отраслевые защитные приложения и более макроуровневое сотрудничество между правительством и международными организациями.
Ключ к безопасности защитных технологий моделей ИИ заключается в внутреннем усилении безопасности модели.
В качестве примера уязвимости «джейлбрейка» в больших языковых моделях (LLM) их механизмы безопасности часто оказываются неэффективными из-за универсальных стратегий предупреждений о джейлбрейке — злоумышленники систематически обходят встроенные защитные слои модели, побуждая ИИ генерировать насильственный, дискриминационный или незаконный контент. Чтобы предотвратить «джейлбрейк» LLM, компании, занимающиеся моделями, предпринимают различные попытки, например, Anthropic в феврале этого года выпустила «конституционный классификатор».
Здесь под «конституцией» подразумеваются неоспоримые правила естественного языка, служащие мерой безопасности, обученной на синтетических данных. Они позволяют и ограничивают определенные содержимое, осуществляя мониторинг входных и выходных данных в реальном времени. В тестах на базовых условиях модель Claude3.5, находясь под защитой классификатора, повысила уровень успешного предотвращения продвинутых попыток джейлбрейка с 14% до 95%, существенно снизив риск «джейлбрейка» ИИ.
Кроме моделей и более универсальных средств защиты, приложения для защиты на уровне отрасли также заслуживают внимания. Сценарная защита в вертикальных областях становится ключевым пунктом прорыва: финансовый сектор создает барьеры против мошенничества с помощью AI моделей управления рисками и многомодального анализа данных, экосистема с открытым исходным кодом использует технологии интеллектуального поиска уязвимостей для быстрого реагирования на нулевые угрозы, а защита конфиденциальной информации предприятий основывается на динамической системе управления, управляемой AI.
Например, решение, представленное Cisco на Международной неделе сетей в Сингапуре, может в реальном времени перехватывать запросы сотрудников на отправку конфиденциальных данных в ChatGPT и автоматически генерировать отчеты по соблюдению норм для оптимизации управленческого цикла.
На макроуровне правительственное и международное межрегиональное сотрудничество также ускоряется. Агентство по кибербезопасности Сингапура опубликовало «Руководство по безопасности систем искусственного интеллекта», вводя обязательное локальное развертывание и механизмы шифрования данных для сдерживания злоупотреблений генеративным ИИ, особенно для создания стандартов защиты от идентификации подделок с помощью ИИ в фишинговых атаках; США, Великобритания и Канада синхронно запускают «Программу сетевых агентов ИИ», сосредотачиваясь на разработке надежных систем и оперативной оценке APT-атак, укрепляя коллективную оборонную способность через совместную систему сертификации безопасности.
Итак, какие методы могут максимально эффективно использовать ИИ для решения проблем кибербезопасности в эпоху ИИ?
«Будущее требует AI безопасного интеллектуального центра и создания новой системы вокруг этого центра.» На втором форуме инноваций в кибербезопасности в Ухане основатель QingTeng Cloud Security Чжан Фу отметил в своем выступлении, что противодействие AI с помощью AI станет ядром будущей системы защиты кибербезопасности. «В течение 3 лет AI перевернет существующую безопасность и все 2B-секторы. Продукты будут пересозданы, что приведет к беспрецедентному повышению эффективности и возможностей. Будущие продукты будут предназначены для AI, а не для людей.»
Среди множества решений, режим Security Copilot явно демонстрирует, что «будущие продукты предназначены для ИИ»: год назад Microsoft выпустила интеллектуальный помощник Microsoft Security Copilot, чтобы помочь командам безопасности быстро и точно обнаруживать, расследовать и реагировать на инциденты безопасности; месяц назад была снова выпущена ИИ система для автоматической помощи в таких ключевых областях, как фишинг, безопасность данных и управление идентификацией.
Microsoft добавил шесть новых собственных AI-умных агентов для расширения функций Security Copilot. Три из них предназначены для помощи специалистам по кибербезопасности в отборе предупреждений: агент классификации фишинга проверяет фишинговые предупреждения и фильтрует ложные срабатывания; два других анализируют уведомления Purview и обнаруживают случаи несанкционированного использования служебных данных сотрудниками.
Оптимизатор условного доступа работает совместно с Microsoft Entra, указывая на небезопасные правила доступа пользователей и создавая однокнопочные решения для администраторов. Агенты по устранению уязвимостей интегрированы с инструментом управления устройствами Intune, что помогает быстро находить уязвимые терминалы и применять патчи операционной системы. Агенты по разведке угроз генерируют отчеты о киберугрозах, которые могут угрожать системам организации.
03 Безформенный: Защита высокоуровневых агентов L4
Неудивительно, что в стране, для достижения настоящего уровня безопасности в «автономном вождении», QingTeng Cloud Security представила полный стек безопасности интеллектуального агента «Усян». Будучи первым в мире продуктом безопасности ИИ, который преодолевает переход от «помощника ИИ» к «автономному интеллектуальному агенту» (Autopilot), его ключевое достижение заключается в разрушении традиционной модели «пассивного реагирования» инструментов, превращая его в автономный, автоматический и интеллектуальный.
С помощью интеграции технологий машинного обучения, графов знаний и автоматизированного принятия решений, «Бессознательное» может самостоятельно завершить весь процесс от обнаружения угроз до оценки влияния и реагирования, реализуя истинно автономное принятие решений и целенаправленность. Его дизайн «Архитектуры агентного ИИ» моделирует логику сотрудничества человеческой команды безопасности: «мозг» интегрирует базу знаний по кибербезопасности для поддержки планировочных возможностей, «глаза» осуществляют детальное восприятие динамики сетевой среды, «руки и ноги» гибко используют разнообразные инструменты безопасности, а через сотрудничество множества агентов формируется эффективная сеть анализа информации с разделением труда и обменом информацией.
С точки зрения технической реализации, «无相» использует «ReAct режим» (цикл Act-Observe-Think-Act) и «двухдвигательную архитектуру Plan AI + Action AI», что обеспечивает динамическую коррекцию в сложных задачах. Когда возникает аномалия в вызове инструмента, система может самостоятельно переключиться на резервный план, а не прерывать процесс. Например, в анализе APT-атак Plan AI выступает в роли «организатора», разбивая задачи на цели, а Action AI, как «эксперт по расследованию», выполняет анализ логов и моделирование угроз, оба работают параллельно на основе совместно используемой карты знаний в реальном времени.
На уровне функциональных модулей «无相» создал полноценную экосистему автономного принятия решений: симуляция интеллектуального агента, отражающая итеративное мышление аналитика по безопасности, динамическая оптимизация путей принятия решений; интеграция инструментов для запроса журналов безопасности хоста, получения разведывательной информации о сетевых угрозах и анализа вредоносного кода на основе LLM; реальное захватывание информации о активах хоста и сети; динамическое хранение ассоциаций сущностей в графе знаний для поддержки принятия решений; сотрудничество нескольких агентов через разделение задач и обмен информацией, параллельное выполнение задач.
В настоящее время "无相" демонстрирует наилучшие результаты в трех основных областях применения: оценка тревог, анализ происхождения и подготовка отчетов о безопасности.
В традиционных операциях безопасности проверка подлинности массовых предупреждений требует много времени и усилий. В качестве примера можно взять предупреждение о локальном повышении привилегий: интеллектуальный агент по оценке предупреждений автоматически анализирует характеристики угрозы, использует инструменты анализа прав процессов, отслеживания родительских процессов и проверки подписей программ, и в конечном итоге классифицирует его как ложное срабатывание — весь процесс проходит без вмешательства человека. В текущих тестах предупреждений QingTeng эта система уже достигла 100% покрытия предупреждений и 99,99% точности оценки, при этом сократив объем ручной работы более чем на 95%.
Столкнувшись с реальными угрозами, такими как атаки Webshell, агенты через извлечение кодовых характеристик, анализ прав доступа к файлам и другие многомерные связи мгновенно подтверждают эффективность атаки. Традиционно для глубокой трассировки, требующей сотрудничества нескольких отделов и занявшей несколько дней (например, восстановление путей распространения, оценка горизонтального воздействия), теперь система автоматически связывает журналы хостов, сетевой трафик, поведенческие базовые линии и другие потоки данных, создавая полный отчет о цепочке атаки, сокращая время отклика с «дней» до «минут».
«Наше ядро заключается в том, чтобы изменить сотрудничество между AI и человеком, можно рассматривать AI как человека для совместной работы, осуществляя переход от L2 к L4, то есть от вспомогательного вождения к высокоуровневому автономному вождению», - поделился Ху Цзюнь, вице-президент по продуктам QingTeng LianChuang. «С ростом числа сценариев, которые AI может адаптировать, и повышением успешности принятия решений, он постепенно сможет взять на себя больше ответственности, и таким образом, распределение ответственности между человеком и AI будет изменяться».
В сцене анализа источников сначала срабатывает тревога Webshell, инициируя совместную трассировку команды многоагентской безопасности, управляемой «безликим ИИ»: «эксперт по оценке» на основе тревоги локализует файл one.jsp и генерирует параллельные задачи, такие как анализ содержимого файла, трассировка автора, проверка по той же директории и отслеживание процессов. Агент «безопасности» вызывает инструменты журналирования файлов, быстро определяя процесс java (12606) как источник записи, этот процесс и связанный хост 10.108.108.23 (выявленный через журналы доступа с высокой частотой взаимодействия) постепенно включаются в расследование.
Интеллектуальные агенты динамически расширяют подсказки с помощью графиков угроз, углубляясь от одного файла к процессам и хостам, оценивая результаты задач, собранные экспертами, для комплексной оценки рисков. Этот процесс сокращает время ручной проверки с нескольких часов до нескольких дней до десятков минут, превосходя точность высококвалифицированных специалистов по безопасности, восстанавливая всю цепочку атак и осуществляя безупречное отслеживание горизонтальных перемещений. Оценка красной команды также показывает, что избежать их тотального расследования трудно.
«Большие модели лучше, чем человек, потому что они могут тщательно проверять все уголки и закоулки, а не полагаться на опыт, исключая маловероятные случаи», — объяснил Ху Цзюнь. «Таким образом, это соответствует лучшей широте и глубине.»
После завершения расследования сложных сценариев атак часто отнимает много времени и труда на организацию оповещений и журналов расследования, а также создание отчетов. ИИ может осуществлять обобщение одним щелчком мыши, четко представлять процесс атаки в виде визуальной временной шкалы и отображать ключевые узлы в последовательной манере, как в фильме — система будет автоматически сортировать ключевые доказательства для генерации ключевых кадров цепочки атак и объединять их с контекстной информацией окружающей среды, чтобы в конечном итоге сгенерировать динамическую карту цепочки атак, так что вся траектория атаки может быть представлена в интуитивно понятном и трехмерном виде.
04 Заключение
Очевидно, что развитие технологий ИИ представляет собой двойную угрозу для кибербезопасности.
С одной стороны, атакующие используют ИИ для автоматизации, персонализации и сокрытия атак; с другой стороны, защитники должны ускорить технологические инновации, усиливая возможности обнаружения и реагирования с помощью ИИ. В будущем соревнование в области ИИ между атакующими и защитниками определит общую ситуацию в кибербезопасности, а совершенствование безопасных интеллектуальных систем станет ключом к балансировке рисков и развития.
А безопасный интеллектуальный агент «Безликость» привнес новые изменения как в архитектуру безопасности, так и в когнитивный уровень.
«Безформенный» по сути изменяет способ использования ИИ, его прорыв заключается в том, что многомерное восприятие данных, генерация защитных стратегий и объяснимость решений объединяются в органическое целое — от прошлой модели использования ИИ как инструмента к наделению ИИ возможностями для самостоятельной и автоматической работы.
Анализируя журналы, текст, трафик и другие гетерогенные данные, система может уловить малейшие признаки APT-активности до того, как злоумышленник создаст полную цепочку атаки. Что еще более важно, визуализация процесса принятия решений и интерпретация делают черный ящик традиционных инструментов, которые «знают, что происходит, но не понимают, почему», историей — команда безопасности не только может увидеть угрозу, но и понять логику её эволюции.
Суть этой инновации заключается в переходе парадигмы мышления о безопасности от принципа "латать после утечки" к "предупредить перед дождем" и в переопределении правил атак и защиты.
«Безликое» похоже на охотника с цифровой интуицией: с помощью моделирования операций памяти в реальном времени и других микроповеденческих характеристик оно может вытащить скрытые пользовательские трояны из огромного шума; движок динамического управления атакующими поверхностями постоянно оценивает риск активов, обеспечивая точное направление защитных ресурсов на ключевые системы; а умный механизм усвоения информации о угрозах преобразует ежедневные тысячи тревог в осуществимые команды защиты, даже предсказывая направление эволюции новых видов атак — пока традиционные решения все еще изнемогают от борьбы с уже произошедшими вторжениями, «безликое» уже предвосхищает и блокирует следующий шаг злоумышленников.
«Рождение AI интеллектуальной центральной системы (высшего уровня безопасности) полностью изменит ландшафт кибербезопасности. И все, что нам нужно сделать, это полностью воспользоваться этой возможностью», — сказал Чжан Фу.