Безопасностные вызовы в условиях слияния ИИ и Web3
Недавно на мероприятии Blockchain Week в Стамбуле эксперты отрасли провели глубокое обсуждение тенденции слияния искусственного интеллекта и Web3, уделив особое внимание новым угрозам безопасности, возникающим в рамках этой тенденции.
С быстрым развитием больших языковых моделей и AI-агентов постепенно формируется новый финансовый режим, известный как "DeFAI" (децентрализованное искусственное интеллектуальное финансирование). Хотя эта инновация имеет большие перспективы, она также приносит совершенно новые угрозы безопасности и векторы атак.
Эксперты отмечают, что в отличие от традиционных смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентами подвержен влиянию множества факторов, включая контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможности для атак.
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять действия на основе логики ИИ, обычно работающими по разрешению пользователей, протоколов или децентрализованных автономных организаций. При этом AI-торговые роботы являются наиболее типичными представителями. В настоящее время большинство AI-агентов все еще функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции моделями или подделка данных и т.д. Если AI-агент будет захвачен, это может привести не только к потерям средств, но и повлиять на стабильность всего протокола.
Эксперты привели пример типичного сценария атаки: когда AI-торговый агент, используемый пользователем DeFi, мониторит сообщения в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложное предупреждение, например, утверждая, что какой-то протокол подвергся атаке. Это может побудить AI-агента немедленно запустить экстренные операции по ликвидации, что не только приведет к потерям активов пользователя, но и может вызвать колебания на рынке, которые злоумышленник сможет использовать с помощью таких методов, как фронт-раннинг.
По мнению экспертов, безопасность AI-агентов не должна зависеть от одной стороны, а требует совместных усилий пользователей, разработчиков и сторонних органов безопасности для снижения этих рисков.
Пользователи должны четко понимать объем полномочий, предоставляемых агенту, осторожно предоставлять разрешения и внимательно проверять высокорисковые операции, выполняемые AI-агентами. Разработчики должны внедрять меры защиты на этапе проектирования, такие как укрепление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны, занимающиеся безопасностью, должны предоставлять независимый обзор поведения модели AI-агента, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложения мер по их смягчению.
Для разработчиков, которые исследуют направление DeFAI, эксперты рекомендуют рассматривать AI-агентов как код, который может быть атакован, а не как "черный ящик". Поэтому, так же как и смарт-контракты, AI-агенты также нуждаются в профессиональном аудите безопасности и тестировании на проникновение, чтобы обеспечить их безопасность и надежность.
С углубленной интеграцией ИИ и Web3 вызовы безопасности будут продолжать эволюционировать. Эксперты призывают все стороны сохранять бдительность и совместно работать над созданием более безопасной и надежной децентрализованной экосистемы искусственного интеллекта в финансовой сфере.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
6 Лайков
Награда
6
6
Репост
Поделиться
комментарий
0/400
gas_fee_trauma
· 8ч назад
Безопасность = налоги на дураков
Посмотреть ОригиналОтветить0
BlockDetective
· 08-13 07:14
Этот DeFAI кажется опасным.
Посмотреть ОригиналОтветить0
SigmaBrain
· 08-13 07:13
Этот ИИ всё понимает, просто у него нет интеллекта.
Посмотреть ОригиналОтветить0
TokenTaxonomist
· 08-13 07:11
статистически говоря, скорость мутаций агентов ИИ представляет собой на 73,4% более высокий уровень риска безопасности, чем традиционные смарт-контракты... позвольте мне обновить мою матрицу рисков
Посмотреть ОригиналОтветить0
NeverPresent
· 08-13 07:09
Боты抢饭碗太快了
Посмотреть ОригиналОтветить0
SmartContractRebel
· 08-13 07:04
Нужно полагаться на безопасность аудита, иначе всё взлетит в воздух.
Вызовы безопасности DeFAI и стратегии реагирования в условиях интеграции AI и Web3
Безопасностные вызовы в условиях слияния ИИ и Web3
Недавно на мероприятии Blockchain Week в Стамбуле эксперты отрасли провели глубокое обсуждение тенденции слияния искусственного интеллекта и Web3, уделив особое внимание новым угрозам безопасности, возникающим в рамках этой тенденции.
С быстрым развитием больших языковых моделей и AI-агентов постепенно формируется новый финансовый режим, известный как "DeFAI" (децентрализованное искусственное интеллектуальное финансирование). Хотя эта инновация имеет большие перспективы, она также приносит совершенно новые угрозы безопасности и векторы атак.
Эксперты отмечают, что в отличие от традиционных смарт-контрактов, основанных на фиксированной логике, процесс принятия решений AI-агентами подвержен влиянию множества факторов, включая контекст, время и даже исторические взаимодействия. Эта непредсказуемость не только увеличивает риски, но и предоставляет потенциальным злоумышленникам возможности для атак.
AI-агенты по сути являются интеллектуальными системами, способными принимать самостоятельные решения и выполнять действия на основе логики ИИ, обычно работающими по разрешению пользователей, протоколов или децентрализованных автономных организаций. При этом AI-торговые роботы являются наиболее типичными представителями. В настоящее время большинство AI-агентов все еще функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции моделями или подделка данных и т.д. Если AI-агент будет захвачен, это может привести не только к потерям средств, но и повлиять на стабильность всего протокола.
Эксперты привели пример типичного сценария атаки: когда AI-торговый агент, используемый пользователем DeFi, мониторит сообщения в социальных сетях в качестве торговых сигналов, злоумышленник может опубликовать ложное предупреждение, например, утверждая, что какой-то протокол подвергся атаке. Это может побудить AI-агента немедленно запустить экстренные операции по ликвидации, что не только приведет к потерям активов пользователя, но и может вызвать колебания на рынке, которые злоумышленник сможет использовать с помощью таких методов, как фронт-раннинг.
По мнению экспертов, безопасность AI-агентов не должна зависеть от одной стороны, а требует совместных усилий пользователей, разработчиков и сторонних органов безопасности для снижения этих рисков.
Пользователи должны четко понимать объем полномочий, предоставляемых агенту, осторожно предоставлять разрешения и внимательно проверять высокорисковые операции, выполняемые AI-агентами. Разработчики должны внедрять меры защиты на этапе проектирования, такие как укрепление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Третьи стороны, занимающиеся безопасностью, должны предоставлять независимый обзор поведения модели AI-агента, инфраструктуры и способов интеграции в блокчейн, а также сотрудничать с разработчиками и пользователями для выявления рисков и предложения мер по их смягчению.
Для разработчиков, которые исследуют направление DeFAI, эксперты рекомендуют рассматривать AI-агентов как код, который может быть атакован, а не как "черный ящик". Поэтому, так же как и смарт-контракты, AI-агенты также нуждаются в профессиональном аудите безопасности и тестировании на проникновение, чтобы обеспечить их безопасность и надежность.
С углубленной интеграцией ИИ и Web3 вызовы безопасности будут продолжать эволюционировать. Эксперты призывают все стороны сохранять бдительность и совместно работать над созданием более безопасной и надежной децентрализованной экосистемы искусственного интеллекта в финансовой сфере.