Слияние ИИ и Web3 вызывает новые проблемы безопасности, DeFAI становится центром внимания
На прошлой неделе неделя блокчейна в Стамбуле сосредоточила внимание на тенденциях интеграции ИИ и Web3, став важной платформой для обсуждения безопасности Web3 в отрасли. Множество экспертов на круглом столе углубились в обсуждение текущего состояния применения технологий ИИ в децентрализованном финансировании и связанных с ними вызовов безопасности.
С быстрым развитием крупных языковых моделей и AI-агентов формируется новая финансовая модель, известная как "DeFAI" (децентрализованное искусственное финансовое обеспечение). Однако это новшество также приносит беспрецедентные риски безопасности.
Один из руководителей компании по безопасности отметил, что хотя DeFAI имеет большие перспективы, он также заставляет нас пересмотреть механизмы доверия в децентрализованных системах. В отличие от традиционных фиксированных логических смарт-контрактов, процесс принятия решений AI-агента зависит от множества факторов и обладает непредсказуемостью, что не только усугубляет риски, но и создает возможности для потенциальных злоумышленников.
AI-агенты — это интеллектуальные сущности, способные принимать самостоятельные решения и выполнять действия на основе логики ИИ, наиболее ярким представителем которых являются торговые роботы ИИ. В настоящее время большинство AI-агентов по-прежнему полагаются на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции с моделями или подделка данных. В случае захвата это может не только привести к финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент пользователя DeFi мониторит информацию в социальных сетях в качестве торгового сигнала, злоумышленник может ввести в заблуждение агента, опубликовав ложные предупреждения, побуждая его выполнять неправильные действия, такие как экстренная ликвидация. Это не только приведет к потерям активов пользователя, но и может вызвать колебания на рынке, которые злоумышленники могут использовать для арбитража.
По мнению экспертов, собравшихся на встрече, безопасность AI-агентов должна поддерживаться совместными усилиями пользователей, разработчиков и сторонних организаций по безопасности. Пользователи должны осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями AI-агента. Разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Сторонние компании по безопасности должны предоставлять независимый аудит всех аспектов AI-агента и сотрудничать с разработчиками и пользователями для выявления рисков и предложения мер по их смягчению.
Для разработчиков, которые исследуют направление DeFAI, эксперты рекомендуют рассматривать ИИ-агентов как код, который может быть атакован, а не как "черный ящик". Поэтому проведение профессионального аудита безопасности и тестирования на проникновение является крайне важным.
Как одно из наиболее влиятельных мероприятий в области блокчейна в Европе, Стамбульская неделя блокчейна привлекла более 15 000 разработчиков, представителей проектов, инвесторов и регуляторов со всего мира. С официальным началом выдачи лицензий на блокчейн-проекты Комиссией по капитальному рынку Турции статус этого мероприятия в индустрии был дополнительно повышен.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
17 Лайков
Награда
17
9
Репост
Поделиться
комментарий
0/400
TokenTherapist
· 07-28 01:27
Эта волна AI в web3 немного неудачна.
Посмотреть ОригиналОтветить0
AirdropF5Bro
· 07-27 15:55
Один взгляд на опасность
Посмотреть ОригиналОтветить0
ForkItAll
· 07-27 01:47
Риск не может остановить инновации, просто делай это.
Посмотреть ОригиналОтветить0
BitcoinDaddy
· 07-26 17:58
Стандартные неудачники дают всем уроки.
Посмотреть ОригиналОтветить0
FlippedSignal
· 07-25 02:01
Риски какие На луну
Посмотреть ОригиналОтветить0
GweiTooHigh
· 07-25 01:59
Безопасность - это самое главное, остальное - ерунда.
Безопасность с помощью искусственного интеллекта и Web3 сталкиваются: риски DeFAI вызывают следование в отрасли
Слияние ИИ и Web3 вызывает новые проблемы безопасности, DeFAI становится центром внимания
На прошлой неделе неделя блокчейна в Стамбуле сосредоточила внимание на тенденциях интеграции ИИ и Web3, став важной платформой для обсуждения безопасности Web3 в отрасли. Множество экспертов на круглом столе углубились в обсуждение текущего состояния применения технологий ИИ в децентрализованном финансировании и связанных с ними вызовов безопасности.
С быстрым развитием крупных языковых моделей и AI-агентов формируется новая финансовая модель, известная как "DeFAI" (децентрализованное искусственное финансовое обеспечение). Однако это новшество также приносит беспрецедентные риски безопасности.
Один из руководителей компании по безопасности отметил, что хотя DeFAI имеет большие перспективы, он также заставляет нас пересмотреть механизмы доверия в децентрализованных системах. В отличие от традиционных фиксированных логических смарт-контрактов, процесс принятия решений AI-агента зависит от множества факторов и обладает непредсказуемостью, что не только усугубляет риски, но и создает возможности для потенциальных злоумышленников.
AI-агенты — это интеллектуальные сущности, способные принимать самостоятельные решения и выполнять действия на основе логики ИИ, наиболее ярким представителем которых являются торговые роботы ИИ. В настоящее время большинство AI-агентов по-прежнему полагаются на централизованные серверы и API, что делает их уязвимыми для различных атак, таких как инъекционные атаки, манипуляции с моделями или подделка данных. В случае захвата это может не только привести к финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент пользователя DeFi мониторит информацию в социальных сетях в качестве торгового сигнала, злоумышленник может ввести в заблуждение агента, опубликовав ложные предупреждения, побуждая его выполнять неправильные действия, такие как экстренная ликвидация. Это не только приведет к потерям активов пользователя, но и может вызвать колебания на рынке, которые злоумышленники могут использовать для арбитража.
По мнению экспертов, собравшихся на встрече, безопасность AI-агентов должна поддерживаться совместными усилиями пользователей, разработчиков и сторонних организаций по безопасности. Пользователи должны осторожно предоставлять разрешения и внимательно следить за высокорисковыми операциями AI-агента. Разработчики должны внедрять меры защиты на этапе проектирования, такие как усиление подсказок, изоляция в песочнице, ограничение скорости и механизмы отката. Сторонние компании по безопасности должны предоставлять независимый аудит всех аспектов AI-агента и сотрудничать с разработчиками и пользователями для выявления рисков и предложения мер по их смягчению.
Для разработчиков, которые исследуют направление DeFAI, эксперты рекомендуют рассматривать ИИ-агентов как код, который может быть атакован, а не как "черный ящик". Поэтому проведение профессионального аудита безопасности и тестирования на проникновение является крайне важным.
Как одно из наиболее влиятельных мероприятий в области блокчейна в Европе, Стамбульская неделя блокчейна привлекла более 15 000 разработчиков, представителей проектов, инвесторов и регуляторов со всего мира. С официальным началом выдачи лицензий на блокчейн-проекты Комиссией по капитальному рынку Турции статус этого мероприятия в индустрии был дополнительно повышен.