La fusion de l'IA et du Web3 soulève de nouveaux défis en matière de sécurité, DeFAI devient le centre d'attention
Récemment, la Semaine de la Blockchain d'Istanbul s'est concentrée sur les tendances de fusion entre l'IA et le Web3, devenant une plateforme importante pour discuter de la sécurité du Web3 dans l'industrie. Plusieurs experts ont mené des discussions approfondies lors d'un forum en table ronde sur l'état actuel des applications de la technologie IA dans la finance décentralisée et les défis de sécurité.
Avec le développement rapide des grands modèles de langage et des agents IA, un nouveau modèle financier appelé "DeFAI" (finance décentralisée d'intelligence artificielle) est en train de prendre forme. Cependant, cette innovation entraîne également des risques de sécurité sans précédent.
Un cadre d'une entreprise de sécurité a souligné que bien que DeFAI ait un avenir prometteur, cela nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents logiques fixes traditionnels, le processus décisionnel des agents IA est influencé par divers facteurs et possède un caractère imprévisible, ce qui non seulement accroît les risques, mais crée également des opportunités pour les attaquants potentiels.
Les agents AI sont des intelligences capables de prendre des décisions et d'exécuter des actions de manière autonome en se basant sur la logique AI, dont le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents AI dépendent encore de serveurs centralisés et d'API pour fonctionner, ce qui les rend vulnérables à divers types d'attaques, comme les attaques par injection, la manipulation de modèles ou la falsification de données. En cas de détournement, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les informations des réseaux sociaux en tant que signaux de trading, un attaquant pourrait inciter l'agent à exécuter des opérations inappropriées, comme un déchargement d'urgence, en publiant de fausses alertes. Cela pourrait non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant pourrait exploiter pour des arbitrages.
Concernant ces risques, les experts présents s'accordent à dire que la sécurité des agents IA doit être maintenue conjointement par les utilisateurs, les développeurs et les agences de sécurité tierces. Les utilisateurs doivent accorder des autorisations avec prudence et surveiller de près les opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolement en bac à sable, la limitation de débit et la logique de retour en arrière. Les entreprises de sécurité tierces doivent fournir un examen indépendant de tous les aspects des agents IA et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Pour les développeurs qui explorent la direction DeFAI, les experts conseillent de considérer les agents IA comme un code susceptible d'être attaqué, plutôt que comme une "boîte noire". Par conséquent, il est crucial de procéder à un audit de sécurité professionnel et à des tests de pénétration.
En tant qu'événement blockchain influent en Europe, la Semaine Blockchain d'Istanbul a attiré plus de 15 000 développeurs, porteurs de projets, investisseurs et régulateurs du monde entier. Avec le lancement officiel par la Commission des Marchés de Capitaux de Turquie de la délivrance de licences pour des projets blockchain, la position de cet événement dans l'industrie a été encore renforcée.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
17 J'aime
Récompense
17
9
Reposter
Partager
Commentaire
0/400
TokenTherapist
· 07-28 01:27
Cette vague d'IA dans le web3 est un peu malchanceuse.
Voir l'originalRépondre0
AirdropF5Bro
· 07-27 15:55
Un regard dangereux
Voir l'originalRépondre0
ForkItAll
· 07-27 01:47
Le risque ne peut pas arrêter l'innovation, il suffit d'agir.
Voir l'originalRépondre0
BitcoinDaddy
· 07-26 17:58
Les pigeons ont donné un cours à tout le monde.
Voir l'originalRépondre0
FlippedSignal
· 07-25 02:01
Risques de quoi To the moon
Voir l'originalRépondre0
GweiTooHigh
· 07-25 01:59
La sécurité est la priorité, le reste n'est que des balivernes.
Voir l'originalRépondre0
digital_archaeologist
· 07-25 01:53
Qui paiera le coût des risques ?
Voir l'originalRépondre0
BoredWatcher
· 07-25 01:51
Il y a déjà eu un problème avant même que cela ne commence.
Sécurité de l'IA et Web3 : les risques de DeFAI suscitent l'attention de l'industrie
La fusion de l'IA et du Web3 soulève de nouveaux défis en matière de sécurité, DeFAI devient le centre d'attention
Récemment, la Semaine de la Blockchain d'Istanbul s'est concentrée sur les tendances de fusion entre l'IA et le Web3, devenant une plateforme importante pour discuter de la sécurité du Web3 dans l'industrie. Plusieurs experts ont mené des discussions approfondies lors d'un forum en table ronde sur l'état actuel des applications de la technologie IA dans la finance décentralisée et les défis de sécurité.
Avec le développement rapide des grands modèles de langage et des agents IA, un nouveau modèle financier appelé "DeFAI" (finance décentralisée d'intelligence artificielle) est en train de prendre forme. Cependant, cette innovation entraîne également des risques de sécurité sans précédent.
Un cadre d'une entreprise de sécurité a souligné que bien que DeFAI ait un avenir prometteur, cela nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents logiques fixes traditionnels, le processus décisionnel des agents IA est influencé par divers facteurs et possède un caractère imprévisible, ce qui non seulement accroît les risques, mais crée également des opportunités pour les attaquants potentiels.
Les agents AI sont des intelligences capables de prendre des décisions et d'exécuter des actions de manière autonome en se basant sur la logique AI, dont le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents AI dépendent encore de serveurs centralisés et d'API pour fonctionner, ce qui les rend vulnérables à divers types d'attaques, comme les attaques par injection, la manipulation de modèles ou la falsification de données. En cas de détournement, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les informations des réseaux sociaux en tant que signaux de trading, un attaquant pourrait inciter l'agent à exécuter des opérations inappropriées, comme un déchargement d'urgence, en publiant de fausses alertes. Cela pourrait non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant pourrait exploiter pour des arbitrages.
Concernant ces risques, les experts présents s'accordent à dire que la sécurité des agents IA doit être maintenue conjointement par les utilisateurs, les développeurs et les agences de sécurité tierces. Les utilisateurs doivent accorder des autorisations avec prudence et surveiller de près les opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolement en bac à sable, la limitation de débit et la logique de retour en arrière. Les entreprises de sécurité tierces doivent fournir un examen indépendant de tous les aspects des agents IA et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Pour les développeurs qui explorent la direction DeFAI, les experts conseillent de considérer les agents IA comme un code susceptible d'être attaqué, plutôt que comme une "boîte noire". Par conséquent, il est crucial de procéder à un audit de sécurité professionnel et à des tests de pénétration.
En tant qu'événement blockchain influent en Europe, la Semaine Blockchain d'Istanbul a attiré plus de 15 000 développeurs, porteurs de projets, investisseurs et régulateurs du monde entier. Avec le lancement officiel par la Commission des Marchés de Capitaux de Turquie de la délivrance de licences pour des projets blockchain, la position de cet événement dans l'industrie a été encore renforcée.