Nouveaux défis de sécurité dans la tendance de fusion de l'IA et du Web3
Récemment, la semaine de la blockchain d'Istanbul (IBW 2025) s'est concentrée sur la tendance de la fusion entre l'IA et le Web3, devenant une plateforme de discussion importante dans le domaine de la sécurité du Web3 cette année. Au cours de cet événement de deux jours, plusieurs experts de l'industrie ont mené des discussions approfondies sur l'état actuel de l'application de la technologie IA dans la finance décentralisée (DeFi) et les défis de sécurité associés.
Avec le développement rapide des grands modèles de langage (LLM) et des agents d'IA, un nouveau paradigme financier émergent - la finance décentralisée basée sur l'intelligence artificielle (DeFAI) - est en train de se former. Cependant, cette innovation a également créé de nouvelles surfaces d'attaque et des risques de sécurité.
Les experts présents ont souligné que bien que le DeFAI ait un avenir prometteur, il exige également que nous réexaminions les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus de prise de décision des agents AI est influencé par le contexte, le temps, et même les interactions historiques. Cette imprévisibilité non seulement aggrave les risques, mais crée également des opportunités pour les attaquants.
Un agent AI est essentiellement une entité intelligente capable de prendre des décisions et d'exécuter des actions de manière autonome sur la base de la logique AI, généralement autorisée à fonctionner par un utilisateur, un protocole ou une DAO. Le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents AI fonctionnent sur une architecture Web2, s'appuyant sur des serveurs et des API centralisés, ce qui les rend vulnérables à des menaces telles que des attaques par injection, la manipulation de modèles ou la falsification de données. Une fois détourné, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Un scénario d'attaque typique a été mentionné dans le forum : lorsque l'agent de trading AI utilisé par un utilisateur DeFi surveille les messages des réseaux sociaux comme signaux de trading, un attaquant peut publier de fausses alertes, par exemple "un protocole subit une attaque", incitant l'agent à déclencher immédiatement un déchargement d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par du front running.
Face à ces risques, les experts présents s'accordent à dire que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Tout d'abord, les utilisateurs doivent bien comprendre l'étendue des droits des agents et accorder les droits avec prudence, tout en étant attentifs à l'examen des opérations à haut risque des agents AI. Ensuite, les développeurs devraient mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des invites, l'isolement en bac à sable, la limitation de débit et la logique de repli. Enfin, les sociétés de sécurité tierces devraient fournir une révision indépendante du comportement des modèles d'agents AI, de l'infrastructure et des méthodes d'intégration sur la chaîne, tout en collaborant avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Les experts avertissent : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction du DeFAI, le conseil est : "Tout comme les contrats intelligents, la logique de comportement des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il y a une possibilité d'attaque, donc une vérification de sécurité professionnelle et des tests de pénétration sont nécessaires."
En tant que l'un des événements blockchain les plus influents d'Europe, l'IBW a attiré plus de 15 000 participants dans le monde, y compris des développeurs, des porteurs de projets, des investisseurs et des régulateurs. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de la délivrance de licences pour les projets blockchain, la position de l'IBW dans l'industrie est encore renforcée.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
6
Partager
Commentaire
0/400
GasFeeVictim
· 07-17 21:55
pigeons aussi doivent reconnaître la situation~
Voir l'originalRépondre0
ContractCollector
· 07-17 21:54
Sécurité ? Ha, tous les smart contracts non sécurisés sont morts.
Voir l'originalRépondre0
LoneValidator
· 07-17 21:53
Comment gérer le renforcement de la réglementation ?
Voir l'originalRépondre0
BearMarketSunriser
· 07-17 21:52
Encore un nouveau terme DeFAI pour escroquer les pigeons.
Voir l'originalRépondre0
LightningPacketLoss
· 07-17 21:31
Le risque financier est devenu absurde, je panique.
Fusion de l'IA et du Web3 : Nouveaux défis de sécurité à l'ère DeFAI
Nouveaux défis de sécurité dans la tendance de fusion de l'IA et du Web3
Récemment, la semaine de la blockchain d'Istanbul (IBW 2025) s'est concentrée sur la tendance de la fusion entre l'IA et le Web3, devenant une plateforme de discussion importante dans le domaine de la sécurité du Web3 cette année. Au cours de cet événement de deux jours, plusieurs experts de l'industrie ont mené des discussions approfondies sur l'état actuel de l'application de la technologie IA dans la finance décentralisée (DeFi) et les défis de sécurité associés.
Avec le développement rapide des grands modèles de langage (LLM) et des agents d'IA, un nouveau paradigme financier émergent - la finance décentralisée basée sur l'intelligence artificielle (DeFAI) - est en train de se former. Cependant, cette innovation a également créé de nouvelles surfaces d'attaque et des risques de sécurité.
Les experts présents ont souligné que bien que le DeFAI ait un avenir prometteur, il exige également que nous réexaminions les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus de prise de décision des agents AI est influencé par le contexte, le temps, et même les interactions historiques. Cette imprévisibilité non seulement aggrave les risques, mais crée également des opportunités pour les attaquants.
Un agent AI est essentiellement une entité intelligente capable de prendre des décisions et d'exécuter des actions de manière autonome sur la base de la logique AI, généralement autorisée à fonctionner par un utilisateur, un protocole ou une DAO. Le représentant le plus typique est le robot de trading AI. Actuellement, la plupart des agents AI fonctionnent sur une architecture Web2, s'appuyant sur des serveurs et des API centralisés, ce qui les rend vulnérables à des menaces telles que des attaques par injection, la manipulation de modèles ou la falsification de données. Une fois détourné, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Un scénario d'attaque typique a été mentionné dans le forum : lorsque l'agent de trading AI utilisé par un utilisateur DeFi surveille les messages des réseaux sociaux comme signaux de trading, un attaquant peut publier de fausses alertes, par exemple "un protocole subit une attaque", incitant l'agent à déclencher immédiatement un déchargement d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par du front running.
Face à ces risques, les experts présents s'accordent à dire que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Tout d'abord, les utilisateurs doivent bien comprendre l'étendue des droits des agents et accorder les droits avec prudence, tout en étant attentifs à l'examen des opérations à haut risque des agents AI. Ensuite, les développeurs devraient mettre en œuvre des mesures de défense dès la phase de conception, telles que : le renforcement des invites, l'isolement en bac à sable, la limitation de débit et la logique de repli. Enfin, les sociétés de sécurité tierces devraient fournir une révision indépendante du comportement des modèles d'agents AI, de l'infrastructure et des méthodes d'intégration sur la chaîne, tout en collaborant avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Les experts avertissent : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction du DeFAI, le conseil est : "Tout comme les contrats intelligents, la logique de comportement des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il y a une possibilité d'attaque, donc une vérification de sécurité professionnelle et des tests de pénétration sont nécessaires."
En tant que l'un des événements blockchain les plus influents d'Europe, l'IBW a attiré plus de 15 000 participants dans le monde, y compris des développeurs, des porteurs de projets, des investisseurs et des régulateurs. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de la délivrance de licences pour les projets blockchain, la position de l'IBW dans l'industrie est encore renforcée.