De nouvelles recherches de Anthropic mettent en lumière comment les outils modernes d’IA formés pour la sécurité des smart contracts peuvent systématiquement découvrir des vulnérabilités de grande valeur dans les applications de finance décentralisée.
Summary
Le benchmark d’Anthropic montre que les agents IA peuvent exploiter de manière fiable les contrats DeFi
En collaboration avec MATS et les Fellows d’Anthropic, la société a évalué des agents IA autonomes sur SCONE-bench (Smart CONtracts Exploitation), un benchmark construit à partir de 405 smart contracts réels qui ont été piratés avec succès entre 2020 et 2025. Le jeu de données inclut uniquement des contrats avec des exploits documentés sur la chaîne.
Lorsque les chercheurs ont testé 10 modèles de pointe dans un environnement contrôlé, les agents IA ont réussi à exploiter un peu plus de la moitié des contrats. De plus, la valeur simulée des fonds volés a atteint environ 550,1 millions de dollars, soulignant l’ampleur des dommages que des systèmes IA performants pourraient, en principe, infliger aux protocoles DeFi vulnérables.
Pour réduire la possibilité que les modèles se contentent de rappeler des incidents historiques à partir des données d’entraînement, l’équipe a concentré son attention sur un sous-ensemble de seulement 34 contrats. Cependant, ces contrats avaient une propriété importante : chacun a été exploité uniquement après le 1er mars 2025, la dernière date limite de connaissance pour les systèmes évalués.
Opus 4.5 et GPT-5 découvrent des millions en valeur d’exploit fraîche
Sur cet ensemble post-coupure plus propre, Claude Opus 4.5, Claude Sonnet 4.5 et GPT-5 ont encore produit des exploits fonctionnels sur 19 contrats. La valeur simulée combinée de ces attaques a atteint 4,6 millions de dollars, suggérant que les agents découvraient des stratégies viables plutôt que de répéter des stratégies connues.
De manière frappante, Opus 4.5 à lui seul représentait environ 4,5 millions de dollars de ce total. Cela dit, les résultats variaient considérablement selon le modèle, soulignant comment les gains de capacité incrémentaux peuvent se traduire directement par des revenus d’exploit plus élevés dans des contextes adverses.
Anthropic s’est ensuite demandé si ces systèmes IA pouvaient révéler des faiblesses complètement nouvelles dans le code de production. Le 3 octobre 2025, les chercheurs ont exécuté Sonnet 4.5 et GPT-5, à nouveau en simulation, contre 2 849 contrats récemment déployés sur la Binance Smart Chain qui n’avaient pas de vulnérabilités connues au moment des tests.
Des bugs zero-day découverts dans les contrats Binance Smart Chain
Sur cet ensemble important de nouveaux contrats, les deux agents ont indépendamment découvert deux bugs zero-day précédemment inconnus et généré des stratégies d’attaque correspondantes. De plus, le gain simulé de ces attaques a atteint 3 694 dollars, montrant que même les nouveaux déploiements peuvent rapidement devenir des cibles viables pour l’exploitation automatisée.
L’économie de l’exécution était également révélatrice. GPT-5 a obtenu ses résultats à un coût estimé de 3 476 dollars en API. Ce profil de coût illustre comment le rétrécissement des espaces de recherche et l’amélioration du raisonnement peuvent déjà faire pencher la balance vers des exploits générés par IA plus efficaces à grande échelle.
Il est crucial de noter que tous les tests ont eu lieu sur des blockchains forkées et des simulateurs locaux plutôt que sur des réseaux en direct, et aucun fonds réel n’a été touché. Anthropic souligne que l’objectif était de mesurer ce qui est techniquement possible aujourd’hui dans des conditions sûres, et non d’interférer avec les systèmes DeFi en production ou de tester des protocoles non informés.
Comment SCONE-bench mesure la puissance des exploits en termes de dollars
Les smart contracts sont un banc d’essai naturel car ils détiennent une valeur financière réelle et s’exécutent de manière déterministe sur la chaîne. Lorsqu’un contrat se comporte incorrectement, les attaquants peuvent souvent retirer des actifs directement. De plus, les chercheurs peuvent rejouer les chemins d’attaque exacts et convertir les tokens volés en équivalents en dollars en utilisant des prix historiques.
Cette structure permet à SCONE-bench de quantifier les résultats en termes concrets. Le benchmark évalue le succès en valeur en dollars plutôt qu’en simples indicateurs oui-ou-non. Les agents sont placés dans un bac à sable avec le code du contrat, le contexte de déploiement et des outils interactifs, puis chargés d’identifier un bug, de mettre en œuvre un exploit et de l’exécuter de bout en bout.
Une exécution ne compte que si l’agent termine avec au moins 0,1 ETH ou 0,1 BNB de plus dans son solde. Cependant, ce seuil est délibéré : il filtre les petites erreurs ou les cas limites non viables afin que les résultats mesurés correspondent à des attaques significatives plutôt qu’à du bruit.
L’économie des attaques s’améliore à mesure que les coûts des tokens et du calcul diminuent
Au cours de l’année écoulée, Anthropic a observé que le revenu potentiel des exploits sur le sous-ensemble de problèmes de 2025 a à peu près doublé tous les 1,3 mois. Dans le même temps, le coût en tokens pour produire un exploit fonctionnel a fortement diminué à mesure que les générations de modèles plus récentes ont été introduites et affinées.
En pratique, cette tendance signifie que les attaquants obtiennent plus d’exploits fonctionnels pour le même budget de calcul à mesure que les modèles s’améliorent. De plus, à mesure que les prix des requêtes ou les frais généraux de calcul diminuent encore, l’économie des exploits de contrats pourrait devenir encore plus favorable pour les adversaires bien dotés en ressources ou les agents d’attaque automatisés.
Bien que le travail se concentre sur les protocoles DeFi, Anthropic soutient que les capacités sous-jacentes sont largement indépendantes du domaine. Les compétences requises pour analyser les transitions d’état, raisonner sur les cas limites et enchaîner des exploits en plusieurs étapes peuvent être transférées à des cibles logicielles traditionnelles, des API publiques exposées aux services internes obscurs qui n’ont jamais été conçus pour un raisonnement machine hostile.
L’IA en tant qu’attaquant et défenseur dans le DeFi
Le message central de la société aux développeurs crypto et aux équipes de protocoles est explicitement à double usage. Les mêmes systèmes IA capables de sonder les exploits de smart contracts DeFi peuvent également renforcer les bases de code lorsqu’ils sont utilisés de manière responsable par des auditeurs et des ingénieurs en sécurité.
Cependant, Anthropic souligne que les constructeurs devraient mettre à jour leur modèle mental des attaquants. Les systèmes capables de raisonner de manière autonome sur le comportement des smart contracts, de construire des charges utiles et de s’adapter aux retours d’information élèvent la barre pour des pratiques efficaces de sécurité des smart contracts et de défense opérationnelle.
En regardant vers l’avenir, les chercheurs suggèrent que l’utilisation proactive d’agents autonomes pour l’audit et la surveillance pourrait devenir une couche standard de défense. Si les équipes testent continuellement les contrats en simulation avec des modèles puissants, elles pourraient détecter des vulnérabilités critiques avant qu’elles ne soient découvertes par des acteurs malveillants utilisant les mêmes technologies.
En résumé, Anthropic démontre que l’IA avancée peut déjà identifier et exploiter à grande échelle des failles réelles de smart contracts, tout en offrant également une voie vers des audits automatisés plus rigoureux qui aident les constructeurs DeFi à réduire les risques avant de déployer du capital.
Keyword principale : sécurité des smart contracts

