
Runtime IA sécurisé par TEE
Gratuit

IronClaw est un runtime open-source axé sur la sécurité pour agents IA, conçu comme une alternative durcie à OpenClaw. Il résout la vulnérabilité critique de l'exposition des identifiants en exécutant les agents au sein d'environnements d'exécution sécurisés (TEE) sur le NEAR AI Cloud. Contrairement aux frameworks standards où les LLM accèdent directement aux clés API brutes, IronClaw utilise un coffre-fort chiffré qui injecte les identifiants uniquement dans les requêtes réseau autorisées par une liste blanche. En tirant parti de Rust pour la sécurité mémoire et de l'isolation basée sur TEE, il atténue les risques tels que l'injection de prompt et l'exfiltration de données non autorisée. Il est idéal pour les développeurs créant des agents autonomes nécessitant l'accès à des API de production sensibles, des services financiers ou des données utilisateur privées.
IronClaw exécute les agents dans des enclaves chiffrées matériellement. Cela garantit que même si l'OS hôte ou l'hyperviseur sous-jacent est compromis, la mémoire et l'état interne de l'agent restent chiffrés et inaccessibles aux processus externes. Cela fournit une couche de défense en profondeur qu'aucun environnement conteneurisé standard ne peut égaler, isolant efficacement l'exécution de l'agent de l'infrastructure du fournisseur cloud.
Au lieu de transmettre des clés brutes au LLM, IronClaw stocke les secrets dans un coffre-fort durci. Le runtime agit comme un proxy sécurisé, injectant les identifiants dans les requêtes HTTP sortantes uniquement lorsque l'URL de destination correspond à une liste blanche préconfigurée. Cela empêche les attaques par injection de prompt d'exfiltrer des clés, car le LLM ne voit jamais les valeurs secrètes brutes, seulement le résultat de la requête autorisée.
Le runtime principal est construit en Rust, tirant parti de son modèle de propriété strict et de son vérificateur d'emprunt pour éliminer les vulnérabilités courantes de corruption mémoire comme les dépassements de tampon ou les erreurs use-after-free. En garantissant la sécurité mémoire au niveau du langage, IronClaw réduit la surface d'attaque pour les exploits ciblant l'environnement d'exécution de l'agent, offrant une base robuste pour l'automatisation critique.
IronClaw impose un filtrage de sortie strict via une structure AllowList. En définissant explicitement avec quels points de terminaison un agent peut communiquer, les développeurs empêchent l'exfiltration de données non autorisée vers des serveurs malveillants. Le runtime valide chaque requête par rapport à cette liste avant d'appliquer les en-têtes d'authentification, garantissant qu'un agent compromis ne puisse pas envoyer de données sensibles vers un domaine tiers non approuvé.
La plateforme utilise `wasmparser` pour valider le code de l'agent avant exécution. En recherchant les opérations non sécurisées et en s'assurant que le bytecode est conforme à des normes de sécurité strictes, IronClaw empêche l'exécution d'une logique d'agent malveillante ou mal formée. Cette étape de vérification automatisée se produit lors du déploiement, garantissant que seul le code audité et sûr est autorisé à s'exécuter au sein du TEE.
Les développeurs créant des agents pour gérer des portefeuilles crypto ou des API bancaires utilisent IronClaw pour garantir que les clés API ne sont jamais exposées à la fenêtre de contexte du LLM, empêchant les transferts de fonds non autorisés via injection de prompt.
Les agents IA d'entreprise accédant à des bases de données internes ou à des outils SaaS privés utilisent IronClaw pour restreindre l'accès aux données à des points de terminaison spécifiques et pré-approuvés, garantissant la conformité aux politiques internes de sécurité et de confidentialité des données.
Les ingénieurs déployant des agents interagissant avec plusieurs services tiers (ex: GitHub, Jira, Slack) utilisent IronClaw pour gérer des identifiants disparates dans un coffre-fort unique et isolé, minimisant le risque de fuite d'identifiants.
Ils doivent déployer des agents autonomes dans des environnements de production sans exposer d'identifiants sensibles aux fournisseurs de LLM ou à des attaques potentielles par injection de prompt.
Ils nécessitent des environnements d'exécution à haute assurance pour les agents manipulant des données financières sensibles, où la sécurité mémoire et l'isolation au niveau matériel sont des exigences réglementaires.
Ils recherchent un framework transparent, auditable et sécurisé pour construire et déployer des agents IA qui privilégient la confidentialité des utilisateurs et la souveraineté des données.
Logiciel open-source. Le runtime est gratuit ; les coûts d'infrastructure sont déterminés par le modèle de déploiement du NEAR AI Cloud.