
TEE-gesicherte AI-Agent-Runtime
Frei

IronClaw ist eine Open-Source, sicherheitsorientierte Runtime für AI-Agenten, konzipiert als gehärtete Alternative zu OpenClaw. Sie adressiert die kritische Schwachstelle der Credential-Exposition, indem Agenten innerhalb von Trusted Execution Environments (TEEs) auf der NEAR AI Cloud ausgeführt werden. Im Gegensatz zu Standard-Agent-Frameworks, bei denen LLMs direkten Zugriff auf rohe API-Keys haben, nutzt IronClaw einen verschlüsselten Vault, der Credentials nur in autorisierte, auf einer Allow-List stehende Netzwerkanfragen injiziert. Durch den Einsatz von Rust für Memory-Safety und TEE-basierte Isolation werden Risiken wie Prompt-Injection und unbefugte Datenexfiltration gemindert. Ideal für Entwickler, die autonome Agenten bauen, die Zugriff auf sensible Produktions-APIs, Finanzdienste oder private Nutzerdaten benötigen.
IronClaw führt Agenten innerhalb hardwareverschlüsselter Enclaves aus. Dies stellt sicher, dass selbst bei einer Kompromittierung des zugrunde liegenden Host-OS oder Hypervisors der Speicher und der interne Zustand des Agenten verschlüsselt und für externe Prozesse unzugänglich bleiben. Dies bietet eine Defense-in-Depth-Schicht, die standardmäßige containerisierte Umgebungen nicht erreichen können, und isoliert die Ausführung des Agenten effektiv von der Infrastruktur des Cloud-Anbieters.
Anstatt rohe Keys an das LLM weiterzugeben, speichert IronClaw Secrets in einem gehärteten Vault. Die Runtime fungiert als sicherer Proxy und injiziert Credentials nur dann in ausgehende HTTP-Anfragen, wenn die Ziel-URL mit einer vorkonfigurierten Allow-List übereinstimmt. Dies verhindert, dass Prompt-Injection-Angriffe Keys exfiltrieren, da das LLM niemals die rohen Secret-Werte sieht, sondern nur das Ergebnis der autorisierten Anfrage.
Die Kern-Runtime ist in Rust geschrieben und nutzt dessen striktes Ownership-Modell und Borrow-Checker, um häufige Speicherfehler wie Buffer Overflows oder Use-after-Free-Fehler zu eliminieren. Durch die Gewährleistung von Memory-Safety auf Sprachebene reduziert IronClaw die Angriffsfläche für Exploits, die auf die Runtime-Umgebung des Agenten abzielen, und bietet eine robuste Grundlage für hochkritische Automatisierung.
IronClaw erzwingt striktes Egress-Filtering über eine AllowList-Struktur. Durch die explizite Definition, mit welchen Endpunkten ein Agent kommunizieren darf, verhindern Entwickler die unbefugte Datenexfiltration an bösartige Server. Die Runtime validiert jede Anfrage gegen diese Liste, bevor Authentifizierungs-Header angewendet werden, wodurch sichergestellt wird, dass selbst ein kompromittierter Agent keine sensiblen Daten an eine nicht genehmigte Drittanbieter-Domain senden kann.
Die Plattform nutzt 'wasmparser', um Agenten-Code vor der Ausführung zu validieren. Durch das Scannen auf unsichere Operationen und die Sicherstellung, dass der Bytecode strikten Sicherheitsstandards entspricht, verhindert IronClaw die Ausführung von bösartiger oder fehlerhafter Agenten-Logik. Dieser automatisierte Verifizierungsschritt erfolgt während des Deployments und stellt sicher, dass nur geprüfter und sicherer Code innerhalb der TEE ausgeführt werden darf.
Entwickler, die Agenten zur Verwaltung von Krypto-Wallets oder Bank-APIs bauen, nutzen IronClaw, um sicherzustellen, dass API-Keys niemals dem Kontextfenster des LLMs ausgesetzt sind, was unbefugte Geldtransfers via Prompt-Injection verhindert.
Unternehmens-KI-Agenten, die auf interne Datenbanken oder private SaaS-Tools zugreifen, nutzen IronClaw, um den Datenzugriff auf spezifische, vorab genehmigte Endpunkte zu beschränken und so die Einhaltung interner Sicherheits- und Datenschutzrichtlinien zu gewährleisten.
Ingenieure, die Agenten bereitstellen, die mit mehreren Drittanbieterdiensten (z. B. GitHub, Jira, Slack) interagieren, nutzen IronClaw, um disparate Credentials in einem einzigen, isolierten Vault zu verwalten und das Risiko von Credential-Lecks zu minimieren.
Sie müssen autonome Agenten in Produktionsumgebungen bereitstellen, ohne sensible Credentials gegenüber LLM-Anbietern oder potenziellen Prompt-Injection-Angriffen offenzulegen.
Sie benötigen hochsichere Ausführungsumgebungen für Agenten, die sensible Finanzdaten verarbeiten, bei denen Memory-Safety und hardwarebasierte Isolation regulatorische Anforderungen sind.
Sie suchen nach einem transparenten, auditierbaren und sicheren Framework für den Bau und das Deployment von KI-Agenten, die Privatsphäre und Datensouveränität der Nutzer priorisieren.
Open-Source-Software. Die Runtime ist kostenlos nutzbar; Infrastrukturkosten werden durch das Deployment-Modell der NEAR AI Cloud bestimmt.