
Runtime de agente IA com TEE
Grátis

IronClaw é um runtime open-source focado em segurança para agentes de IA, projetado como uma alternativa robusta ao OpenClaw. Ele aborda a vulnerabilidade crítica de exposição de credenciais ao executar agentes dentro de Trusted Execution Environments (TEEs) na NEAR AI Cloud. Diferente de frameworks de agentes padrão onde LLMs têm acesso direto a chaves de API, o IronClaw usa um cofre criptografado que injeta credenciais apenas em requisições de rede autorizadas em uma lista de permissões. Ao utilizar Rust para segurança de memória e isolamento baseado em TEE, ele mitiga riscos como prompt injection e exfiltração de dados não autorizada. É ideal para desenvolvedores que criam agentes autônomos que exigem acesso a APIs de produção sensíveis, serviços financeiros ou dados privados de usuários.
O IronClaw executa agentes dentro de enclaves criptografados por hardware. Isso garante que, mesmo que o SO host ou hypervisor subjacente seja comprometido, a memória e o estado interno do agente permaneçam criptografados e inacessíveis a processos externos. Isso fornece uma camada de defesa em profundidade que ambientes conteinerizados padrão não conseguem igualar, isolando efetivamente a execução do agente da infraestrutura do provedor de nuvem.
Em vez de passar chaves brutas para a LLM, o IronClaw armazena segredos em um cofre protegido. O runtime atua como um proxy seguro, injetando credenciais em requisições HTTP de saída apenas quando a URL de destino corresponde a uma lista de permissões pré-configurada. Isso evita ataques de prompt injection que visam exfiltrar chaves, já que a LLM nunca vê os valores secretos brutos, apenas o resultado da requisição autorizada.
O runtime principal é construído em Rust, aproveitando seu modelo de propriedade estrito e borrow checker para eliminar vulnerabilidades comuns de corrupção de memória, como buffer overflows ou erros de use-after-free. Ao garantir a segurança de memória no nível da linguagem, o IronClaw reduz a superfície de ataque para exploits que visam o ambiente de execução do agente, fornecendo uma base robusta para automação de alto risco.
O IronClaw impõe filtragem de saída estrita via uma struct AllowList. Ao definir explicitamente com quais endpoints um agente pode se comunicar, os desenvolvedores evitam a exfiltração de dados não autorizada para servidores maliciosos. O runtime valida cada requisição contra esta lista antes de aplicar cabeçalhos de autenticação, garantindo que mesmo um agente comprometido não possa enviar dados sensíveis para um domínio de terceiros não aprovado.
A plataforma utiliza `wasmparser` para validar o código do agente antes da execução. Ao escanear operações inseguras e garantir que o bytecode esteja em conformidade com padrões de segurança estritos, o IronClaw impede a execução de lógica de agente maliciosa ou malformada. Esta etapa de verificação automatizada ocorre durante a implantação, garantindo que apenas código auditado e seguro tenha permissão para rodar dentro do TEE.
Desenvolvedores que criam agentes para gerenciar carteiras cripto ou APIs bancárias usam o IronClaw para garantir que chaves de API nunca sejam expostas à janela de contexto da LLM, evitando transferências de fundos não autorizadas via prompt injection.
Agentes de IA corporativos que acessam bancos de dados internos ou ferramentas SaaS privadas usam o IronClaw para restringir o acesso a dados a endpoints específicos e pré-aprovados, garantindo conformidade com políticas internas de segurança e privacidade de dados.
Engenheiros que implantam agentes que interagem com múltiplos serviços de terceiros (ex: GitHub, Jira, Slack) usam o IronClaw para gerenciar credenciais díspares em um único cofre isolado, minimizando o risco de vazamento de credenciais.
Precisam implantar agentes autônomos em ambientes de produção sem expor credenciais sensíveis a provedores de LLM ou potenciais ataques de prompt injection.
Requerem ambientes de execução de alta garantia para agentes que lidam com dados financeiros sensíveis, onde a segurança de memória e o isolamento em nível de hardware são requisitos regulatórios.
Buscam um framework transparente, auditável e seguro para construir e implantar agentes de IA que priorizem a privacidade do usuário e a soberania dos dados.
Software open-source. O runtime é gratuito para uso; os custos de infraestrutura são determinados pelo modelo de implantação da NEAR AI Cloud.