
高性能なモデル推論を実現する、クロスプラットフォーム対応の機械学習エンジン。
フリーミアム

ONNX Runtimeは、多様なハードウェアやソフトウェア環境において機械学習モデルを最適化するという共通の課題を解決するために設計された、プロダクションレベルのAIエンジンです。トレーニングと推論のための統合インターフェースを提供することで、パフォーマンスを犠牲にすることなく、CPU、GPU、NPU全体でモデルをデプロイすることが可能です。大規模言語モデル(LLM)から標準的な予測モデルまで、基盤となるインフラストラクチャに関わらず、アプリケーションの低遅延と高スループットを維持します。柔軟性を重視して設計されており、Python、C#、C++、Java、JavaScript、Rustなど幅広いプログラミング言語をサポートしているため、複雑な技術スタックにおいても汎用性の高い選択肢となります。開発と本番環境のギャップを埋め、Linux、Windows、macOS、モバイルプラットフォーム、Webブラウザ間で一貫したモデル動作を維持できます。最先端モデルの実行を効率化することで、エンジニアはハードウェアの互換性やパフォーマンス低下のトラブルシューティングではなく、インテリジェントな機能の開発に集中できるようになります。
CPU、GPU、NPUを含む幅広いハードウェア全体で、レイテンシ、スループット、メモリ使用率のパフォーマンスを最適化し、あらゆるデバイスでモデルを効率的に実行します。
Linux、Windows、macOSなどの主要なオペレーティングシステムに加え、モバイルプラットフォームやWebブラウザでも堅牢な互換性を提供し、真にポータブルなAI戦略を可能にします。
Python、C#、C++、Java、JavaScript、Rustを使用する開発者向けにネイティブ統合を提供し、多様な既存の技術スタックへ高性能なAIを容易に組み込めるようにします。
最先端の大規模言語モデルのデプロイを可能にし、テキスト生成や画像合成といった高度なタスクを本番アプリケーション内で直接実行できるようにします。
最適化されたランタイム構成を活用することで、モバイル端末やIoTハードウェアなどのリソースが制限されたデバイス上でも、高性能なAIモデルをデプロイできます。
エンジニアは機械学習モデルを本番環境で確実に提供でき、エンドユーザーのアプリケーションにおいて低遅延かつ高スループットなパフォーマンスを実現します。
複数のプラットフォーム向けにアプリケーションを構築するチームは、単一の統合ランタイムを使用することで、デスクトップ、モバイル、Web環境全体で一貫したAIパフォーマンスを維持できます。
AIアプリケーションがプロダクションレベルのパフォーマンス基準を満たすよう、モデルの推論速度とリソース効率の最適化に注力する専門家。
さまざまな言語でアプリケーションにAIを統合する際、既存のスタックに適合する信頼性の高い高性能な実行エンジンを必要としている開発者。