
一款用於高效能模型推論的跨平台機器學習引擎。
免費增值

ONNX Runtime 是一款工業級 AI 引擎,專為解決機器學習模型在不同軟硬體環境中進行優化時常見的瓶頸而設計。透過提供統一的訓練與推論介面,它讓開發團隊能夠在 CPU、GPU 和 NPU 上部署模型,且無需犧牲效能。無論您是處理大型語言模型 (LLM) 還是標準預測模型,此引擎都能確保您的應用程式在各種基礎架構下維持低延遲與高吞吐量。為了追求靈活性,該執行環境支援多種程式語言,包括 Python、C#、C++、Java、JavaScript 和 Rust,使其成為複雜技術堆疊的靈活選擇。它彌合了開發與生產環境之間的差距,讓開發人員能夠在 Linux、Windows、macOS、行動平台及網頁瀏覽器上保持一致的模型行為。透過簡化先進模型的執行流程,它讓工程師能專注於建構智慧功能,而無需處理硬體相容性或效能下降的問題。
針對 CPU、GPU 和 NPU 等多種硬體優化延遲、吞吐量與記憶體使用率,確保您的模型能在任何裝置上高效執行。
在 Linux、Windows 和 macOS 等主要作業系統,以及行動平台和網頁瀏覽器上提供強大的相容性,實現真正的可攜式 AI 策略。
為使用 Python、C#、C++、Java、JavaScript 和 Rust 的開發人員提供原生整合,輕鬆將高效能 AI 納入多樣化且現有的技術堆疊中。
支援部署最先進的大型語言模型,直接在您的生產應用程式中實現文字生成與影像合成等進階任務。
開發人員可透過優化的執行環境配置,將高效能 AI 模型部署在手機或物聯網 (IoT) 硬體等資源受限的裝置上。
工程師可以在生產環境中可靠地提供機器學習模型服務,確保終端使用者應用程式能受益於低延遲與高吞吐量的效能。
為多平台建構應用程式的團隊可以使用單一的統一執行環境,在桌面、行動裝置和網頁環境中維持一致的 AI 效能。
專注於優化模型推論速度與資源效率,以確保其 AI 應用程式符合工業級效能標準的專業人士。
需要在各種程式語言中整合 AI,並尋求能融入現有技術堆疊且可靠、高效能執行引擎的開發者。
ONNX Runtime 為開源專案,可免費使用。