これはTensorRT Backend For ONNXというLinuxアプリです。最新リリースはTensorRT10.13GAParserUpdatesourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーOnWorksでオンラインで実行できます。
TensorRT Backend For ONNX with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
ONNX の TensorRT バックエンド
DESCRIPTION
TensorRT で実行するために ONNX モデルを解析します。 メイン ブランチでの開発は、TensorRT 8.4.1.5 の最新バージョン用であり、完全な次元と動的形状がサポートされています。 TensorRT の以前のバージョンについては、それぞれのブランチを参照してください。 動的形状をサポートするフル ディメンション モードで INetwork オブジェクトを構築するには、C++ および Python API を呼び出す必要があります。 現在サポートされている ONNX オペレーターは、オペレーター サポート マトリックスにあります。 docker 内でビルドするには、メイン (TensorRT リポジトリ) の指示に従って docker コンテナーを使用およびセットアップすることをお勧めします。 このプロジェクトは CUDA に依存していることに注意してください。 デフォルトでは、ビルドは /usr/local/cuda で CUDA ツールキットのインストールを探します。 CUDA パスが異なる場合は、デフォルト パスを上書きします。 ONNX モデルは、onnx2trt 実行可能ファイルを使用してシリアル化された TensorRT エンジンに変換できます。
オプション
- ONNX モデルは人間が読めるテキストに変換できます
- ONNX モデルはシリアル化された TensorRT エンジンに変換できます
- ONNX モデルは、ONNX の最適化ライブラリによって最適化できます
- Pythonモジュール
- TensorRT 8.4.1.5 は ONNX リリース 1.8.0 をサポートします
- ONNX の TensorRT バックエンドは Python で使用できます
プログラミング言語
C + +
カテゴリー
これは https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。