GoGPT Best VPN GoSearch

OnWorksファビコン

Linux 用 ONNX ダウンロード用の TensorRT バックエンド

TensorRT Backend for ONNX Linux アプリを無料でダウンロードして、Ubuntu オンライン、Fedora オンライン、または Debian オンラインでオンラインで実行する

これはTensorRT Backend For ONNXというLinuxアプリです。最新リリースはTensorRT10.13GAParserUpdatesourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーOnWorksでオンラインで実行できます。

TensorRT Backend For ONNX with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

スクリーンショットは

Ad


ONNX の TensorRT バックエンド


DESCRIPTION

TensorRT で実行するために ONNX モデルを解析します。 メイン ブランチでの開発は、TensorRT 8.4.1.5 の最新バージョン用であり、完全な次元と動的形状がサポートされています。 TensorRT の以前のバージョンについては、それぞれのブランチを参照してください。 動的形状をサポートするフル ディメンション モードで INetwork オブジェクトを構築するには、C++ および Python API を呼び出す必要があります。 現在サポートされている ONNX オペレーターは、オペレーター サポート マトリックスにあります。 docker 内でビルドするには、メイン (TensorRT リポジトリ) の指示に従って docker コンテナーを使用およびセットアップすることをお勧めします。 このプロジェクトは CUDA に依存していることに注意してください。 デフォルトでは、ビルドは /usr/local/cuda で CUDA ツールキットのインストールを探します。 CUDA パスが異なる場合は、デフォルト パスを上書きします。 ONNX モデルは、onnx2trt 実行可能ファイルを使用してシリアル化された TensorRT エンジンに変換できます。



オプション

  • ONNX モデルは人間が読めるテキストに変換できます
  • ONNX モデルはシリアル化された TensorRT エンジンに変換できます
  • ONNX モデルは、ONNX の最適化ライブラリによって最適化できます
  • Pythonモジュール
  • TensorRT 8.4.1.5 は ONNX リリース 1.8.0 をサポートします
  • ONNX の TensorRT バックエンドは Python で使用できます


プログラミング言語

C + +


カテゴリー

機械学習

これは https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad




×
Advertisement
❤️ここでショッピング、予約、購入してください。料金はかかりません。これにより、サービスが無料で維持されます。