Il s'agit de l'application Linux nommée TensorRT Backend For ONNX dont la dernière version peut être téléchargée sous le nom ONNX-TensorRT8.6EARelease.zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée TensorRT Backend For ONNX avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
Backend TensorRT pour ONNX
DESCRIPTION
Analyse les modèles ONNX pour les exécuter avec TensorRT. Le développement sur la branche principale concerne la dernière version de TensorRT 8.4.1.5 avec des dimensions complètes et un support de forme dynamique. Pour les versions précédentes de TensorRT, reportez-vous à leurs branches respectives. La création d'objets INetwork en mode pleine dimension avec prise en charge des formes dynamiques nécessite l'appel de l'API C++ et Python. Les opérateurs ONNX actuellement pris en charge se trouvent dans la matrice de prise en charge des opérateurs. Pour la construction dans Docker, nous vous recommandons d'utiliser et de configurer les conteneurs Docker comme indiqué dans le principal (référentiel TensorRT). Notez que ce projet dépend de CUDA. Par défaut, la construction cherchera dans /usr/local/cuda pour l'installation de la boîte à outils CUDA. Si votre chemin CUDA est différent, remplacez le chemin par défaut. Les modèles ONNX peuvent être convertis en moteurs TensorRT sérialisés à l'aide de l'exécutable onnx2trt.
Fonctionnalités:
- Les modèles ONNX peuvent être convertis en texte lisible par l'homme
- Les modèles ONNX peuvent être convertis en moteurs TensorRT sérialisés
- Les modèles ONNX peuvent être optimisés par les bibliothèques d'optimisation d'ONNX
- Modules Python
- TensorRT 8.4.1.5 prend en charge la version 1.8.0 d'ONNX
- Le backend TensorRT pour ONNX peut être utilisé en Python
Langage de programmation
C + +
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.