Il s'agit de l'application Linux nommée Torch-TensorRT dont la dernière version peut être téléchargée en tant que Torch-TensorRTv1.3.0.zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez gratuitement en ligne cette application nommée Torch-TensorRT avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
Torche-TensorRT
DESCRIPTION
Torch-TensorRT est un compilateur pour PyTorch/TorchScript, ciblant les GPU NVIDIA via TensorRT Deep Learning Optimizer et Runtime de NVIDIA. Contrairement au compilateur Just-In-Time (JIT) de PyTorch, Torch-TensorRT est un compilateur Ahead-of-Time (AOT), ce qui signifie qu'avant de déployer votre code TorchScript, vous passez par une étape de compilation explicite pour convertir un programme TorchScript standard en un module ciblant un moteur TensorRT. Torch-TensorRT fonctionne comme une extension PyTorch et compile des modules qui s'intègrent de manière transparente dans le runtime JIT. Après la compilation, l'utilisation du graphique optimisé ne devrait pas être différente de l'exécution d'un module TorchScript. Vous avez également accès à la suite de configurations de TensorRT au moment de la compilation, vous pouvez donc spécifier la précision de fonctionnement (FP32/FP16/INT8) et d'autres paramètres pour votre module.
Fonctionnalités:
- Construire un conteneur docker pour Torch-TensorRT
- Conteneur NVIDIA NGC
- Nécessite Libtorch 1.12.0 (construit avec CUDA 11.3)
- Construire à l'aide des distributions tarball cuDNN et TensorRT
- Tester en utilisant le backend Python
- Vous avez accès à la suite de configurations de TensorRT au moment de la compilation
Langage de programmation
C + +
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/torch-tensorrt.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.