Il s'agit de l'application Windows TensorRT Backend pour ONNX, dont la dernière version est téléchargeable sous le nom TensorRT10.13GAParserUpdatesourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée TensorRT Backend For ONNX avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
Backend TensorRT pour ONNX
DESCRIPTION
Analyse les modèles ONNX pour les exécuter avec TensorRT. Le développement sur la branche principale concerne la dernière version de TensorRT 8.4.1.5 avec des dimensions complètes et un support de forme dynamique. Pour les versions précédentes de TensorRT, reportez-vous à leurs branches respectives. La création d'objets INetwork en mode pleine dimension avec prise en charge des formes dynamiques nécessite l'appel de l'API C++ et Python. Les opérateurs ONNX actuellement pris en charge se trouvent dans la matrice de prise en charge des opérateurs. Pour la construction dans Docker, nous vous recommandons d'utiliser et de configurer les conteneurs Docker comme indiqué dans le principal (référentiel TensorRT). Notez que ce projet dépend de CUDA. Par défaut, la construction cherchera dans /usr/local/cuda pour l'installation de la boîte à outils CUDA. Si votre chemin CUDA est différent, remplacez le chemin par défaut. Les modèles ONNX peuvent être convertis en moteurs TensorRT sérialisés à l'aide de l'exécutable onnx2trt.
Caractéristiques
- Les modèles ONNX peuvent être convertis en texte lisible par l'homme
- Les modèles ONNX peuvent être convertis en moteurs TensorRT sérialisés
- Les modèles ONNX peuvent être optimisés par les bibliothèques d'optimisation d'ONNX
- Modules Python
- TensorRT 8.4.1.5 prend en charge la version 1.8.0 d'ONNX
- Le backend TensorRT pour ONNX peut être utilisé en Python
Langage de programmation
C + +
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.