Ito ang Linux app na pinangalanang TensorRT Backend Para sa ONNX na ang pinakabagong release ay maaaring ma-download bilang TensorRT10.13GAParserUpdatesourcecode.tar.gz. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang TensorRT Backend For ONNX na may OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.
- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application, i-install ito at patakbuhin ito.
MGA LALAKI
Ad
TensorRT Backend Para sa ONNX
DESCRIPTION
Pinag-parse ang mga modelo ng ONNX para sa pagpapatupad sa TensorRT. Ang pag-develop sa pangunahing sangay ay para sa pinakabagong bersyon ng TensorRT 8.4.1.5 na may buong sukat at suporta sa dynamic na hugis. Para sa mga nakaraang bersyon ng TensorRT, sumangguni sa kani-kanilang sangay. Ang pagbuo ng mga bagay sa INetwork sa mode ng buong dimensyon na may suporta sa dynamic na hugis ay nangangailangan ng pagtawag sa C++ at Python API. Ang mga kasalukuyang sinusuportahang operator ng ONNX ay matatagpuan sa operator support matrix. Para sa pagbuo sa loob ng docker, inirerekumenda namin ang paggamit at pag-set up ng mga docker container gaya ng itinuro sa pangunahing (Repository ng TensorRT). Tandaan na ang proyektong ito ay may dependency sa CUDA. Bilang default, titingnan ang build sa /usr/local/cuda para sa pag-install ng CUDA toolkit. Kung iba ang iyong CUDA path, i-overwrite ang default na path. Ang mga modelo ng ONNX ay maaaring i-convert sa mga serialized na TensorRT engine gamit ang onnx2trt executable.
Mga tampok
- Maaaring i-convert ang mga modelo ng ONNX sa text na nababasa ng tao
- Ang mga modelo ng ONNX ay maaaring i-convert sa mga serialized na TensorRT engine
- Ang mga modelo ng ONNX ay maaaring i-optimize ng mga library ng pag-optimize ng ONNX
- Mga Module ng Python
- Sinusuportahan ng TensorRT 8.4.1.5 ang ONNX release 1.8.0
- Ang TensorRT backend para sa ONNX ay maaaring gamitin sa Python
Wika ng Programming
C + +
Kategorya
Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.