Ini adalah aplikasi Windows bernama TensorRT Backend For ONNX yang rilis terbarunya dapat diunduh sebagai TensorRT10.13GAParserUpdatesourcecode.tar.gz. Aplikasi ini dapat dijalankan secara daring di penyedia hosting gratis OnWorks untuk workstation.
Unduh dan jalankan secara online aplikasi ini bernama TensorRT Backend For ONNX dengan OnWorks secara gratis.
Ikuti petunjuk ini untuk menjalankan aplikasi ini:
- 1. Download aplikasi ini di PC Anda.
- 2. Masuk ke file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan username yang anda inginkan.
- 3. Upload aplikasi ini di filemanager tersebut.
- 4. Mulai emulator online OS OnWorks apa pun dari situs web ini, tetapi emulator online Windows yang lebih baik.
- 5. Dari OS Windows OnWorks yang baru saja Anda mulai, buka file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang Anda inginkan.
- 6. Unduh aplikasi dan instal.
- 7. Unduh Wine dari repositori perangkat lunak distribusi Linux Anda. Setelah terinstal, Anda kemudian dapat mengklik dua kali aplikasi untuk menjalankannya dengan Wine. Anda juga dapat mencoba PlayOnLinux, antarmuka mewah di atas Wine yang akan membantu Anda menginstal program dan game Windows populer.
Wine adalah cara untuk menjalankan perangkat lunak Windows di Linux, tetapi tidak memerlukan Windows. Wine adalah lapisan kompatibilitas Windows sumber terbuka yang dapat menjalankan program Windows secara langsung di desktop Linux apa pun. Pada dasarnya, Wine mencoba untuk mengimplementasikan kembali Windows dari awal sehingga dapat menjalankan semua aplikasi Windows tersebut tanpa benar-benar membutuhkan Windows.
Tangkapan layar
Ad
Backend TensorRT Untuk ONNX
DESKRIPSI
Mem-parsing model ONNX untuk dieksekusi dengan TensorRT. Pengembangan pada cabang utama adalah untuk versi terbaru TensorRT 8.4.1.5 dengan dukungan dimensi penuh dan bentuk dinamis. Untuk versi TensorRT sebelumnya, lihat cabangnya masing-masing. Membangun objek INetwork dalam mode dimensi penuh dengan dukungan bentuk dinamis memerlukan pemanggilan C++ dan Python API. Operator ONNX yang didukung saat ini ditemukan dalam matriks dukungan operator. Untuk membangun di dalam buruh pelabuhan, kami sarankan untuk menggunakan dan menyiapkan kontainer buruh pelabuhan seperti yang diinstruksikan di main (repositori TensorRT). Perhatikan bahwa proyek ini memiliki ketergantungan pada CUDA. Secara default build akan mencari di /usr/local/cuda untuk instalasi toolkit CUDA. Jika jalur CUDA Anda berbeda, timpa jalur default. Model ONNX dapat dikonversi ke mesin TensorRT berseri menggunakan executable onnx2trt.
Fitur
- Model ONNX dapat dikonversi menjadi teks yang dapat dibaca manusia
- Model ONNX dapat dikonversi ke mesin TensorRT berseri
- Model ONNX dapat dioptimalkan oleh pustaka pengoptimalan ONNX
- Modul Python
- TensorRT 8.4.1.5 mendukung rilis ONNX 1.8.0
- Backend TensorRT untuk ONNX dapat digunakan dengan Python
Bahasa Pemrograman
C + +
KATEGORI
Ini adalah aplikasi yang juga dapat diambil dari https://sourceforge.net/projects/tensortt-backend-onnx.mirror/. Itu telah dihosting di OnWorks untuk dijalankan secara online dengan cara termudah dari salah satu Sistem Operasi gratis kami.