Ini ialah apl Linux bernama TensorRT yang keluaran terbarunya boleh dimuat turun sebagai TensorRT10.12Releasesourcecode.tar.gz. Ia boleh dijalankan dalam talian dalam penyedia pengehosan percuma OnWorks untuk stesen kerja.
Muat turun dan jalankan dalam talian apl bernama TensorRT ini dengan OnWorks secara percuma.
Ikut arahan ini untuk menjalankan apl ini:
- 1. Memuat turun aplikasi ini dalam PC anda.
- 2. Masukkan dalam pengurus fail kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang anda mahukan.
- 3. Muat naik aplikasi ini dalam pengurus filem tersebut.
- 4. Mulakan OnWorks Linux dalam talian atau emulator dalam talian Windows atau emulator dalam talian MACOS dari tapak web ini.
- 5. Daripada OS Linux OnWorks yang baru anda mulakan, pergi ke pengurus fail kami https://www.onworks.net/myfiles.php?username=XXXX dengan nama pengguna yang anda mahukan.
- 6. Muat turun aplikasi, pasang dan jalankan.
SKRIN
Ad
TensorRT
DESCRIPTION
NVIDIA® TensorRT™ ialah SDK untuk inferens pembelajaran mendalam berprestasi tinggi. Ia termasuk pengoptimum inferens pembelajaran mendalam dan masa jalan yang menyampaikan kependaman rendah dan daya pemprosesan tinggi untuk aplikasi inferens pembelajaran mendalam. Aplikasi berasaskan TensorRT berprestasi sehingga 40X lebih pantas daripada platform CPU sahaja semasa inferens. Dengan TensorRT, anda boleh mengoptimumkan model rangkaian saraf yang dilatih dalam semua rangka kerja utama, menentukur untuk ketepatan yang lebih rendah dengan ketepatan yang tinggi dan menggunakan ke pusat data hiperskala, terbenam atau platform produk automotif. TensorRT dibina pada CUDA®, model pengaturcaraan selari NVIDIA, dan membolehkan anda mengoptimumkan inferens memanfaatkan perpustakaan, alat pembangunan dan teknologi dalam CUDA-X™ untuk kecerdasan buatan, mesin autonomi, pengkomputeran berprestasi tinggi dan grafik. Dengan GPU NVIDIA Ampere Architecture baharu, TensorRT juga memanfaatkan teras tensor yang jarang memberikan peningkatan prestasi tambahan.
Ciri-ciri
- TensorRT menyediakan INT8 menggunakan Quantization Aware Training dan Post Training Quantization
- Penggunaan pengeluaran aplikasi inferens pembelajaran mendalam seperti penstriman video, pengecaman pertuturan, pengesyoran, dsb.
- Inferens ketepatan yang dikurangkan dengan ketara mengurangkan kependaman aplikasi
- Dengan TensorRT, pembangun boleh menumpukan pada mencipta aplikasi baru dikuasakan AI dan bukannya penalaan prestasi untuk penggunaan inferens
- Memaksimumkan daya pemprosesan dengan FP16 atau INT8 dengan mengkuantiti model sambil mengekalkan ketepatan
- Mengoptimumkan penggunaan memori GPU dan lebar jalur dengan menggabungkan nod dalam kernel
Bahasa Pengaturcaraan
C + +
Kategori
Ini adalah aplikasi yang juga boleh diambil dari https://sourceforge.net/projects/tensorrt.mirror/. Ia telah dihoskan dalam OnWorks untuk dijalankan dalam talian dengan cara yang paling mudah daripada salah satu Sistem Operasi percuma kami.