Amazon Best VPN GoSearch

OnWorks-favicon

TensorRT-download voor Linux

Gratis download TensorRT Linux-app om online te draaien in Ubuntu online, Fedora online of Debian online

Dit is de Linux-app TensorRT, waarvan de nieuwste versie kan worden gedownload als TensorRT10.12Releasesourcecode.tar.gz. Deze kan online worden uitgevoerd via de gratis hostingprovider OnWorks voor werkstations.

Download en voer deze app met de naam TensorRT gratis online uit met OnWorks.

Volg deze instructies om deze app uit te voeren:

- 1. Download deze applicatie op uw pc.

- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.

- 3. Upload deze applicatie in zo'n bestandsbeheerder.

- 4. Start de OnWorks Linux online of Windows online emulator of MACOS online emulator vanaf deze website.

- 5. Ga vanuit het OnWorks Linux-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.

- 6. Download de applicatie, installeer hem en voer hem uit.

SCREENSHOTS

Ad


TensorRT


PRODUCTBESCHRIJVING

NVIDIA® TensorRT™ is een SDK voor high-performance deep learning-inferentie. Het bevat een deep learning-inferentie-optimizer en runtime die lage latentie en hoge doorvoer levert voor deep learning-inferentietoepassingen. TensorRT-gebaseerde applicaties presteren tijdens inferentie tot 40x sneller dan CPU-only platforms. Met TensorRT kunt u neurale netwerkmodellen optimaliseren die zijn getraind in alle belangrijke frameworks, kalibreren voor lagere precisie met hoge nauwkeurigheid en implementeren in hyperscale datacenters, embedded of automotive productplatforms. TensorRT is gebouwd op CUDA®, het parallelle programmeermodel van NVIDIA, en stelt u in staat om inferentie te optimaliseren door gebruik te maken van bibliotheken, ontwikkelingshulpmiddelen en technologieën in CUDA-X™ voor kunstmatige intelligentie, autonome machines, high-performance computing en graphics. Met nieuwe NVIDIA Ampere Architecture GPU's maakt TensorRT ook gebruik van schaarse tensorkernen, wat een extra prestatieverbetering oplevert.



Kenmerken

  • TensorRT biedt INT8 met behulp van Quantization Aware Training en Post Training Quantization
  • Productie-implementaties van deep learning-inferentietoepassingen zoals videostreaming, spraakherkenning, aanbeveling, enz.
  • Verminderde precisie-inferentie vermindert de applicatielatentie aanzienlijk
  • Met TensorRT kunnen ontwikkelaars zich concentreren op het maken van nieuwe AI-aangedreven applicaties in plaats van prestatieafstemming voor inferentie-implementatie
  • Maximaliseert de doorvoer met FP16 of INT8 door modellen te kwantiseren met behoud van nauwkeurigheid
  • Optimaliseert het gebruik van GPU-geheugen en bandbreedte door knooppunten in een kernel te fuseren


Programmeertaal

C + +


Categorieën

Bibliotheken, machine learning, neurale netwerkbibliotheken, deep learning-frameworks, runtimes, LLM-inferentie

Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/tensorrt.mirror/. Het is gehost in OnWorks, zodat het op de gemakkelijkste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.


Gratis servers en werkstations

Windows- en Linux-apps downloaden

Linux-commando's

Ad




×
advertentie
❤️Koop, boek of koop hier — het is gratis, en zo blijven onze diensten gratis.