Dit is de Linux-app genaamd AIMET waarvan de nieuwste release kan worden gedownload als 1.28.0.zip. Het kan online worden uitgevoerd in de gratis hostingprovider OnWorks voor werkstations.
Download en voer deze app met de naam AIMET gratis online uit met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start de OnWorks Linux online of Windows online emulator of MACOS online emulator vanaf deze website.
- 5. Ga vanuit het OnWorks Linux-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie, installeer hem en voer hem uit.
SCREENSHOTS
Ad
AIMET
PRODUCTBESCHRIJVING
Qualcomm Innovation Center (QuIC) loopt voorop bij het mogelijk maken van low-power inferentie aan de edge door baanbrekend onderzoek naar modelefficiëntie. QuIC heeft een missie om het ecosysteem te helpen migreren naar vast punt gevolgtrekking. Met dit doel presenteert QuIC de AI Model Efficiency Toolkit (AIMET) - een bibliotheek die geavanceerde kwantisatie- en compressietechnieken biedt voor getrainde neurale netwerkmodellen. AIMET stelt neurale netwerken in staat efficiënter te werken op vaste AI-hardwareversnellers. Gekwantiseerde inferentie is aanzienlijk sneller dan drijvende-komma-inferentie. Zo hebben modellen die we hebben uitgevoerd op de Qualcomm® Hexagon™ DSP in plaats van op de Qualcomm® Kryo™ CPU geresulteerd in een 5x tot 15x versnelling. Bovendien heeft een 8-bits model ook een 4x kleinere geheugenvoetafdruk in vergelijking met een 32-bits model. Bij het kwantiseren van een machine learning-model (bijvoorbeeld van 32-bits drijvende komma naar een 8-bits vaste-kommawaarde) wordt echter vaak de modelnauwkeurigheid opgeofferd.
Voordelen
- Gelijk gewicht tensoren om amplitudevariatie tussen kanalen te verminderen
- Tensor-decompositietechniek om een grote laag in twee kleinere te splitsen
- Corrigeert verschuiving in laaguitvoer geïntroduceerd als gevolg van kwantisatie
- Verwijdert redundante invoerkanalen uit een laag en reconstrueert laaggewichten
- Gebruik kwantiseringssim om het model verder te trainen om de nauwkeurigheid te verbeteren
- Selecteert automatisch hoeveel elke laag in het model moet worden gecomprimeerd
Programmeertaal
Python
Categorieën
Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/aimet.mirror/. Het is gehost in OnWorks, zodat het op de gemakkelijkste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.