GoGPT Best VPN GoSearch

Icône de favori OnWorks

XNNPACK download for Linux

Téléchargez gratuitement l'application Linux XNNPACK pour l'exécuter en ligne dans Ubuntu en ligne, Fedora en ligne ou Debian en ligne

Il s'agit de l'application Linux XNNPACK, dont la dernière version est téléchargeable sous le nom XNNPACKsourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.

Download and run online this app named XNNPACK with OnWorks for free.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.

- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application, installez-la et exécutez-la.

XNNPACK


Ad


DESCRIPTION

XNNPACK is a highly optimized, low-level neural network inference library developed by Google for accelerating deep learning workloads across a variety of hardware architectures, including ARM, x86, WebAssembly, and RISC-V. Rather than serving as a standalone ML framework, XNNPACK provides high-performance computational primitives—such as convolutions, pooling, activation functions, and arithmetic operations—that are integrated into higher-level frameworks like TensorFlow Lite, PyTorch Mobile, ONNX Runtime, TensorFlow.js, and MediaPipe. The library is written in C/C++ and designed for maximum portability, efficiency, and performance, leveraging platform-specific instruction sets (e.g., NEON, AVX, SIMD) for optimized execution. It supports NHWC tensor layouts and allows flexible striding along the channel dimension to efficiently handle channel-split and concatenation operations without additional cost.



Comment ça marche

  • Cross-platform neural network inference backend optimized for ARM, x86, WebAssembly, and RISC-V
  • High-performance implementations for 2D convolutions, pooling, activation, and quantization operators
  • Supports both FP32 and INT8 inference with per-channel quantization
  • Efficient NHWC tensor layout with flexible channel stride
  • Integrates seamlessly with frameworks like TensorFlow Lite, TensorFlow.js, PyTorch, ONNX Runtime, and MediaPipe
  • Multi-threaded and vectorized operator implementations


Langage de programmation

Assemblage, C, C++, Shell Unix


Catégories

Bibliothèques de réseaux de neurones

This is an application that can also be fetched from https://sourceforge.net/projects/xnnpack.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad




×
Publicité
❤ ️Achetez, réservez ou achetez ici — gratuitement, contribue à maintenir la gratuité des services.