GoGPT Best VPN GoSearch

Значок OnWorks

XNNPACK download for Linux

Безкоштовне завантаження програми XNNPACK для Linux для роботи в Ubuntu, Fedora або Debian

Це програма для Linux під назвою XNNPACK, останню версію якої можна завантажити як XNNPACKsourcecode.tar.gz. Її можна запускати онлайн на безкоштовному хостинг-провайдері OnWorks для робочих станцій.

Download and run online this app named XNNPACK with OnWorks for free.

Дотримуйтесь цих інструкцій, щоб запустити цю програму:

- 1. Завантажив цю програму на свій ПК.

- 2. Введіть у наш файловий менеджер https://www.onworks.net/myfiles.php?username=XXXXX із потрібним ім'ям користувача.

- 3. Завантажте цю програму в такий файловий менеджер.

- 4. Запустіть онлайн-емулятор OnWorks Linux або Windows або онлайн-емулятор MACOS з цього веб-сайту.

- 5. З ОС OnWorks Linux, яку ви щойно запустили, перейдіть до нашого файлового менеджера https://www.onworks.net/myfiles.php?username=XXXXX з потрібним іменем користувача.

- 6. Завантажте програму, встановіть її та запустіть.

XNNPACK


Ad


ОПИС

XNNPACK is a highly optimized, low-level neural network inference library developed by Google for accelerating deep learning workloads across a variety of hardware architectures, including ARM, x86, WebAssembly, and RISC-V. Rather than serving as a standalone ML framework, XNNPACK provides high-performance computational primitives—such as convolutions, pooling, activation functions, and arithmetic operations—that are integrated into higher-level frameworks like TensorFlow Lite, PyTorch Mobile, ONNX Runtime, TensorFlow.js, and MediaPipe. The library is written in C/C++ and designed for maximum portability, efficiency, and performance, leveraging platform-specific instruction sets (e.g., NEON, AVX, SIMD) for optimized execution. It supports NHWC tensor layouts and allows flexible striding along the channel dimension to efficiently handle channel-split and concatenation operations without additional cost.



Функції

  • Cross-platform neural network inference backend optimized for ARM, x86, WebAssembly, and RISC-V
  • High-performance implementations for 2D convolutions, pooling, activation, and quantization operators
  • Supports both FP32 and INT8 inference with per-channel quantization
  • Efficient NHWC tensor layout with flexible channel stride
  • Integrates seamlessly with frameworks like TensorFlow Lite, TensorFlow.js, PyTorch, ONNX Runtime, and MediaPipe
  • Multi-threaded and vectorized operator implementations


Мова програмування

Асамблея, C, C++, Unix Shell


Категорії

Бібліотеки нейронних мереж

This is an application that can also be fetched from https://sourceforge.net/projects/xnnpack.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.


Безкоштовні сервери та робочі станції

Завантажте програми для Windows і Linux

Команди Linux

Ad




×
реклама
❤️Робіть покупки, бронюйте або купуйте тут — безкоштовно, це допомагає зберегти послуги безкоштовними.