Це програма для Linux під назвою XNNPACK, останню версію якої можна завантажити як XNNPACKsourcecode.tar.gz. Її можна запускати онлайн на безкоштовному хостинг-провайдері OnWorks для робочих станцій.
Download and run online this app named XNNPACK with OnWorks for free.
Дотримуйтесь цих інструкцій, щоб запустити цю програму:
- 1. Завантажив цю програму на свій ПК.
- 2. Введіть у наш файловий менеджер https://www.onworks.net/myfiles.php?username=XXXXX із потрібним ім'ям користувача.
- 3. Завантажте цю програму в такий файловий менеджер.
- 4. Запустіть онлайн-емулятор OnWorks Linux або Windows або онлайн-емулятор MACOS з цього веб-сайту.
- 5. З ОС OnWorks Linux, яку ви щойно запустили, перейдіть до нашого файлового менеджера https://www.onworks.net/myfiles.php?username=XXXXX з потрібним іменем користувача.
- 6. Завантажте програму, встановіть її та запустіть.
XNNPACK
Ad
ОПИС
XNNPACK is a highly optimized, low-level neural network inference library developed by Google for accelerating deep learning workloads across a variety of hardware architectures, including ARM, x86, WebAssembly, and RISC-V. Rather than serving as a standalone ML framework, XNNPACK provides high-performance computational primitives—such as convolutions, pooling, activation functions, and arithmetic operations—that are integrated into higher-level frameworks like TensorFlow Lite, PyTorch Mobile, ONNX Runtime, TensorFlow.js, and MediaPipe. The library is written in C/C++ and designed for maximum portability, efficiency, and performance, leveraging platform-specific instruction sets (e.g., NEON, AVX, SIMD) for optimized execution. It supports NHWC tensor layouts and allows flexible striding along the channel dimension to efficiently handle channel-split and concatenation operations without additional cost.
Функції
- Cross-platform neural network inference backend optimized for ARM, x86, WebAssembly, and RISC-V
- High-performance implementations for 2D convolutions, pooling, activation, and quantization operators
- Supports both FP32 and INT8 inference with per-channel quantization
- Efficient NHWC tensor layout with flexible channel stride
- Integrates seamlessly with frameworks like TensorFlow Lite, TensorFlow.js, PyTorch, ONNX Runtime, and MediaPipe
- Multi-threaded and vectorized operator implementations
Мова програмування
Асамблея, C, C++, Unix Shell
Категорії
This is an application that can also be fetched from https://sourceforge.net/projects/xnnpack.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.