GoGPT Best VPN GoSearch

Biểu tượng yêu thích OnWorks

XNNPACK download for Linux

Tải xuống miễn phí ứng dụng XNNPACK Linux để chạy trực tuyến trên Ubuntu trực tuyến, Fedora trực tuyến hoặc Debian trực tuyến

Đây là ứng dụng Linux có tên XNNPACK, phiên bản mới nhất có thể tải xuống dưới dạng XNNPACKsourcecode.tar.gz. Ứng dụng có thể chạy trực tuyến trên nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks dành cho máy trạm.

Download and run online this app named XNNPACK with OnWorks for free.

Làm theo các hướng dẫn sau để chạy ứng dụng này:

- 1. Đã tải ứng dụng này xuống PC của bạn.

- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.

- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.

- 4. Khởi động trình giả lập trực tuyến OnWorks Linux hoặc trình giả lập trực tuyến Windows hoặc trình mô phỏng trực tuyến MACOS từ trang web này.

- 5. Từ Hệ điều hành OnWorks Linux mà bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.

- 6. Tải xuống ứng dụng, cài đặt và chạy nó.

XNNPACK


Ad


MÔ TẢ

XNNPACK is a highly optimized, low-level neural network inference library developed by Google for accelerating deep learning workloads across a variety of hardware architectures, including ARM, x86, WebAssembly, and RISC-V. Rather than serving as a standalone ML framework, XNNPACK provides high-performance computational primitives—such as convolutions, pooling, activation functions, and arithmetic operations—that are integrated into higher-level frameworks like TensorFlow Lite, PyTorch Mobile, ONNX Runtime, TensorFlow.js, and MediaPipe. The library is written in C/C++ and designed for maximum portability, efficiency, and performance, leveraging platform-specific instruction sets (e.g., NEON, AVX, SIMD) for optimized execution. It supports NHWC tensor layouts and allows flexible striding along the channel dimension to efficiently handle channel-split and concatenation operations without additional cost.



Tính năng

  • Cross-platform neural network inference backend optimized for ARM, x86, WebAssembly, and RISC-V
  • High-performance implementations for 2D convolutions, pooling, activation, and quantization operators
  • Supports both FP32 and INT8 inference with per-channel quantization
  • Efficient NHWC tensor layout with flexible channel stride
  • Integrates seamlessly with frameworks like TensorFlow Lite, TensorFlow.js, PyTorch, ONNX Runtime, and MediaPipe
  • Multi-threaded and vectorized operator implementations


Ngôn ngữ lập trình

Assembly, C, C ++, Unix Shell


Danh Mục

Thư viện mạng thần kinh

This is an application that can also be fetched from https://sourceforge.net/projects/xnnpack.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.


Máy chủ & Máy trạm miễn phí

Tải xuống ứng dụng Windows & Linux

Lệnh Linux

Ad




×
quảng cáo
❤️Mua sắm, đặt phòng hoặc mua tại đây — không mất phí, giúp duy trì các dịch vụ miễn phí.