这是名为 XNNPACK 的 Linux 应用程序,其最新版本可以下载为 XNNPACKsourcecode.tar.gz。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行此名为 XNNPACK 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
XNNPACK
Ad
商品描述
XNNPACK 是由 Google 开发的高度优化的低级神经网络推理库,用于加速各种硬件架构(包括 ARM、x86、WebAssembly 和 RISC-V)上的深度学习工作负载。XNNPACK 并非独立的机器学习框架,而是提供高性能计算原语(例如卷积、池化、激活函数和算术运算),这些原语可集成到 TensorFlow Lite、PyTorch Mobile、ONNX Runtime、TensorFlow.js 和 MediaPipe 等更高级别的框架中。该库采用 C/C++ 编写,旨在实现最高的可移植性、效率和性能,并利用平台特定的指令集(例如 NEON、AVX、SIMD)来优化执行。它支持 NHWC 张量布局,并允许沿通道维度灵活移动,从而高效处理通道拆分和连接操作,而无需额外成本。
功能
- 针对 ARM、x86、WebAssembly 和 RISC-V 优化的跨平台神经网络推理后端
 - 二维卷积、池化、激活和量化算子的高性能实现
 - 支持 FP32 和 INT8 推理,并采用每通道量化
 - 具有灵活通道步幅的高效 NHWC 张量布局
 - 与 TensorFlow Lite、TensorFlow.js、PyTorch、ONNX Runtime 和 MediaPipe 等框架无缝集成
 - 多线程和矢量化运算符实现
 
程式语言
汇编、C、C++、Unix Shell
分类
此应用程序也可从 https://sourceforge.net/projects/xnnpack.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。
