GoGPT Best VPN GoSearch

Favicon OnWorks

XNNPACK download for Linux

Descărcați gratuit aplicația XNNPACK Linux pentru a rula online în Ubuntu online, Fedora online sau Debian online

Aceasta este aplicația Linux numită XNNPACK, a cărei ultimă versiune poate fi descărcată sub numele XNNPACKsourcecode.tar.gz. Poate fi rulată online în furnizorul de găzduire gratuit OnWorks pentru stații de lucru.

Descărcați și rulați online această aplicație numită XNNPACK cu OnWorks gratuit.

Urmați aceste instrucțiuni pentru a rula această aplicație:

- 1. Ați descărcat această aplicație pe computer.

- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.

- 3. Încărcați această aplicație într-un astfel de manager de fișiere.

- 4. Porniți emulatorul online OnWorks Linux sau Windows online sau emulatorul online MACOS de pe acest site web.

- 5. Din sistemul de operare OnWorks Linux pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.

- 6. Descărcați aplicația, instalați-o și rulați-o.

XNNPACK


Ad


DESCRIERE

XNNPACK este o bibliotecă de inferență pentru rețele neuronale de nivel scăzut, extrem de optimizată, dezvoltată de Google pentru accelerarea sarcinilor de lucru de deep learning într-o varietate de arhitecturi hardware, inclusiv ARM, x86, WebAssembly și RISC-V. În loc să servească ca un framework ML independent, XNNPACK oferă primitive de calcul de înaltă performanță - cum ar fi convoluții, pooling, funcții de activare și operații aritmetice - care sunt integrate în framework-uri de nivel superior precum TensorFlow Lite, PyTorch Mobile, ONNX Runtime, TensorFlow.js și MediaPipe. Biblioteca este scrisă în C/C++ și concepută pentru portabilitate, eficiență și performanță maxime, valorificând seturi de instrucțiuni specifice platformei (de exemplu, NEON, AVX, SIMD) pentru o execuție optimizată. Acceptă machete tensor NHWC și permite parcurgerea flexibilă a dimensiunii canalului pentru a gestiona eficient operațiunile de divizare și concatenare a canalelor fără costuri suplimentare.



Categorii

  • Backend de inferență pentru rețele neuronale multi-platformă optimizat pentru ARM, x86, WebAssembly și RISC-V
  • Implementări de înaltă performanță pentru operatori de convoluții 2D, pooling, activare și cuantizare
  • Suportă inferență atât FP32, cât și INT8 cu cuantizare per canal
  • Aranjament tensorial NHWC eficient cu pas flexibil al canalului
  • Se integrează perfect cu framework-uri precum TensorFlow Lite, TensorFlow.js, PyTorch, ONNX Runtime și MediaPipe
  • Implementări de operatori multi-threaded și vectorizați


Limbaj de programare

Asamblare, C, C++, Shell Unix


Categorii

Biblioteci de rețele neuronale

Aceasta este o aplicație care poate fi descărcată și de la https://sourceforge.net/projects/xnnpack.mirror/. A fost găzduită în OnWorks pentru a putea fi rulată online în cel mai simplu mod de pe unul dintre sistemele noastre de operare gratuite.


Servere și stații de lucru gratuite

Descărcați aplicații Windows și Linux

Comenzi Linux

Ad




×
publicitate
❤️Cumpără, rezervă sau cumpără aici — gratuit, contribuind la menținerea serviciilor gratuite.