Dies ist die Linux-App namens MNN, deren neueste Version als mnn_3.2.0_ios_armv82_cpu_metal_coreml.zip heruntergeladen werden kann. Es kann online im kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens MNN mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
MNN
BESCHREIBUNG
MNN ist ein hocheffizientes und leichtes Deep-Learning-Framework. Es unterstützt Inferenz und Training von Deep-Learning-Modellen und bietet branchenführende Leistung für Inferenz und Training auf dem Gerät. Derzeit ist MNN in mehr als 20 Apps von Alibaba Inc. wie Taobao, Tmall, Youku, Dingtalk, Xianyu usw. integriert und deckt mehr als 70 Nutzungsszenarien wie Live-Übertragung, kurze Videoaufnahme, Suchempfehlung und Produkt ab Suche nach Bild, interaktives Marketing, Aktienverteilung, Sicherheitsrisikokontrolle. Darüber hinaus wird MNN auch auf eingebetteten Geräten wie IoT verwendet. MNN Workbench kann von der MNN-Homepage heruntergeladen werden, die vorab trainierte Modelle, visualisierte Trainingstools und die Bereitstellung von Modellen auf Geräten mit einem Klick bietet. Android-Plattform, Kerngröße beträgt also etwa 400 KB, OpenCL etwa 400 KB, Vulkan etwa 400 KB. Unterstützt Hybrid-Computing auf mehreren Geräten. Unterstützt derzeit CPU und GPU.
Eigenschaften
- Implementiert Core Computing mit viel optimiertem Assembler-Code, um die ARM-CPU voll auszunutzen
- Für iOS kann die GPU-Beschleunigung (Metal) aktiviert werden, die schneller ist als Apples natives CoreML
- Für Android sind OpenCL, Vulkan und OpenGL verfügbar und speziell auf Mainstream-GPUs (Adreno und Mali) abgestimmt.
- Faltungs- und Transpositionsfaltungsalgorithmen sind effizient und stabil. Der Winograd-Faltungsalgorithmus wird häufig für bessere symmetrische Faltungen wie 3x3 -> 7x7 verwendet
- Doppelte Geschwindigkeitssteigerung für die neue Architektur ARM v8.2 mit FP16-Unterstützung für Berechnungen mit halber Genauigkeit
- Optimiert für Geräte, keine Abhängigkeiten, kann problemlos auf Mobilgeräten und einer Vielzahl eingebetteter Geräte bereitgestellt werden
Programmiersprache
C + +
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/mnn.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.