Il s'agit de l'application Linux nommée MNN dont la dernière version peut être téléchargée en tant que mnn_3.2.0_ios_armv82_cpu_metal_coreml.zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez en ligne cette application nommée MNN avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
MNN
DESCRIPTION
MNN est un framework d'apprentissage en profondeur très efficace et léger. Il prend en charge l'inférence et la formation de modèles d'apprentissage en profondeur et offre des performances de pointe pour l'inférence et la formation sur l'appareil. À l'heure actuelle, MNN a été intégré dans plus de 20 applications d'Alibaba Inc, telles que Taobao, Tmall, Youku, Dingtalk, Xianyu et etc., couvrant plus de 70 scénarios d'utilisation tels que la diffusion en direct, la capture vidéo courte, la recommandation de recherche, le produit recherche par image, marketing interactif, répartition des actions, contrôle des risques de sécurité. En outre, MNN est également utilisé sur des appareils embarqués, tels que l'IoT. MNN Workbench peut être téléchargé à partir de la page d'accueil de MNN, qui fournit des modèles pré-entraînés, des outils de formation visualisés et un déploiement en un clic de modèles sur des appareils. Plate-forme Android, la taille du noyau est d'environ 400 Ko, OpenCL d'environ 400 Ko, Vulkan d'environ 400 Ko. Prend en charge l'informatique hybride sur plusieurs appareils. Prend actuellement en charge le CPU et le GPU.
Caractéristiques
- Implémente l'informatique de base avec beaucoup de code d'assemblage optimisé pour tirer pleinement parti du processeur ARM
- Pour iOS, l'accélération GPU (Metal) peut être activée, ce qui est plus rapide que le CoreML natif d'Apple
- Pour Android, OpenCL, Vulkan et OpenGL sont disponibles et optimisés pour les GPU grand public (Adreno et Mali)
- Les algorithmes de convolution et de transposition de convolution sont efficaces et stables. L'algorithme de convolution de Winograd est largement utilisé pour de meilleures convolutions symétriques telles que 3x3 -> 7x7
- Augmentation de la vitesse deux fois pour la nouvelle architecture ARM v8.2 avec prise en charge du calcul demi-précision FP16
- Optimisé pour les appareils, sans dépendances, peut être facilement déployé sur des appareils mobiles et une variété d'appareils intégrés
Langage de programmation
C + +
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/mnn.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.