Esta es la aplicación de Linux llamada MNN cuya última versión se puede descargar como mnn_3.2.0_ios_armv82_cpu_metal_coreml.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada MNN con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
CAPTURAS DE PANTALLA:
MNN
DESCRIPCIÓN:
MNN es un marco de aprendizaje profundo liviano y altamente eficiente. Es compatible con la inferencia y el entrenamiento de modelos de aprendizaje profundo y tiene un rendimiento líder en la industria para la inferencia y el entrenamiento en el dispositivo. En la actualidad, MNN se ha integrado en más de 20 aplicaciones de Alibaba Inc, como Taobao, Tmall, Youku, Dingtalk, Xianyu, etc., que cubren más de 70 escenarios de uso como transmisión en vivo, captura de video corto, recomendación de búsqueda, producto búsqueda por imagen, marketing interactivo, distribución de acciones, control de riesgos de seguridad. Además, MNN también se utiliza en dispositivos integrados, como IoT. MNN Workbench se puede descargar de la página de inicio de MNN, que proporciona modelos previamente entrenados, herramientas de entrenamiento visualizadas y la implementación de modelos en dispositivos con un solo clic. Plataforma Android, el tamaño del núcleo es de aproximadamente 400KB, OpenCL es de aproximadamente 400KB, Vulkan es de aproximadamente 400KB. Soporta computación híbrida en múltiples dispositivos. Actualmente es compatible con CPU y GPU.
Caracteristicas
- Implementa la computación central con una gran cantidad de código ensamblador optimizado para hacer un uso completo de la CPU ARM
- Para iOS, se puede activar la aceleración de GPU (Metal), que es más rápido que el CoreML nativo de Apple
- Para Android, OpenCL, Vulkan y OpenGL están disponibles y ajustados en profundidad para las GPU convencionales (Adreno y Mali)
- Los algoritmos de convolución y convolución de transposición son eficientes y estables. El algoritmo de convolución de Winograd se usa ampliamente para mejores convoluciones simétricas como 3x3 -> 7x7
- Aumento del doble de velocidad para la nueva arquitectura ARM v8.2 con soporte de cálculo de media precisión FP16
- Optimizado para dispositivos, sin dependencias, se puede implementar fácilmente en dispositivos móviles y una variedad de dispositivos integrados
Lenguaje de programación
C + +
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/mnn.mirror/. Se ha alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.