Esta es la aplicación de Linux llamada MegEngine cuya última versión se puede descargar como MegEnginev1.13.2sourcecode.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada MegEngine con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
megamotor
DESCRIPCIÓN
MegEngine es un marco de aprendizaje profundo rápido, escalable y fácil de usar con 3 características clave. Puede representar la cuantificación/forma dinámica/preprocesamiento de imágenes e incluso la derivación en un modelo. Después del entrenamiento, simplemente coloque todo en su modelo e infórmelo en cualquier plataforma fácilmente. Los problemas de velocidad y precisión ya no te molestarán debido al mismo núcleo interior. En el entrenamiento, el uso de la memoria de la GPU podría reducirse a un tercio al costo de solo una línea adicional, lo que habilita el algoritmo DTR. Obtenga el uso de memoria más bajo al inferir un modelo aprovechando nuestro exclusivo planificador de memoria pushdown. NOTA: MegEngine ahora admite la instalación de Python en plataformas Linux-64bit/Windows-64bit/MacOS (solo CPU)-10.14+/Android 7+(solo CPU) con Python de 3.5 a 3.8. En Windows 10, puede instalar la distribución de Linux a través del Subsistema de Windows para Linux (WSL) o instalar la distribución de Windows directamente. Muchas otras plataformas son compatibles con la inferencia.
Caracteristicas
- Inferencia rápida y de alta precisión en x86/Arm/CUDA/RoCM
- Compatible con Linux/Windows/iOS/Android/TEE
- Núcleo unificado para entrenamiento e inferencia
- Los requisitos de hardware más bajos ayudados por algoritmos
- Inferencia eficiente en todas las plataformas
- Ahorre más memoria y optimice la velocidad aprovechando el uso avanzado
Lenguaje de programación
C + +
Categorías
Esta es una aplicación que también se puede obtener desde https://sourceforge.net/projects/megengine.mirror/. Ha sido alojado en OnWorks para poder ejecutarse online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.