Esta es la aplicación de Linux llamada DeepSpeed cuya última versión se puede descargar como v0.11.1_Patchrelease.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada DeepSpeed con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
velocidadprofunda
DESCRIPCIÓN
DeepSpeed es un paquete de software de optimización de aprendizaje profundo fácil de usar que permite una escala y una velocidad sin precedentes para la inferencia y el entrenamiento de aprendizaje profundo. Con DeepSpeed puedes:
1. Entrenar/inferir modelos densos o dispersos con miles de millones o trillones de parámetros
2. Logre un excelente rendimiento del sistema y escale de manera eficiente a miles de GPU
3. Entrenamiento/inferencia en sistemas de GPU con recursos limitados
4. Consiga una baja latencia sin precedentes y un alto rendimiento para la inferencia
5. Logre una compresión extrema para una latencia de inferencia sin igual y una reducción del tamaño del modelo con bajos costos
DeepSpeed ofrece una confluencia de innovaciones del sistema, que ha hecho que el entrenamiento de DL a gran escala sea efectivo y eficiente, mejoró enormemente la facilidad de uso y redefinió el panorama de entrenamiento de DL en términos de la escala posible. Estas innovaciones como ZeRO, 3D-Parallelism, DeepSpeed-MoE, ZeRO-Infinity, etc. se enmarcan en el pilar de la formación.
Caracteristicas
- DeepSpeed reúne innovaciones en tecnología de paralelismo, como tensor, canalización, experto y paralelismo ZeRO, y las combina con núcleos de inferencia personalizados de alto rendimiento, optimizaciones de comunicación y tecnologías de memoria heterogénea para permitir la inferencia a una escala sin precedentes, al tiempo que logra una latencia, un rendimiento y un rendimiento sin precedentes. reducción de costo. Esta composición sistemática de tecnologías de sistemas para inferencia cae bajo el pilar de inferencia
- Para aumentar aún más la eficiencia de la inferencia, DeepSpeed ofrece técnicas de compresión fáciles de usar y flexibles para componer para que los investigadores y profesionales compriman sus modelos mientras ofrecen una velocidad más rápida, un tamaño de modelo más pequeño y un costo de compresión significativamente reducido. Además, las innovaciones de SoTA en compresión como ZeroQuant y XTC se incluyen en el pilar de compresión.
- La biblioteca de DeepSpeed (este repositorio) implementa y empaqueta las innovaciones y tecnologías de los pilares de formación, inferencia y compresión de DeepSpeed en un único repositorio de código abierto y fácil de usar. Permite una fácil composición de una multitud de funciones dentro de una sola canalización de entrenamiento, inferencia o compresión. La biblioteca DeepSpeed ha sido muy adoptada por la comunidad de DL y se ha utilizado para habilitar algunos de los modelos más potentes.
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener desde https://sourceforge.net/projects/deepspeed.mirror/. Ha sido alojado en OnWorks para poder ejecutarse online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.