Esta es la aplicación de Linux llamada BentoML cuya última versión se puede descargar como BentoML-v1.1.7sourcecode.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada BentoML con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
BentoML
DESCRIPCIÓN
BentoML simplifica la implementación de modelos de ML y sirve sus modelos a escala de producción. Admite múltiples marcos de ML de forma nativa: Tensorflow, PyTorch, XGBoost, Scikit-Learn y muchos más. Defina canalizaciones de servicio personalizadas con preprocesamiento, posprocesamiento y modelos de conjuntos. Formato .bento estándar para empaquetar código, modelos y dependencias para facilitar el control de versiones y la implementación. Integre con cualquier tubería de capacitación o plataforma de experimentación de ML. Paralelice las cargas de trabajo de inferencia de modelos con uso intensivo de cómputo para escalar por separado de la lógica de servicio. El procesamiento por lotes adaptativo agrupa dinámicamente las solicitudes de inferencia para un rendimiento óptimo. Organice gráficos de inferencia distribuidos con múltiples modelos a través de Yatai en Kubernetes. Configure fácilmente las dependencias de CUDA para ejecutar la inferencia con GPU. Genere automáticamente imágenes acoplables para la implementación de producción.
Caracteristicas
- Servicio en línea a través de REST API o gRPC
- Puntuación sin conexión en conjuntos de datos por lotes con Apache Spark o Dask
- Servicio de transmisión con Kafka, Beam y Flink
- Genere automáticamente imágenes acoplables para la implementación de producción
- Implementación de modelos a escala en Kubernetes
- Implementación rápida de modelos en cualquier plataforma en la nube
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener desde https://sourceforge.net/projects/bentoml.mirror/. Ha sido alojado en OnWorks para poder ejecutarse online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.