Esta es la aplicación para Linux llamada TensorFlow Serving, cuya última versión se puede descargar como 2.19.1sourcecode.tar.gz. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada TensorFlow Serving with OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
Publicación de TensorFlow
DESCRIPCIÓN
TensorFlow Serving es un sistema de publicación flexible y de alto rendimiento para modelos de aprendizaje automático, diseñado para entornos de producción. Se ocupa del aspecto de inferencia del aprendizaje automático, tomando modelos después del entrenamiento y administrando sus vidas, brindando a los clientes acceso versionado a través de una tabla de búsqueda de alto rendimiento contada por referencias. TensorFlow Serving proporciona una integración inmediata con los modelos de TensorFlow, pero se puede ampliar fácilmente para ofrecer otros tipos de modelos y datos. La forma más sencilla y directa de usar TensorFlow Serving es con imágenes de Docker. Recomendamos encarecidamente esta ruta a menos que tenga necesidades específicas que no se abordan mediante la ejecución en un contenedor. Para entregar un modelo de Tensorflow, simplemente exporta un modelo guardado desde tu programa de Tensorflow. SavedModel es un formato de serialización hermético, recuperable y neutral en cuanto al lenguaje que permite que los sistemas y herramientas de nivel superior produzcan, consuman y transformen modelos de TensorFlow.
Caracteristicas
- Puede servir a varios modelos o varias versiones del mismo modelo simultáneamente
- Expone tanto gRPC como puntos finales de inferencia HTTP
- Permite la implementación de nuevas versiones de modelos sin cambiar ningún código de cliente
- Admite canarying nuevas versiones y modelos experimentales de prueba A / B
- Agrega una latencia mínima al tiempo de inferencia debido a la implementación eficiente y de baja sobrecarga
- Cuenta con un programador que agrupa las solicitudes de inferencia individuales en lotes para la ejecución conjunta en la GPU, con controles de latencia configurables
Lenguaje de programación
C + +
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/tensorflow-serving.mirror/. Se ha alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.