Il s'agit de l'application Linux nommée BentoML dont la dernière version peut être téléchargée sous le nom BentoML-v1.1.7sourcecode.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée BentoML avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
BentoML
DESCRIPTION
BentoML simplifie le déploiement des modèles ML et sert vos modèles à l'échelle de la production. Prend en charge plusieurs frameworks ML de manière native : Tensorflow, PyTorch, XGBoost, Scikit-Learn et bien d'autres ! Définissez un pipeline de service personnalisé avec des modèles de prétraitement, de post-traitement et d'ensemble. Format .bento standard pour empaqueter le code, les modèles et les dépendances pour faciliter la gestion des versions et le déploiement. Intégration à n'importe quel pipeline de formation ou plate-forme d'expérimentation ML. Parallélisez les charges de travail d'inférence de modèle à forte intensité de calcul pour les mettre à l'échelle séparément de la logique de diffusion. Le traitement par lots adaptatif regroupe dynamiquement les demandes d'inférence pour des performances optimales. Orchestrez le graphe d'inférence distribué avec plusieurs modèles via Yatai sur Kubernetes. Configurez facilement les dépendances CUDA pour exécuter l'inférence avec le GPU. Générez automatiquement des images Docker pour le déploiement en production.
Fonctionnalités:
- Service en ligne via l'API REST ou gRPC
- Scoring hors ligne sur des ensembles de données par lots avec Apache Spark ou Dask
- Diffusion de flux avec Kafka, Beam et Flink
- Générez automatiquement des images Docker pour le déploiement en production
- Déploiement de modèles à grande échelle sur Kubernetes
- Déploiement rapide du modèle sur n'importe quelle plate-forme cloud
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/bentoml.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.