Dies ist die Windows-App namens BentoML, deren neueste Version als BentoML-v1.1.7sourcecode.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens BentoML mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
BentoML
BESCHREIBUNG
BentoML vereinfacht die Bereitstellung von ML-Modellen und stellt Ihre Modelle im Produktionsmaßstab bereit. Unterstützt mehrere ML-Frameworks nativ: Tensorflow, PyTorch, XGBoost, Scikit-Learn und viele mehr! Definieren Sie eine benutzerdefinierte Bereitstellungspipeline mit Vorverarbeitungs-, Nachverarbeitungs- und Ensemblemodellen. Standardmäßiges .bento-Format zum Verpacken von Code, Modellen und Abhängigkeiten für eine einfache Versionierung und Bereitstellung. Integration in jede Trainingspipeline oder ML-Experimentierplattform. Parallelisieren Sie rechenintensive Modellrückschluss-Arbeitslasten, um sie getrennt von der Bereitstellungslogik zu skalieren. Adaptives Batching gruppiert Inferenzanforderungen dynamisch für eine optimale Leistung. Orchestrieren Sie verteilte Inferenzgraphen mit mehreren Modellen über Yatai auf Kubernetes. Einfaches Konfigurieren von CUDA-Abhängigkeiten zum Ausführen von Inferenzen mit GPU. Generieren Sie automatisch Docker-Images für die Produktionsbereitstellung.
Eigenschaften
- Onlinebereitstellung über REST API oder gRPC
- Offline-Scoring für Batch-Datensätze mit Apache Spark oder Dask
- Streamserving mit Kafka, Beam und Flink
- Generieren Sie automatisch Docker-Images für die Produktionsbereitstellung
- Modellbereitstellung in großem Maßstab auf Kubernetes
- Schnelle Modellbereitstellung auf jeder Cloud-Plattform
Programmiersprache
Python
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/bentoml.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.