Dit is de Windows-app genaamd BentoML waarvan de nieuwste release kan worden gedownload als BentoML-v1.1.7sourcecode.zip. Het kan online worden uitgevoerd in de gratis hostingprovider OnWorks voor werkstations.
Download en gebruik deze app genaamd BentoML met OnWorks gratis online.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start een OS OnWorks online emulator vanaf deze website, maar een betere Windows online emulator.
- 5. Ga vanuit het OnWorks Windows-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie en installeer deze.
- 7. Download Wine van de softwarebronnen voor Linux-distributies. Eenmaal geïnstalleerd, kunt u vervolgens dubbelklikken op de app om ze met Wine uit te voeren. Je kunt ook PlayOnLinux proberen, een mooie interface via Wine waarmee je populaire Windows-programma's en -games kunt installeren.
Wine is een manier om Windows-software op Linux uit te voeren, maar zonder dat Windows vereist is. Wine is een open-source Windows-compatibiliteitslaag die Windows-programma's rechtstreeks op elke Linux-desktop kan uitvoeren. In wezen probeert Wine genoeg van Windows opnieuw te implementeren, zodat het al die Windows-applicaties kan draaien zonder Windows echt nodig te hebben.
SCREENSHOTS
Ad
BentoML
PRODUCTBESCHRIJVING
BentoML vereenvoudigt de implementatie van ML-modellen en bedient uw modellen op productieschaal. Ondersteuning van meerdere native ML-frameworks: Tensorflow, PyTorch, XGBoost, Scikit-Learn en nog veel meer! Definieer een aangepaste dienstverleningspijplijn met pre-processing, post-processing en ensemble-modellen. Standaard .bento-formaat voor verpakkingscode, modellen en afhankelijkheden voor eenvoudig versiebeheer en implementatie. Integreer met elke trainingspijplijn of ML-experimentplatform. Parallelle rekenintensieve workloads voor modelinferentie om afzonderlijk van de weergavelogica te schalen. Adaptieve batchverwerking groepeert dynamisch gevolgtrekkingsverzoeken voor optimale prestaties. Stel gedistribueerde inferentiegrafieken samen met meerdere modellen via Yatai op Kubernetes. Configureer eenvoudig CUDA-afhankelijkheden voor het uitvoeren van inferentie met GPU. Genereer automatisch docker-images voor productie-implementatie.
Voordelen
- Online serveren via REST API of gRPC
- Offline scoren op batchgegevenssets met Apache Spark of Dask
- Streamen met Kafka, Beam en Flink
- Automatisch docker-images genereren voor productie-implementatie
- Modelimplementatie op schaal op Kubernetes
- Snelle modelimplementatie op elk cloudplatform
Programmeertaal
Python
Categorieën
Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/bentoml.mirror/. Het is gehost in OnWorks om op een gemakkelijkste manier online te kunnen worden uitgevoerd vanuit een van onze gratis besturingssystemen.