Ito ang Linux app na pinangalanang BentoML na ang pinakabagong release ay maaaring ma-download bilang BentoML-v1.1.7sourcecode.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang BentoML na may OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.
- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application, i-install ito at patakbuhin ito.
MGA LALAKI
Ad
BentoML
DESCRIPTION
Pinapasimple ng BentoML ang pag-deploy ng modelo ng ML at inihahatid ang iyong mga modelo sa antas ng produksyon. Suportahan ang maramihang ML frameworks na natively: Tensorflow, PyTorch, XGBoost, Scikit-Learn at marami pa! Tukuyin ang custom na paghahatid ng pipeline na may mga pre-processing, post-processing at ensemble na mga modelo. Karaniwang .bento na format para sa packaging code, mga modelo at dependencies para sa madaling bersyon at pag-deploy. Isama sa anumang pipeline ng pagsasanay o platform ng eksperimento sa ML. I-parallelize ang compute-intense model inference workloads para magkahiwalay na sukat mula sa serving logic. Ang adaptive batching ay dynamic na pinapangkat ang mga kahilingan sa inference para sa pinakamainam na performance. I-orchestrate ang distributed inference graph na may maraming modelo sa pamamagitan ng Yatai sa Kubernetes. Madaling i-configure ang CUDA dependencies para sa pagpapatakbo ng inference gamit ang GPU. Awtomatikong bumuo ng mga docker na larawan para sa deployment ng produksyon.
Mga tampok
- Online na paghahatid sa pamamagitan ng REST API o gRPC
- Offline na pagmamarka sa mga batch na dataset gamit ang Apache Spark, o Dask
- Stream serving kasama ang Kafka, Beam, at Flink
- Awtomatikong bumuo ng mga docker na larawan para sa deployment ng produksyon
- Model Deployment sa sukat sa Kubernetes
- Mabilis na pag-deploy ng modelo sa anumang cloud platform
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding makuha mula sa https://sourceforge.net/projects/bentoml.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.