InglesPransesEspanyol

Ad


OnWorks favicon

Pag-download ng BentoML para sa Linux

Libreng download BentoML Linux app para tumakbo online sa Ubuntu online, Fedora online o Debian online

Ito ang Linux app na pinangalanang BentoML na ang pinakabagong release ay maaaring ma-download bilang BentoML-v1.1.7sourcecode.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.

I-download at patakbuhin online ang app na ito na pinangalanang BentoML na may OnWorks nang libre.

Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:

- 1. Na-download ang application na ito sa iyong PC.

- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.

- 3. I-upload ang application na ito sa naturang filemanager.

- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.

- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.

- 6. I-download ang application, i-install ito at patakbuhin ito.

MGA LALAKI

Ad


BentoML


DESCRIPTION

Pinapasimple ng BentoML ang pag-deploy ng modelo ng ML at inihahatid ang iyong mga modelo sa antas ng produksyon. Suportahan ang maramihang ML frameworks na natively: Tensorflow, PyTorch, XGBoost, Scikit-Learn at marami pa! Tukuyin ang custom na paghahatid ng pipeline na may mga pre-processing, post-processing at ensemble na mga modelo. Karaniwang .bento na format para sa packaging code, mga modelo at dependencies para sa madaling bersyon at pag-deploy. Isama sa anumang pipeline ng pagsasanay o platform ng eksperimento sa ML. I-parallelize ang compute-intense model inference workloads para magkahiwalay na sukat mula sa serving logic. Ang adaptive batching ay dynamic na pinapangkat ang mga kahilingan sa inference para sa pinakamainam na performance. I-orchestrate ang distributed inference graph na may maraming modelo sa pamamagitan ng Yatai sa Kubernetes. Madaling i-configure ang CUDA dependencies para sa pagpapatakbo ng inference gamit ang GPU. Awtomatikong bumuo ng mga docker na larawan para sa deployment ng produksyon.



Mga tampok

  • Online na paghahatid sa pamamagitan ng REST API o gRPC
  • Offline na pagmamarka sa mga batch na dataset gamit ang Apache Spark, o Dask
  • Stream serving kasama ang Kafka, Beam, at Flink
  • Awtomatikong bumuo ng mga docker na larawan para sa deployment ng produksyon
  • Model Deployment sa sukat sa Kubernetes
  • Mabilis na pag-deploy ng modelo sa anumang cloud platform


Wika ng Programming

Sawa


Kategorya

Mga Framework, Machine Learning

Ito ay isang application na maaari ding makuha mula sa https://sourceforge.net/projects/bentoml.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.


Mga Libreng Server at Workstation

Mag-download ng Windows at Linux apps

Linux command

Ad