Ini adalah aplikasi Windows bernama BentoML yang rilis terbarunya dapat diunduh sebagai BentoML-v1.1.7sourcecode.zip. Itu dapat dijalankan secara online di penyedia hosting gratis OnWorks untuk workstation.
Unduh dan jalankan secara online aplikasi bernama BentoML dengan OnWorks ini secara gratis.
Ikuti petunjuk ini untuk menjalankan aplikasi ini:
- 1. Download aplikasi ini di PC Anda.
- 2. Masuk ke file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan username yang anda inginkan.
- 3. Upload aplikasi ini di filemanager tersebut.
- 4. Mulai emulator online OS OnWorks apa pun dari situs web ini, tetapi emulator online Windows yang lebih baik.
- 5. Dari OS Windows OnWorks yang baru saja Anda mulai, buka file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang Anda inginkan.
- 6. Unduh aplikasi dan instal.
- 7. Unduh Wine dari repositori perangkat lunak distribusi Linux Anda. Setelah terinstal, Anda kemudian dapat mengklik dua kali aplikasi untuk menjalankannya dengan Wine. Anda juga dapat mencoba PlayOnLinux, antarmuka mewah di atas Wine yang akan membantu Anda menginstal program dan game Windows populer.
Wine adalah cara untuk menjalankan perangkat lunak Windows di Linux, tetapi tidak memerlukan Windows. Wine adalah lapisan kompatibilitas Windows sumber terbuka yang dapat menjalankan program Windows secara langsung di desktop Linux apa pun. Pada dasarnya, Wine mencoba untuk mengimplementasikan kembali Windows dari awal sehingga dapat menjalankan semua aplikasi Windows tersebut tanpa benar-benar membutuhkan Windows.
Tangkapan layar
Ad
BentoML
DESKRIPSI
BentoML menyederhanakan penerapan model ML dan menyajikan model Anda pada skala produksi. Mendukung beberapa kerangka kerja ML secara native: Tensorflow, PyTorch, XGBoost, Scikit-Learn dan banyak lagi! Tentukan saluran penyajian khusus dengan model pra-pemrosesan, pasca-pemrosesan, dan ansambel. Format .bento standar untuk kode pengemasan, model, dan dependensi untuk pembuatan versi dan penerapan yang mudah. Integrasikan dengan pipeline pelatihan atau platform eksperimen ML apa pun. Sejajarkan beban kerja inferensi model komputasi intensif untuk menskalakan secara terpisah dari logika penyajian. Pengelompokan adaptif secara dinamis mengelompokkan permintaan inferensi untuk kinerja yang optimal. Atur grafik inferensi terdistribusi dengan beberapa model melalui Yatai di Kubernetes. Konfigurasikan dependensi CUDA dengan mudah untuk menjalankan inferensi dengan GPU. Secara otomatis menghasilkan gambar buruh pelabuhan untuk penyebaran produksi.
Fitur
- Penyajian online melalui REST API atau gRPC
- Penilaian offline pada kumpulan data batch dengan Apache Spark, atau Dask
- Streaming penyajian dengan Kafka, Beam, dan Flink
- Secara otomatis menghasilkan gambar buruh pelabuhan untuk penyebaran produksi
- Penerapan Model dalam skala besar di Kubernetes
- Penerapan model cepat di platform cloud apa pun
Bahasa Pemrograman
Ular sanca
Kategori
Ini adalah aplikasi yang juga dapat diambil dari https://sourceforge.net/projects/bentoml.mirror/. Ini telah di-host di OnWorks untuk dijalankan secara online dengan cara termudah dari salah satu Sistem Operasi gratis kami.