Este é o aplicativo Linux denominado BentoML, cuja versão mais recente pode ser baixada como BentoML-v1.1.7sourcecode.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado BentoML com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
BentoML
DESCRIÇÃO
O BentoML simplifica a implantação do modelo de ML e atende seus modelos em escala de produção. Suporte nativo a várias estruturas de ML: Tensorflow, PyTorch, XGBoost, Scikit-Learn e muito mais! Defina o pipeline de serviço personalizado com modelos de pré-processamento, pós-processamento e conjunto. Formato .bento padrão para código de empacotamento, modelos e dependências para fácil implantação e controle de versão. Integre-se a qualquer pipeline de treinamento ou plataforma de experimentação de ML. Paralelize cargas de trabalho de inferência de modelo de computação intensa para dimensionar separadamente da lógica de serviço. O batching adaptativo agrupa dinamicamente as solicitações de inferência para um desempenho ideal. Orquestre o gráfico de inferência distribuído com vários modelos via Yatai no Kubernetes. Configure facilmente as dependências CUDA para executar inferência com GPU. Gere automaticamente imagens do docker para implantação de produção.
Funcionalidades
- Atendimento online via REST API ou gRPC
- Pontuação offline em conjuntos de dados em lote com Apache Spark ou Dask
- Serviço de streaming com Kafka, Beam e Flink
- Gere automaticamente imagens docker para implantação de produção
- Implantação de modelo em escala no Kubernetes
- Implementação rápida do modelo em qualquer plataforma de nuvem
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/bentoml.mirror/. Ele foi hospedado no OnWorks para ser executado on-line da maneira mais fácil a partir de um de nossos sistemas operacionais gratuitos.