BentoML이라는 이름의 Linux 앱으로, 최신 버전은 v1.4.24sourcecode.tar.gz 형식으로 다운로드할 수 있습니다. 워크스테이션용 무료 호스팅 제공업체인 OnWorks에서 온라인으로 실행할 수 있습니다.
무료로 OnWorks와 함께 BentoML이라는 이 앱을 온라인에서 다운로드하고 실행하십시오.
이 앱을 실행하려면 다음 지침을 따르세요.
- 1. 이 애플리케이션을 PC에 다운로드했습니다.
- 2. 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX에 원하는 사용자 이름을 입력합니다.
- 3. 이러한 파일 관리자에서 이 응용 프로그램을 업로드합니다.
- 4. 이 웹사이트에서 OnWorks Linux 온라인 또는 Windows 온라인 에뮬레이터 또는 MACOS 온라인 에뮬레이터를 시작합니다.
- 5. 방금 시작한 OnWorks Linux OS에서 원하는 사용자 이름으로 파일 관리자 https://www.onworks.net/myfiles.php?username=XXXXX로 이동합니다.
- 6. 응용 프로그램을 다운로드하여 설치하고 실행합니다.
스크린 샷
Ad
벤토ML
기술
BentoML은 ML 모델 배포를 단순화하고 프로덕션 규모에서 모델을 제공합니다. Tensorflow, PyTorch, XGBoost, Scikit-Learn 등 여러 ML 프레임워크를 기본적으로 지원합니다! 사전 처리, 사후 처리 및 앙상블 모델을 사용하여 사용자 지정 서빙 파이프라인을 정의합니다. 간편한 버전 관리 및 배포를 위해 코드, 모델 및 종속성을 패키징하기 위한 표준 .bento 형식입니다. 모든 교육 파이프라인 또는 ML 실험 플랫폼과 통합합니다. 컴퓨팅 집약적 모델 추론 워크로드를 병렬화하여 제공 로직과 별도로 확장합니다. 적응형 일괄 처리는 최적의 성능을 위해 추론 요청을 동적으로 그룹화합니다. Kubernetes의 Yatai를 통해 여러 모델로 분산 추론 그래프를 조정합니다. GPU로 추론을 실행하기 위해 CUDA 종속성을 쉽게 구성할 수 있습니다. 프로덕션 배포를 위한 도커 이미지를 자동으로 생성합니다.
기능
- REST API 또는 gRPC를 통한 온라인 서비스
- Apache Spark 또는 Dask를 사용하여 일괄 데이터 세트에 대한 오프라인 채점
- Kafka, Beam 및 Flink를 사용한 스트림 제공
- 프로덕션 배포를 위한 도커 이미지 자동 생성
- Kubernetes에서 대규모 모델 배포
- 모든 클라우드 플랫폼에서 빠른 모델 배포
프로그래밍 언어
Python
카테고리
https://sourceforge.net/projects/bentoml.mirror/에서도 가져올 수 있는 애플리케이션입니다. 무료 운영 체제 중 하나에서 가장 쉬운 방법으로 온라인으로 실행하기 위해 OnWorks에서 호스팅되었습니다.