这是名为 TensorFlow Serving 的 Linux 应用程序,其最新版本可以作为 2.13.1.zip 下载。 它可以在工作站的免费托管服务提供商 OnWorks 中在线运行。
免费下载并在线运行这个名为 TensorFlow Serving 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
SCREENSHOTS
Ad
TensorFlow服务
商品描述
TensorFlow Serving 是一个灵活、高性能的机器学习模型服务系统,专为生产环境而设计。 它处理机器学习的推理方面,在训练后采用模型并管理它们的生命周期,通过高性能的引用计数查找表为客户提供版本化访问。 TensorFlow Serving 提供与 TensorFlow 模型的开箱即用集成,但可以轻松扩展以服务其他类型的模型和数据。 使用 TensorFlow Serving 的最简单、最直接的方法是使用 Docker 镜像。 我们强烈推荐此路线,除非您有在容器中运行无法解决的特定需求。 为了提供 Tensorflow 模型,只需从 Tensorflow 程序中导出 SavedModel。 SavedModel 是一种语言中立、可恢复、密封的序列化格式,使更高级别的系统和工具能够生成、使用和转换 TensorFlow 模型。
特征
- 可以同时为多个模型或同一模型的多个版本提供服务
- 公开 gRPC 和 HTTP 推理端点
- 允许在不更改任何客户端代码的情况下部署新模型版本
- 支持金丝雀新版本和 A/B 测试实验模型
- 由于高效、低开销的实施,将推理时间的延迟降至最低
- 具有调度程序,可将单个推理请求分组为批次以在 GPU 上联合执行,并具有可配置的延迟控制
程式语言
C + +中
分类目录
这是一个也可以从 https://sourceforge.net/projects/tensorflow-serving.mirror/ 获取的应用程序。 它已托管在 OnWorks 中,以便从我们的免费操作系统之一以最简单的方式在线运行。