这是一款名为 Flama 的 Linux 应用,其最新版本可下载为 flama-1.11.2.tar.gz。它可在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行这个名为 Flama 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
SCREENSHOTS
Ad
Flama
商品描述
Flama 是一个 Python 库,它为 API 的开发和部署建立了一个标准框架,尤其侧重于机器学习 (ML)。该框架的主要目标是使 ML API 的部署变得极其简单,尽可能将整个流程简化为一行代码。该库基于 Starlette 构建,并提供了一种易于学习的理念,以加速构建高性能 GraphQL、REST 和 ML API。此外,它还为异步和生产就绪服务开发提供了理想的解决方案,并为 ML 模型提供了自动部署功能。
特性
- API 资源的通用类,具有 SQLAlchemy 表上标准 CRUD 方法的便利性
- 一个模式系统(基于 Marshmallow 或 Typesystem),可以非常轻松地声明端点的输入和输出,并方便可靠和自动地进行数据类型验证
- 依赖注入通过使用组件简化了端点所需参数的管理过程。Flama ASGI 对象(例如请求、响应、会话等)被定义为可直接注入端点的组件。
- 组件作为插件生态系统的基础,允许您创建自定义组件或使用端点中已定义的组件,并将其作为参数注入
- 使用 OpenAPI 标准自动生成 API 模式
- 自动生成文档,并提供 Swagger UI 和 ReDoc 端点
- 自动处理分页,有多种方法可供您使用,例如限制偏移和页码编号等
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/flama.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统以最便捷的方式在线运行。