这是名为 RLax 的 Windows 应用程序,其最新版本可以下载为 RLax0.1.8sourcecode.tar.gz。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行这个名为 RLax 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。
- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序并安装。
- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。
Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。
截图:
拉克斯
描述:
RLax(发音为“relax”)是由 Google DeepMind 开发的基于 JAX 的库,它提供了用于构建强化学习 (RL) 代理的可重用数学模块。RLax 并非实现完整的算法,而是专注于支撑 RL 方法的核心功能操作,例如计算价值函数、回报、策略梯度和损失项,从而允许研究人员灵活地组装自己的代理。它支持在线策略和离线策略学习,以及基于价值、基于策略和基于模型的方法。RLax 完全支持 JAX 的 JIT 编译,从而能够在 CPU、GPU 和 TPU 后端实现高性能执行。该库实现了用于贝尔曼方程、回报分布、广义价值函数以及连续和离散动作空间中策略优化的工具。它与 DeepMind 的 Haiku(用于神经网络定义)和 Optax(用于优化)无缝集成,使其成为模块化 RL 流程中的关键组件。
功能
- 模块化强化学习原语(价值、回报和策略)
- JAX 针对 GPU/TPU 加速和自动微分进行了优化
- 支持在线策略和离线策略学习范式
- 实现分布值函数和一般值函数
- 与 Haiku 和 Optax 集成,用于神经网络和优化管道
- 全面的测试和示例,用于再现性和教育用途
程式语言
Python、Unix 外壳
分类
此应用程序也可从 https://sourceforge.net/projects/rlax.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。