这是名为 LLaMA 3 的 Windows 应用程序,其最新版本可以下载为 llama3sourcecode.tar.gz。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行此名为 LLaMA 3 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。
- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序并安装。
- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。
Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。
截图:
美洲驼3
描述:
该存储库曾是 Llama 3 模型工件和入门代码的存放地,涵盖了多种参数大小的预训练和指令调优变体。它引入了权重、许可证和快速入门示例的公开打包,帮助开发者在本地和通用服务栈上微调或运行模型。随着 Llama 栈的发展,Meta 整合了各个存储库,并将该存储库标记为已弃用,以便用户使用更新的、集中式的模型、实用程序和文档中心。即使作为已弃用的存储库,它也记录了过渡路径,并保留了相关参考资料,阐明了 Llama 3 版本如何与当前生态系统相契合。实际上,它通过标准化推理和微调的分发和入门代码,充当了 Llama 2 和后续 Llama 版本之间的桥梁。团队仍然将其视为版本沿袭和迁移记录的历史参考资料。
功能
- 使用 Llama 3 进行推理和微调的起始代码
- 多种模型尺寸以平衡延迟和质量
- 指向当前 Llama 存储库和工具的迁移指针
- 针对商业和研究场景的明确许可和使用指南
- 服务和评估的示例工作流程
- 模型谱系和发行说明的历史参考
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/llama-3.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。