这是名为 LLaMA 的 Windows 应用程序,其最新版本可以下载为 llamav2sourcecode.zip。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行此名为 LLaMA 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。
- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序并安装。
- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。
Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。
SCREENSHOTS
Ad
骆驼
商品描述
“Llama” 是 Meta(前身为 Facebook/Meta Research)的仓库,包含 LLaMA(大型语言模型 Meta AI)模型的推理代码。它提供一些实用程序,用于加载预先训练的 LLaMA 模型权重、运行推理(文本生成、聊天、补全)以及使用分词器。该仓库是 Llama 模型基础设施的核心部分,研究人员和开发者可以使用它在本地或自身基础设施中运行 LLaMA 模型。它旨在用于推理(而非从头开始训练),并与模型卡、负责任的使用、许可等方面相关。
功能
- 提供参考代码以加载各种 LLaMA 预训练权重(7B、13B、70B 等)并执行推理(聊天或完成)
- 标记器实用程序、下载脚本、shell 助手,用于获取具有正确许可/权限的模型权重
- 支持多参数设置(批量大小、上下文长度、GPU 数量/并行度),以扩展到更大的模型/机器
- 许可/负责任使用指南;模型卡以及有关如何使用或限制该模型的文档
- 包括聊天完成和文本完成的示例脚本,以展示如何在代码中调用模型
- 与标准深度学习框架(PyTorch 等)兼容以用于推理,包括确保包含所需的依赖项和设置脚本
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/llama.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。