这是名为 llama2.c 的 Linux 应用程序,其最新版本可以下载为 llama2.csourcecode.tar.gz。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行名为 llama2.c 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
截图:
llama2.c
描述:
llama2.c 是 Llama 2 语言模型架构的极简实现,旨在完全使用纯 C 语言运行。该项目由 Andrej Karpathy 创建,提供了一个轻量级的教学框架,用于在小型 Llama 2 模型上进行推理,无需任何外部依赖。它提供了完整的训练和推理流程:模型可以在 PyTorch 中训练,然后使用简洁的 700 行 C 语言程序 (run.c) 执行。虽然它在技术上可以加载 Meta 的官方 Llama 2 模型,但目前支持仅限于 fp32 精度,这意味着实际使用受限于最多约 7 亿个参数的模型。llama2.c 的目标是展示一个紧凑透明的实现如何在小型模型上执行有意义的推理,强调简单性、清晰度和可访问性。该项目借鉴了 nanoGPT 的经验,并从 llama.cpp 中汲取灵感,更注重极简主义和教学价值,而非大规模性能。
功能
- 实现完整的 Llama 2 架构,用于训练和推理
- 提供紧凑的、700 行基于 C 的推理引擎 (run.c)
- 允许在 PyTorch 中进行训练并直接在 C 中运行模型
- 支持较小规模、教育规模的 LLM 的 fp32 模型精度
- 提供干净、无依赖性的实现,方便学习和修改
- 受 llama.cpp 启发,但设计简洁、极简
程式语言
C、Python
分类
此应用程序也可从 https://sourceforge.net/projects/llama2-c.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。