GoGPT Best VPN GoSearch

OnWorks 网站图标

llama2.c 下载(适用于 Windows)

免费下载 llama2.c Windows 应用程序以在 Ubuntu 在线、Fedora 在线或 Debian 在线运行 Win Wine

这是名为 llama2.c 的 Windows 应用程序,其最新版本可以下载为 llama2.csourcecode.tar.gz。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。

使用 OnWorks 免费下载并在线运行名为 llama2.c 的应用程序。

请按照以下说明运行此应用程序:

- 1. 在您的 PC 中下载此应用程序。

- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。

- 3. 在这样的文件管理器中上传这个应用程序。

- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。

- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。

- 6. 下载应用程序并安装。

- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。

Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。

SCREENSHOTS

Ad


llama2.c


商品描述

llama2.c 是一个极简的端到端 LLM 工具包,它允许您在 PyTorch 中训练类似 Llama-2 的模型,并使用一个约 700 行 C 语言程序 (run.c) 运行推理。该项目强调简洁性和易学性:Llama-2 架构采用硬编码,没有外部 C 语言依赖项,并且您可以用 C 语言清晰地看到完整的前向传播。尽管占用空间很小,但它是“全栈”的:您可以训练小型模型(例如,在 TinyStories 上训练 15M/42M/110M 个参数),然后在笔记本电脑上以交互速度直接从 C 语言运行时采样标记。您还可以导出并运行 Meta 的 Llama-2 模型(由于 fp32 推理和内存限制,目前实际最大支持 7B),并尝试使用合适的标记器来测试聊天/代码 Llama 变体。量化的 int8 路径(runq.c)减少了检查点大小(例如,7B 的检查点大小从 26GB 减少到 6.7GB)并加快了推理速度(例如,作者注释中与 fp32 相比约为 3 倍),同时质量有所降低。



功能

  • 使用约 700 行 C 语言运行 LLaMA 2 推理
  • 支持加载 Meta 官方 LLaMA 2 模型(最多 7B 个参数)
  • 包含 PyTorch 中用于小型模型的训练脚本
  • 教育性,无外部依赖
  • 兼容 Linux、macOS 和 Windows
  • 受 llama.cpp 启发,但更简单、更精简


程式语言

C、Python


分类

大型语言模型(法学硕士)

此应用程序也可从 https://sourceforge.net/projects/llama-2-llm.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。


免费服务器和工作站

下载 Windows 和 Linux 应用程序

Linux 命令

Ad




×
广告
❤️在这里购物、预订或购买——免费,有助于保持服务免费。