This is the Windows app named LLaMA Models whose latest release can be downloaded as v0.2.0sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
免费下载并在线运行名为 LLaMA Models with OnWorks 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。
- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序并安装。
- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。
Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。
截图:
LLaMA 模型
描述:
该存储库是 Llama 基础模型系列的中心枢纽,整合了模型卡、许可证和使用政策,以及支持跨版本推理和微调的实用程序。它将其他堆栈组件(例如安全工具和开发者 SDK)连接在一起,并为模型变体及其预期用途提供规范参考。该项目的问题和发布反映了生态系统中一个活跃的协调点,指南、实用程序和兼容性说明都发布在这里。它通过在此处保存权威的元数据和规范,补充了包含代码和演示(例如推理内核或指南内容)的独立存储库。模型谱系和大小变体在外部记录(例如 Llama 3.x 及更高版本),此存储库提供“单一事实来源”链接和实用程序。在实践中,团队在选择变体、调整许可证以及连接部署辅助脚本时,会使用 llama-models 作为参考。
功能
- 集中模型卡和许可信息
- Llama 模型的实用程序和参考脚本
- 推理和微调堆栈的规范指针
- 通过问题和文档进行生态系统协调
- Llama 版本和变体之间的兼容性说明
- 政策和使用指南的真实来源
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/llama-models.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。