这是名为 LLaMA Models 的 Linux 应用程序,其最新版本可下载为 v0.2.0sourcecode.tar.gz。它可在免费的工作站托管服务提供商 OnWorks 上在线运行。
免费下载并在线运行名为 LLaMA Models with OnWorks 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
截图:
LLaMA 模型
描述:
该存储库是 Llama 基础模型系列的中心枢纽,整合了模型卡、许可证和使用政策,以及支持跨版本推理和微调的实用程序。它将其他堆栈组件(例如安全工具和开发者 SDK)连接在一起,并为模型变体及其预期用途提供规范参考。该项目的问题和发布反映了生态系统中一个活跃的协调点,指南、实用程序和兼容性说明都发布在这里。它通过在此处保存权威的元数据和规范,补充了包含代码和演示(例如推理内核或指南内容)的独立存储库。模型谱系和大小变体在外部记录(例如 Llama 3.x 及更高版本),此存储库提供“单一事实来源”链接和实用程序。在实践中,团队在选择变体、调整许可证以及连接部署辅助脚本时,会使用 llama-models 作为参考。
功能
- 集中模型卡和许可信息
- Llama 模型的实用程序和参考脚本
- 推理和微调堆栈的规范指针
- 通过问题和文档进行生态系统协调
- Llama 版本和变体之间的兼容性说明
- 政策和使用指南的真实来源
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/llama-models.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。