这是一个名为 Secret Llama 的 Linux 应用程序,其最新版本可从 secret-llamasourcecode.zip 下载。它可以在免费主机提供商 OnWorks 的工作站服务器上在线运行。
使用 OnWorks 免费下载并在线运行名为 Secret Llama 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
SCREENSHOTS
Ad
秘密骆驼
商品描述
Secret Llama 是一款以隐私为先的大型语言模型聊天机器人,它完全运行在您的 Web 浏览器中,这意味着无需服务器,您的对话数据也绝不会离开您的设备。它专注于开源模型支持,允许您直接在客户端加载 Llama 和 Mistral 等模型系列,实现完全本地推理。由于所有操作都在浏览器内完成,因此一旦模型被缓存,它就可以离线工作,这对于物理隔离环境或旅行时非常有用。其界面符合您对现代聊天用户体验的预期——流式回复、Markdown 格式和简洁的布局——因此,在保证隐私的同时,不会牺牲任何可用性。在底层,它使用 Web 原生推理引擎,在可用时利用 GPU/WebGPU 加速模型执行,即使没有后端也能保持响应迅速。对于希望在不向外部 API 发送请求的情况下构建助手原型或处理敏感文本的开发者和团队来说,这是一个绝佳的选择。
功能
- 完全本地化,浏览器内推理,无需服务器依赖
- 支持流行的开源LLM及其量化变体
- 模型加载到浏览器缓存后,即可离线使用。
- 具有流媒体输出和 Markdown 渲染功能的现代聊天用户界面
- 在性能强大的机器上,WebGPU加速执行可实现更快的响应速度。
- 简化的导入和配置流程,用于交换模型或参数
程式语言
打字稿
分类
您也可以从 https://sourceforge.net/projects/secret-llama.mirror/ 获取此应用程序。它托管在 OnWorks 上,以便通过我们的免费操作系统之一以最简单的方式在线运行。
