这是名为 Ollama Python 的 Windows 应用,其最新版本可下载为 ollama-0.6.0.tar.gz。它可在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行这个名为 Ollama Python 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。
- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序并安装。
- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。
Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。
SCREENSHOTS
Ad
奥拉玛蟒蛇
商品描述
ollama-python 是一个开源 Python SDK,它封装了 Ollama CLI,允许与 Ollama 管理的本地大型语言模型 (LLM) 无缝交互。开发者可以使用它加载模型、发送提示、管理会话以及直接从 Python 代码流式传输响应。它简化了基于 Ollama 的模型与应用程序的集成,支持同步和流式传输模式。对于构建具有本地模型部署的 AI 驱动应用程序的用户来说,此工具是理想之选。
功能
- 从 Python 加载并运行 Ollama 模型
- 支持提示格式和流式输出
- 列出并管理已安装的 LLM
- 会话处理和对话记忆
- 处理 CLI 错误和输出解析
- 轻量级依赖包装现有的 CLI
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/ollama-python.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。
