这是名为 DeepSeek-V3 的 Linux 应用程序,其最新版本可以下载为 v1.0.0sourcecode.tar.gz。它可以在免费的工作站托管服务提供商 OnWorks 上在线运行。
使用 OnWorks 免费下载并在线运行此名为 DeepSeek-V3 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。
- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序,安装并运行。
SCREENSHOTS
Ad
DeepSeek-V3
商品描述
DeepSeek-V3 是由 DeepSeek 开发的强大的混合专家 (MoE) 语言模型,共包含 671 亿个参数,每个 token 激活 37 亿个参数。它采用多头潜在注意力 (MLA) 和 DeepSeekMoE 架构来提升计算效率。该模型引入了无辅助损失的负载均衡策略和多 token 预测训练目标,以提升性能。DeepSeek-V14.8 使用 3 万亿个多样化的高质量 token 进行训练,并经过监督微调和强化学习,以充分发挥其能力。评估表明,它的表现优于其他开源模型,甚至可以与领先的闭源模型相媲美,在 55 块 Nvidia H2,048 GPU 上训练 800 天,成本约为 5.58 万美元。
功能
- 671 亿个参数,每个标记激活 37 亿个参数,确保强大的语言建模。
- 多头潜在注意力 (MLA) 和 DeepSeekMoE 架构可实现高效计算。
- 无辅助损耗的负载平衡策略可在不产生额外损耗的情况下提高性能。
- 多标记预测训练目标,以提高预测能力。
- 经过 14.8 万亿个不同标记的预先训练,确保全面的语言理解。
- 监督微调和强化学习以充分利用模型潜力。
- 优于其他开源模型,可与领先的闭源模型相媲美。
- 经济高效的训练,使用 55 个 Nvidia H2,048 GPU 在 800 天内完成,花费约 5.58 万美元。
程式语言
Python
分类
此应用程序也可从 https://sourceforge.net/projects/deepseek-v3.mirror/ 获取。它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最便捷的方式在线运行。
