Dies ist die Windows-App namens DeepSeek LLM, deren neueste Version als DeepSeek-LLMsourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens DeepSeek LLM mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS:
DeepSeek LLM
BESCHREIBUNG:
Das DeepSeek-LLM-Repository hostet den Code, die Modelldateien, Bewertungen und die Dokumentation für die LLM-Reihe von DeepSeek (insbesondere die Variante 67B Chat). Der Slogan lautet „Lasst es Antworten geben“. Das Repository enthält einen Ordner „Bewertung“ (mit Ergebnissen wie mathematischen Benchmark-Ergebnissen) und Code-Artefakten (z. B. Pre-Commit-Konfiguration), die die Modellentwicklung und -bereitstellung unterstützen. Den Bewertungsdateien zufolge erreicht DeepSeek LLM 67B Chat eine starke Leistung bei mathematischen Benchmarks sowohl im Chain-of-Thinking-Modus (CoT) als auch im Tool-Assisted Reasoning-Modus. Das Modell wird von Grund auf trainiert, angeblich auf einem riesigen mehrsprachigen + Code + Reasoning-Datensatz, und konkurriert mit anderen offenen oder offen gewichteten Modellen. Die Architektur spiegelt etablierte Decoder-only-Transformer-Familien wider: Pre-Norm-Struktur, Rotational Embeddings (RoPE), Grouped Query Attention (GQA) und Mischung von Sprachen und Aufgaben. Es unterstützt sowohl die Varianten „Base“ (Grundlagenmodell) als auch „Chat“ (auf Anweisung/Konversation abgestimmt).
Eigenschaften
- DeepSeek LLM 67B Chat mit ausgewerteten Benchmark-Ergebnissen (Mathematik, logisches Denken usw.)
- Unterstützt sowohl den Denkketten- als auch den Tool-integrierten Denkmodus
- Gängige Transformatorarchitekturkomponenten: Vornorm, RoPE-Einbettungen, GQA
- Modellvarianten: Basisversion und Chat-/Anleitungs-optimierte Version
- Bewertungsmetriken, Benchmark-Vergleiche (GSM8K, MATH, MGSM-zh usw.) enthalten
- Konfigurations-, Code- und Infrastrukturdateien (z. B. .pre-commit-config.yaml) zur Unterstützung von Entwicklung und Bereitstellung
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/deepseek-llm.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.