Dies ist die Linux-App namens Llama 2 LLM, deren neueste Version als llama2.csourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens Llama 2 LLM mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
Lama 2 LLM
BESCHREIBUNG:
llama2.c ist eine minimalistische Implementierung des großen Sprachmodells LLaMA 2 in einer einzigen C-Datei für die Inferenz. Es bietet sowohl Trainings- (in Python/PyTorch) als auch Inferenz-Pipelines (in reinem C) und konzentriert sich dabei auf Einfachheit, Schulung und Portabilität.
Eigenschaften
- Führt LLaMA 2-Inferenz in ~700 Zeilen C aus
- Unterstützt das Laden der offiziellen LLaMA 2-Modelle von Meta (bis zu 7 B Parameter)
- Enthält Trainingsskripte in PyTorch für kleine Modelle
- Lehrreich, ohne externe Abhängigkeiten
- Kompatibel mit Linux, macOS und Windows
- Inspiriert von llama.cpp, aber einfacher und minimalistischer
Programmiersprache
C, Python
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/llama-2-llm.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.