Dies ist die Linux-App namens LLaMA Models, deren neueste Version als v0.2.0sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens LLaMA Models mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS:
LLaMA-Modelle
BESCHREIBUNG:
Dieses Repository dient als zentraler Hub für die Llama-Foundation-Modellfamilie und konsolidiert Modellkarten, Lizenzen und Nutzungsrichtlinien sowie Dienstprogramme, die Inferenz und Feinabstimmung über Releases hinweg unterstützen. Es verknüpft andere Stack-Komponenten (wie Sicherheitstools und Entwickler-SDKs) und bietet kanonische Referenzen für Modellvarianten und deren beabsichtigte Verwendung. Die Issues und Releases des Projekts stellen einen aktiv genutzten Koordinationspunkt für das Ökosystem dar, an dem Anleitungen, Dienstprogramme und Kompatibilitätshinweise veröffentlicht werden. Es ergänzt separate Repos, die Code und Demos enthalten (z. B. Inferenzkernel oder Cookbook-Inhalte), indem es hier maßgebliche Metadaten und Spezifikationen vorhält. Modellherkunftslinien und Größenvarianten werden extern dokumentiert (z. B. Llama 3.x und höher), wobei dieses Repo die Links und Dienstprogramme der „zentralen Wahrheitsquelle“ bereitstellt. In der Praxis verwenden Teams Llama-Modelle als Referenz bei der Auswahl von Varianten, der Ausrichtung von Lizenzen und der Einbindung von Hilfsskripten für die Bereitstellung.
Eigenschaften
- Zentralisierte Modellkarten und Lizenzinformationen
- Dienstprogramme und Referenzskripte für Llama-Modelle
- Kanonische Zeiger auf Inferenz- und Feinabstimmungsstapel
- Ökosystemkoordination durch Probleme und Dokumentation
- Kompatibilitätshinweise zu Llama-Versionen und -Varianten
- Quelle der Wahrheit für Richtlinien und Nutzungshinweise
Programmiersprache
Python
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/llama-models.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.