Dies ist die Linux-App namens Mistral Finetune, deren neueste Version als mistral-finetunev1.1.0sourcecode.zip heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens Mistral Finetune mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
Mistral Finetune
BESCHREIBUNG
mistral-finetune ist eine offizielle, leichtgewichtige Codebasis für speichereffizientes und performantes Finetuning der offenen Modelle von Mistral (z. B. 7B, Instruct-Varianten). Sie basiert auf Techniken wie LoRA (Low-Rank Adaptation), um die Anpassung von Modellen ohne vollständige Parameteraktualisierung zu ermöglichen, was den GPU-Speicherbedarf und die Trainingskosten reduziert. Das Repo enthält Dienstprogramme zur Datenvorverarbeitung (z. B. reformat_data.py), Validierungsskripte und Beispiel-YAML-Konfigurationen für Trainingsvarianten wie 7B-Basis- oder Instruct-Modelle. Es unterstützt Datensätze im Funktionsaufrufstil (über „messages“-Schlüssel) sowie reine Textformate mit Richtlinien zur Formatierung, Tokenisierung und Vokabelerweiterung (z. B. Erweiterung des Vokabulars auf 32768 für einige Modelle) vor dem Finetuning. Das Projekt bietet außerdem Tutorial-Notebooks (z. B. mistral_finetune_7b.ipynb), die die einzelnen Schritte durchgehen.
Eigenschaften
- LoRA-basiertes Feintuning zur Reduzierung des Speicherbedarfs und Ermöglichung effizienter Anpassung
- Unterstützung sowohl für Klartext- („Pretrain“) als auch für „Instruct“-/Konversations-Datensätze
- Dienstprogramme zum Neuformatieren und Validieren von Daten (einschließlich reformat_data.py)
- Beispiel-YAML-Konfigurationen für Mistral 7B-Trainingsvarianten
- Tutorials/Notizbücher zur Anleitung neuer Benutzer (z. B. 7B-Feinabstimmungsbeispiel)
- Anleitung zur Vokabularerweiterung, Tokenisierung und Modellkompatibilität
Programmiersprache
Python
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/mistral-finetune.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.
