Dies ist die Windows-Anwendung „LLM Course“, deren neueste Version als llm-coursesourcecode.zip heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie die App „LLM Course with OnWorks“ kostenlos herunter und nutzen Sie sie online.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS:
LLM-Kurs
BESCHREIBUNG:
Der LLM-Kurs ist ein praxisorientierter, notebookbasierter Lernpfad, der die Funktionsweise großer Sprachmodelle in der Praxis vermittelt – von der Datenaufbereitung über Training, Feinabstimmung und Evaluierung bis hin zum Deployment. Er legt Wert auf reproduzierbare Experimente: Jeder Schritt wird anhand von lauffähigem Code, klaren Abhängigkeiten und Verweisen auf gängige Open-Source-Modelle und -Bibliotheken demonstriert. Die Teilnehmenden lernen verschiedene Anpassungsstrategien kennen – LoRA/QLoRA, Feinabstimmung der Instruktionen und Alignment-Techniken –, um die für ihre Hardware und ihr Budget passenden Ansätze auszuwählen. Die Materialien behandeln außerdem Inferenzoptimierung und Quantisierung, um den Einsatz von LLMs auf handelsüblichen GPUs oder sogar CPUs zu ermöglichen. Dies ist insbesondere für Nebenprojekte und Startups entscheidend. Die Evaluierung wird als zentrales Thema behandelt, mit Beispielen für automatische und manuelle Methoden, um Regressionen zu erkennen und die Qualität über einfache Verlustwerte hinaus zu überprüfen. Am Ende des Kurses verfügen die Teilnehmenden über ein mentales Modell und ein praktisches Werkzeugset für die Iteration mit Datensätzen, Trainingskonfigurationen usw.
Eigenschaften
- Vollständige Notebooks, die Datenaufbereitung, Training, Feinabstimmung und Bereitstellung abdecken.
- Praxisorientierter Schwerpunkt auf LoRA/QLoRA, Befehlsoptimierung und Ausrichtungs-Workflows
- Leitfaden für ressourcenbeschränkte Hardware plus Quantisierungstechniken
- Reproduzierbare Setups mit festgelegten Abhängigkeiten und übersichtlichen Konfigurationen
- Auswertungs-Notebooks für automatisierte Metriken und menschliche Überprüfungsschleifen
- Tipps für die Paketierung, die Optimierung der Inferenz und die ressourcenschonende Bereitstellung
Programmiersprache
JavaScript
Kategorien
Diese Anwendung kann auch unter https://sourceforge.net/projects/llm-course.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um die Online-Nutzung über eines unserer kostenlosen Betriebssysteme so einfach wie möglich zu gestalten.