Questa è l'app Linux chiamata LLaMA Efficient Tuning, la cui ultima versione può essere scaricata come v0.9.3_Llama4,Gemma3,Qwen3,InternVL3,Qwen2.5-Omnisourcecode.tar.gz. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online gratuitamente questa app denominata LLaMA Efficient Tuning con OnWorks.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.
- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione, installala ed eseguila.
IMMAGINI:
LLaMA Ottimizzazione efficiente
DESCRIZIONE:
Framework di ottimizzazione LLM di facile utilizzo (LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, ChatGLM2)
Caratteristiche
- Python 3.8+ e PyTorch 1.13.1+
- Trasformatori, set di dati, Accelerate, PEFT e TRL
- jieba, rouge-chinese e nltk (utilizzati durante la valutazione)
- gradio e matplotlib (utilizzati in web_demo.py)
- uvicorn, fastapi e sse-starlette (usati in api_demo.py)
- Attualmente l'interfaccia utente Web supporta solo l'addestramento su una singola GPU
Linguaggio di programmazione
Python
Categorie
Questa è un'applicazione che può essere recuperata anche da https://sourceforge.net/projects/llama-efficient-tuning.mirror/. È stato ospitato su OnWorks per poter essere eseguito online in modo più semplice da uno dei nostri sistemi operativi gratuiti.