Aceasta este aplicația Linux numită llama2.c a cărei ultimă versiune poate fi descărcată ca llama2.csourcecode.tar.gz. Poate fi rulată online în furnizorul de găzduire gratuită OnWorks pentru stații de lucru.
Descărcați și rulați online această aplicație numită llama2.c cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți emulatorul online OnWorks Linux sau Windows online sau emulatorul online MACOS de pe acest site web.
- 5. Din sistemul de operare OnWorks Linux pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația, instalați-o și rulați-o.
CAPTURĂ DE ECRAN:
llama2.c
DESCRIERE:
llama2.c este o implementare minimalistă a arhitecturii modelului de limbaj Llama 2, concepută să ruleze în întregime în C pur. Creat de Andrej Karpathy, acest proiect oferă un cadru educațional și ușor pentru efectuarea inferenței pe modele Llama 2 mici, fără dependențe externe. Acesta oferă o conductă completă de antrenament și inferență: modelele pot fi antrenate în PyTorch și ulterior executate folosind un program C concis de 700 de linii (run.c). Deși poate încărca din punct de vedere tehnic modelele oficiale Llama 2 ale Meta, suportul actual este limitat la precizia fp32, ceea ce înseamnă că utilizarea practică este limitată la modele cu aproximativ 7B de parametri. Scopul llama2.c este de a demonstra cum o implementare compactă și transparentă poate efectua inferențe semnificative chiar și cu modele mici, punând accent pe simplitate, claritate și accesibilitate. Proiectul se bazează pe lecțiile din nanoGPT și se inspiră din llama.cpp, concentrându-se în schimb pe minimalism și valoare educațională în detrimentul performanței la scară largă.
Categorii
- Implementează arhitectura completă Llama 2 atât pentru antrenament, cât și pentru inferență
- Oferă un motor de inferență compact, bazat pe C, cu 700 de linii (run.c)
- Permite antrenamentul în PyTorch și rularea modelelor direct în C
- Suportă precizia modelului fp32 pentru LLM-uri mai mici, la scară educațională
- Oferă o implementare curată, fără dependențe, pentru studiu și modificare ușoară
- Inspirat de llama.cpp, dar conceput pentru simplitate și minimalism
Limbaj de programare
C, Python
Categorii
Aceasta este o aplicație care poate fi descărcată și de la https://sourceforge.net/projects/llama2-c.mirror/. A fost găzduită în OnWorks pentru a putea fi rulată online în cel mai simplu mod de pe unul dintre sistemele noastre de operare gratuite.