Aceasta este aplicația Linux numită LiteLLM a cărei ultimă versiune poate fi descărcată ca v0.11.1sourcecode.zip. Poate fi rulat online în furnizorul de găzduire gratuit OnWorks pentru stații de lucru.
Descărcați și rulați online această aplicație numită LiteLLM cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți emulatorul online OnWorks Linux sau Windows online sau emulatorul online MACOS de pe acest site web.
- 5. Din sistemul de operare OnWorks Linux pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația, instalați-o și rulați-o.
SCREENSHOTS
Ad
LiteLLM
DESCRIERE
Apelați toate API-urile LLM folosind formatul OpenAI [Anthropic, Huggingface, Cohere, Azure OpenAI etc.] liteLLM acceptă transmiterea în flux a răspunsului modelului înapoi, pass stream=True pentru a obține un iterator de streaming ca răspuns. Streamingul este acceptat pentru modelele OpenAI, Azure, Anthropic și Huggingface.
DESCRIERE
- Traducerea intrărilor la finalizarea furnizorului și încorporarea punctelor finale
- Garantează rezultate consistente, răspunsurile text vor fi întotdeauna disponibile
- Maparea excepțiilor
- Excepțiile comune între furnizori sunt mapate la tipurile de excepții OpenAI
- Client LiteLLM - depanare și 1-clic adăugați noi LLM-uri
- liteLLM acceptă transmiterea înapoi a răspunsului modelului
Limbaj de programare
Piton
Categorii
Aceasta este o aplicație care poate fi preluată și de la https://sourceforge.net/projects/litellm.mirror/. A fost găzduit în OnWorks pentru a fi rulat online într-un mod cât mai ușor de pe unul dintre sistemele noastre operative gratuite.