This is the Windows app named OpenLIT whose latest release can be downloaded as py-1.33.23sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Download and run online this app named OpenLIT with OnWorks for free.
ഈ ആപ്പ് പ്രവർത്തിപ്പിക്കുന്നതിന് ഈ നിർദ്ദേശങ്ങൾ പാലിക്കുക:
- 1. നിങ്ങളുടെ പിസിയിൽ ഈ ആപ്ലിക്കേഷൻ ഡൗൺലോഡ് ചെയ്തു.
- 2. ഞങ്ങളുടെ ഫയൽ മാനേജറിൽ https://www.onworks.net/myfiles.php?username=XXXXX എന്നതിൽ നിങ്ങൾക്ക് ആവശ്യമുള്ള ഉപയോക്തൃനാമം നൽകുക.
- 3. അത്തരം ഫയൽമാനേജറിൽ ഈ ആപ്ലിക്കേഷൻ അപ്ലോഡ് ചെയ്യുക.
- 4. ഈ വെബ്സൈറ്റിൽ നിന്ന് ഏതെങ്കിലും OS OnWorks ഓൺലൈൻ എമുലേറ്റർ ആരംഭിക്കുക, എന്നാൽ മികച്ച Windows ഓൺലൈൻ എമുലേറ്റർ.
- 5. നിങ്ങൾ ഇപ്പോൾ ആരംഭിച്ച OnWorks Windows OS-ൽ നിന്ന്, നിങ്ങൾക്ക് ആവശ്യമുള്ള ഉപയോക്തൃനാമത്തോടുകൂടിയ ഞങ്ങളുടെ ഫയൽ മാനേജർ https://www.onworks.net/myfiles.php?username=XXXXX എന്നതിലേക്ക് പോകുക.
- 6. ആപ്ലിക്കേഷൻ ഡൗൺലോഡ് ചെയ്ത് ഇൻസ്റ്റാൾ ചെയ്യുക.
- 7. നിങ്ങളുടെ Linux വിതരണ സോഫ്റ്റ്വെയർ ശേഖരണങ്ങളിൽ നിന്ന് വൈൻ ഡൗൺലോഡ് ചെയ്യുക. ഇൻസ്റ്റാൾ ചെയ്തുകഴിഞ്ഞാൽ, വൈൻ ഉപയോഗിച്ച് അവ പ്രവർത്തിപ്പിക്കുന്നതിന് നിങ്ങൾക്ക് ആപ്പിൽ ഡബിൾ ക്ലിക്ക് ചെയ്യാം. ജനപ്രിയ വിൻഡോസ് പ്രോഗ്രാമുകളും ഗെയിമുകളും ഇൻസ്റ്റാൾ ചെയ്യാൻ സഹായിക്കുന്ന വൈനിലൂടെയുള്ള ഫാൻസി ഇന്റർഫേസായ PlayOnLinux നിങ്ങൾക്ക് പരീക്ഷിക്കാവുന്നതാണ്.
ലിനക്സിൽ വിൻഡോസ് സോഫ്റ്റ്വെയർ പ്രവർത്തിപ്പിക്കാനുള്ള ഒരു മാർഗമാണ് വൈൻ, എന്നാൽ വിൻഡോസ് ആവശ്യമില്ല. ഏത് ലിനക്സ് ഡെസ്ക്ടോപ്പിലും നേരിട്ട് വിൻഡോസ് പ്രോഗ്രാമുകൾ പ്രവർത്തിപ്പിക്കാൻ കഴിയുന്ന ഒരു ഓപ്പൺ സോഴ്സ് വിൻഡോസ് കോംപാറ്റിബിലിറ്റി ലെയറാണ് വൈൻ. അടിസ്ഥാനപരമായി, വൈൻ ആദ്യം മുതൽ ആവശ്യത്തിന് വിൻഡോസ് വീണ്ടും നടപ്പിലാക്കാൻ ശ്രമിക്കുന്നു, അതുവഴി യഥാർത്ഥത്തിൽ വിൻഡോസ് ആവശ്യമില്ലാതെ തന്നെ എല്ലാ വിൻഡോസ് ആപ്ലിക്കേഷനുകളും പ്രവർത്തിപ്പിക്കാൻ കഴിയും.
സ്ക്രീൻഷോട്ടുകൾ
Ad
ഓപ്പൺലിറ്റ്
വിവരണം
OpenLIT is an OpenTelemetry-native tool designed to help developers gain insights into the performance of their LLM applications in production. It automatically collects LLM input and output metadata and monitors GPU performance for self-hosted LLMs. OpenLIT makes integrating observability into GenAI projects effortless with just a single line of code. Whether you're working with popular LLM providers such as OpenAI and HuggingFace, or leveraging vector databases like ChromaDB, OpenLIT ensures your applications are monitored seamlessly, providing critical insights including GPU performance stats for self-hosted LLMs to improve performance and reliability. This project proudly follows the Semantic Conventions of the OpenTelemetry community, consistently updating to align with the latest standards in observability.
സവിശേഷതകൾ
- Advanced Monitoring of LLM and VectorDB Performance
- Cost Tracking for Custom and Fine-Tuned Models
- Cost Tracking for Custom and Fine-Tuned Models
- ഡോക്യുമെന്റേഷൻ ലഭ്യമാണ്
- OpenTelemetry-native & vendor-neutral SDKs
- ഉദാഹരണങ്ങൾ ലഭ്യമാണ്
- OpenLIT enables you to tailor cost tracking for specific models
- OpenLIT is built with native support for OpenTelemetry
പ്രോഗ്രാമിംഗ് ഭാഷ
പൈത്തൺ
Categories
This is an application that can also be fetched from https://sourceforge.net/projects/openlit.mirror/. It has been hosted in OnWorks in order to be run online in an easiest way from one of our free Operative Systems.