Jest to aplikacja dla systemu Windows o nazwie ChatLLM Web, której najnowszą wersję można pobrać w wersji 1.0.0.zip. Można go uruchomić online w bezpłatnym dostawcy hostingu OnWorks dla stacji roboczych.
Pobierz i uruchom online tę aplikację o nazwie ChatLLM Web z OnWorks za darmo.
Postępuj zgodnie z tymi instrukcjami, aby uruchomić tę aplikację:
- 1. Pobrałem tę aplikację na swój komputer.
- 2. Wpisz w naszym menedżerze plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.
- 3. Prześlij tę aplikację w takim menedżerze plików.
- 4. Uruchom dowolny emulator online systemu operacyjnego OnWorks z tej witryny, ale lepszy emulator online systemu Windows.
- 5. W systemie operacyjnym OnWorks Windows, który właśnie uruchomiłeś, przejdź do naszego menedżera plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.
- 6. Pobierz aplikację i zainstaluj ją.
- 7. Pobierz Wine z repozytoriów oprogramowania dystrybucji Linuksa. Po zainstalowaniu możesz dwukrotnie kliknąć aplikację, aby uruchomić ją za pomocą Wine. Możesz także wypróbować PlayOnLinux, fantazyjny interfejs w Wine, który pomoże Ci zainstalować popularne programy i gry Windows.
Wine to sposób na uruchamianie oprogramowania Windows w systemie Linux, ale bez systemu Windows. Wine to warstwa kompatybilności z systemem Windows typu open source, która może uruchamiać programy systemu Windows bezpośrednio na dowolnym pulpicie systemu Linux. Zasadniczo Wine próbuje ponownie zaimplementować system Windows od podstaw, aby mógł uruchamiać wszystkie te aplikacje Windows bez faktycznego korzystania z systemu Windows.
ZRZUTY EKRANU
Ad
CzatLLM WWW
OPIS
Czatuj z LLM jak Vicuna całkowicie w przeglądarce za pomocą WebGPU, bezpiecznie, prywatnie i bez serwera. Obsługiwane przez web-llm. Aby korzystać z tej aplikacji, potrzebujesz przeglądarki obsługującej WebGPU, takiej jak Chrome 113 lub Chrome Canary. Wersje przeglądarki Chrome ≤ 112 nie są obsługiwane. Będziesz potrzebował procesora graficznego z około 6.4 GB pamięci. Jeśli Twój procesor graficzny ma mniej pamięci, aplikacja będzie nadal działać, ale czas odpowiedzi będzie wolniejszy. Przy pierwszym użyciu aplikacji konieczne będzie pobranie modelu. W przypadku modelu Vicuna-7b, z którego obecnie korzystamy, rozmiar pliku do pobrania wynosi około 4 GB. Po pierwszym pobraniu model zostanie załadowany z pamięci podręcznej przeglądarki w celu szybszego użycia.
Korzyści
- Wszystko działa w przeglądarce bez obsługi serwera i jest przyspieszane przez WebGPU
- Model działa w środowisku internetowym, co gwarantuje, że nie blokuje interfejsu użytkownika i zapewnia płynność działania
- Łatwe do bezpłatnego wdrożenia za pomocą jednego kliknięcia na Vercel w czasie krótszym niż 1 minuta, a następnie otrzymasz własną sieć ChatLLM
- Obsługiwane jest buforowanie modelu, więc wystarczy pobrać model tylko raz
- Czat z wieloma rozmowami, a wszystkie dane są przechowywane lokalnie w przeglądarce w celu zapewnienia prywatności
- Obsługa przecen i odpowiedzi strumieniowych: matematyka, podświetlanie kodu itp.
Język programowania
JAVASCRIPT
Kategorie
Jest to aplikacja, którą można również pobrać ze strony https://sourceforge.net/projects/chatllm-web.mirror/. Został on hostowany w OnWorks, aby można go było uruchomić online w najprostszy sposób z jednego z naszych bezpłatnych systemów operacyjnych.