これは Web LLM という名前の Windows アプリで、最新リリースは v0.2.0.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
Web LLM with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
ウェブLLM
DESCRIPTION
WebLLM は、ハードウェア アクセラレーションを使用して言語モデル チャットを Web ブラウザに直接提供する、モジュール式のカスタマイズ可能な JavaScript パッケージです。 すべてはサーバーのサポートなしでブラウザ内で実行され、WebGPU によって高速化されます。 私たちは、あらゆる人向けの AI アシスタントを構築し、GPU アクセラレーションを楽しみながらプライバシーを有効にする、たくさんの楽しい機会を提供できます。 WebLLM は、ブラウザーでチャットボットにアクセスするための最小限のモジュール式インターフェイスを提供します。 WebLLM パッケージ自体には UI は付属しておらず、任意の UI コンポーネントにフックするモジュール式の方法で設計されています。 次のコード スニペットは、Web ページ上でストリーミング応答を生成する簡単な例を示しています。
オプション
- WebLLM には WebWorker の API サポートが付属しているため、生成プロセスを別のワーカー スレッドにフックして、Webworker の計算によって UI が中断されないようにすることができます。
- 完全なチャット アプリの例は、examples/simple-chat にあります。
- WebLLM は MLC LLM の関連プロジェクトとして機能します
- モデルアーティファクトを再利用し、MLC LLM のフローを構築します
- ソースから WebLLM パッケージをビルドする
- WebLLM パッケージは、MLC LLM 用に設計された Web ランタイムです。
プログラミング言語
タイプスクリプト
カテゴリー
これは、https://sourceforge.net/projects/web-llm.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。