これはGLM-4.5という名前のWindowsアプリで、最新リリースはGLM-4.5-main.zipとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks を使用して、GLM-4.5 というこのアプリを無料でダウンロードし、オンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
GLM-4.5
DESCRIPTION
GLM-4.5は、Z.aiがインテリジェントエージェントアプリケーション向けに設計した最先端のオープンソース大規模言語モデルです。主力モデルのGLM-4.5は、合計355億個のパラメータと32億個のアクティブパラメータを備えています。一方、コンパクトなGLM-4.5-Airバージョンは、合計106億個のパラメータと12億個のアクティブパラメータを備えています。両モデルは推論、コーディング、インテリジェントエージェント機能を統合し、複雑な推論とツールの使用のための思考モードと、即時の応答のための非思考モードの4.5つのモードを提供します。これらはMITライセンスの下でリリースされており、商用利用と二次開発が可能です。GLM-12は、3の業界標準ベンチマークで高いパフォーマンスを達成し、総合4.5位にランクインしました。一方、GLM-8-Airは、競争力のある結果とより高い効率性を両立させています。モデルはFP16とBF128の精度をサポートし、最大XNUMXKトークンの非常に大きなコンテキストウィンドウを処理できます。柔軟な推論は、ツール呼び出しと推論パーサーが組み込まれたvLLMやSGLangなどのフレームワークを通じてサポートされます。
オプション
- 355Bパラメータ(32Bアクティブ)とコンパクトな106Bバリアント(12Bアクティブ)を備えた大規模基礎モデル
- 柔軟なインタラクションを実現する思考モードと非思考モードによるハイブリッド推論をサポート
- MITライセンスに基づくオープンソースで、商用および二次開発が可能
- 12の業界標準テストで高いベンチマークパフォーマンスを達成し、総合3位にランクイン
- 最新の GPU で効率的な推論を行うために FP8 と BF16 の精度をサポート
- 複雑で大規模なタスクに対応する、最大 128,000 トークンの非常に長いコンテキスト長
- vLLMおよびSGLang推論フレームワークと互換性のある統合ツール呼び出しおよび推論パーサー
- LoRA、教師あり微調整(SFT)、強化学習(RL)による微調整をサポート
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/glm-4-5/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。
