これはQwen3というLinuxアプリで、最新リリースはQwen3-main.zipとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks を使用して、Qwen3 というこのアプリを無料でダウンロードし、オンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
クウェン3
DESCRIPTION
Qwen3は、Alibaba CloudのQwenチームによって開発された最先端の大規模言語モデル(LLM)シリーズです。最新のアップデートバージョンであるQwen3-235B-A22B-Instruct-2507では、命令追従、推論、知識カバレッジ、そして最大256Kトークンまでの長文文脈理解において大幅な改善が図られています。数学、コーディング、科学、ツールの使用など、複数の言語と分野において、より高品質で役立つテキスト生成を実現します。
オプション
- 強化された機能: 論理的推論、テキスト理解、およびマルチドメイン知識が向上します。
- 長期コンテキスト理解: 最大 256,000 トークンのコンテキストをサポートし、複雑で拡張された会話やドキュメント処理を可能にします。
- より優れた調整: モデルは、ユーザーの指示や自由形式のクエリに対して、より有益かつ自然に応答します。
- 複数のモデル サイズ: 小型モデルからフラッグシップの 235B パラメータ モデルまで、さまざまなサイズをご用意しています。
- 非思考モード: 現在のメインリリースでは、非思考モード(
ブロック)。 - 多言語サポート: 幅広いロングテール知識で多くの言語をカバーします。
- Transformers、llama.cpp、Ollama、LMStudio などの一般的な ML フレームワークと互換性があります。
- スケーラブルな展開のために、SGLang、vLLM、TensorRT-LLM などの高度な推論フレームワークによってサポートされています。
- シームレスな統合のために OpenAI 仕様と互換性のある API を提供します。
- SFT、RLHF、および Axolotl、UnSloth、Llama-Factory などの他のトレーニング フレームワークを使用した微調整をサポートします。
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/qwen3/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。