This is the Windows app named Mistral Finetune whose latest release can be downloaded as mistral-finetunev1.1.0sourcecode.zip. It can be run online in the free hosting provider OnWorks for workstations.
OnWorks を使用して、Mistral Finetune というアプリを無料でダウンロードし、オンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
ミストラル・ファインチューン
DESCRIPTION
mistral-finetune は、Mistral のオープンモデル(7B、instruct バリアントなど)のメモリ効率とパフォーマンスに優れたファインチューニング用に設計された公式の軽量コードベースです。LoRA (Low-Rank Adaptation) などの技術を基盤としており、パラメータの完全な更新なしにモデルをカスタマイズできるため、GPU メモリのフットプリントとトレーニングコストを削減できます。リポジトリには、データ前処理用のユーティリティ(例:reformat_data.py)、検証スクリプト、7B ベースモデルや instruct モデルなどのバリアントをトレーニングするための YAML 設定サンプルが含まれています。関数呼び出し形式のデータセット(「messages」キー経由)とプレーンテキスト形式のデータセットをサポートし、ファインチューニング前のフォーマット、トークン化、語彙拡張(例:一部のモデルでは語彙を 32768 まで拡張)に関するガイドラインが提供されています。また、このプロジェクトでは、手順を順を追って説明するチュートリアルノートブック(例:mistral_finetune_7b.ipynb)も提供しています。
オプション
- メモリ使用量を削減し、効率的な適応を可能にするLoRAベースの微調整
- プレーンテキスト(「事前学習」)と「指示」/会話データセットの両方をサポート
- データの再フォーマットと検証を行うユーティリティ(reformat_data.py を含む)
- Mistral 7B トレーニングバリアントの YAML 構成の例
- 新規ユーザー向けのチュートリアル/ノートブック(例:7B の微調整例)
- 語彙拡張、トークン化、モデルの互換性に関するガイダンス
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/mistral-finetune.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。