This is the Windows app named LLaMA 3 whose latest release can be downloaded as llama3sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
LLaMA 3 というこのアプリを OnWorks で無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショット:
ラマ3
説明:
このリポジトリは、Llama 3 のモデル成果物と入門コードの元本拠地であり、複数のパラメータサイズにわたる事前学習済みおよび命令調整済みのバリアントをカバーしています。このリポジトリでは、重み、ライセンス、クイックスタート例の公開パッケージが導入され、開発者がモデルをローカルおよび共通のサービングスタックで微調整または実行するのに役立ちました。Llama スタックが進化するにつれて、Meta はリポジトリを統合し、このリポジトリを非推奨としてマークし、モデル、ユーティリティ、ドキュメントのための新しい集中型ハブをユーザーに示しました。非推奨リポジトリであっても、移行パスを文書化し、Llama 3 リリースが現在のエコシステムにどのようにマッピングされるかを明確にする参照を保持しています。実際には、ディストリビューションと推論および微調整用のスターターコードを標準化することで、Llama 2 以降の Llama リリース間の橋渡しとして機能しました。チームは今でも、これをバージョンの系統と移行メモの歴史的参考資料として扱っています。
オプション
- Llama 3 による推論と微調整のためのスターターコード
- レイテンシと品質のバランスをとるための複数のモデルサイズ
- 現在のLlamaリポジトリとツールへの移行に関する指針
- 商業および研究シナリオ向けの明確なライセンスと使用ガイダンス
- 提供と評価のワークフローの例
- モデルの系譜とリリースノートの履歴参照
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/llama-3.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。