これはllama2.cという名前のLinuxアプリケーションで、最新リリースはllama2.csourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks を使用して、llama2.c というこのアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
ラマ2.c
説明:
llama2.c は、Llama 2 言語モデルアーキテクチャの最小限の実装であり、完全に純粋な C で実行されるように設計されています。Andrej Karpathy によって作成されたこのプロジェクトは、外部依存なしで小さな Llama 2 モデルで推論を実行するための教育的で軽量なフレームワークを提供します。完全なトレーニングおよび推論パイプラインを提供します。モデルは PyTorch でトレーニングし、後で簡潔な 700 行の C プログラム (run.c) を使用して実行できます。技術的には Meta の公式 Llama 2 モデルを読み込むことができますが、現在のサポートは fp32 精度に制限されているため、実用的には最大約 7 億パラメータのモデルに制限されます。llama2.c の目標は、コンパクトで透過的な実装が、小さなモデルでも意味のある推論を実行できることを示し、シンプルさ、明快さ、およびアクセシビリティを強調することです。このプロジェクトは、nanoGPT から学んだ教訓を基に構築され、llama.cpp からインスピレーションを得ており、大規模なパフォーマンスよりも最小限の実装と教育的価値に重点を置いています。
オプション
- トレーニングと推論の両方にLlama 2アーキテクチャを完全実装
- コンパクトな700行のCベースの推論エンジン(run.c)を提供します。
- PyTorchでトレーニングし、Cで直接モデルを実行できる
- 小規模な教育規模のLLM向けにfp32モデル精度をサポート
- 簡単に調査および変更できるように、クリーンで依存関係のない実装を提供します。
- llama.cpp にインスパイアされていますが、シンプルさとミニマリズムを重視して設計されています
プログラミング言語
C、Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/llama2-c.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。