これはCodeLlamaというWindowsアプリで、最新リリースはcodellamasourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks を使用して、CodeLlama というこのアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショット:
コードラマ
説明:
Code Llamaは、コード生成、補完、修復などのプログラミングタスクに最適化され、ベースコーディング、Python、命令追跡に特化したバリアントを備えたLlamaベースのコードモデルファミリーです。リポジトリには、サイズと機能(7B、13B、34Bなど)が文書化されており、実際のIDEワークフローをサポートするためのインフィルや大規模入力コンテキストなどの機能が強調されています。一般的なソフトウェア合成と言語固有の生産性の両方を対象としており、リリース時にオープンモデルの中で強力なパフォーマンスを提供します。典型的な使用法には、プロンプト駆動型生成、関数またはクラスの補完、コード変更に関する自然言語指示へのゼロショット準拠などがあります。エコシステムは複数のディストリビューション(HF形式など)を提供しているため、開発者は標準ツールチェーンやサービングスタックと統合できます。より広範なLlamaの取り組みの一環として、Code Llamaは、コード中心のタスクとエディタ統合に焦点を当てることで、命令調整されたチャットモデルを補完します。
オプション
- さまざまなレイテンシ/品質のニーズに対応する複数のモデル サイズ
- 基本コーディング、Python、命令フォローの特殊化
- ファイルの中間補完のためのインフィル
- 強力なゼロショットおよびプロンプト条件付きコード合成
- コーディングワークフローにおける長いコンテキストウィンドウのサポート
- 一般的なサービングツールチェーンと互換性のあるディストリビューション
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/codellama.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。