これは、Ubuntu Online、Fedora Online、Windows オンライン エミュレーター、MAC OS オンライン エミュレーターなど、複数の無料オンライン ワークステーションのいずれかを使用して、OnWorks 無料ホスティング プロバイダーで実行できるコマンド vw です。
プログラム:
NAME
vw - Vowpal Wabbit -- 高速オンライン学習ツール
DESCRIPTION
VW オプション:
--random_seed argは
シード乱数ジェネレーター
- 指輪のサイズ argは
例のリングのサイズ
更新 オプション:
-l [ --learning_rate ] 引数
学習率の設定
--power_t argは
tパワー値
--decay_learning_rate argは
パス間の learning_rate の減衰係数を設定する
--initial_t argは
初期t値
--feature_mask argは
既存のリグレッサーを使用して、更新できるパラメーターを決定します。 いいえ
initial_regressor が与えられ、初期重みにも使用されます。
重量 オプション:
-i [ --initial_regressor ] 引数
初期リグレッサー
--initial_weight argは
すべての重みを arg の初期値に設定します。
--random_weights argは
初期重みをランダムにする
--input_feature_regulaizer argは
特徴正則化入力ファイルごと
並列化 オプション:
--span_server argは
スパニングツリーを設定するサーバーの場所
-スレッド
マルチスレッドを有効にする
- 一意のID arg(= 0)
クラスター並列ジョブに使用される一意の ID
- 合計 arg(= 1)
クラスター並列ジョブで使用されるノードの総数
- ノード arg(= 0)
クラスタ並列ジョブのノード番号
診断的 オプション:
- バージョン
バージョン情報
-a [ - 監査 ]
特徴の重みを出力する
-P [ - 進捗 ] 引数
進行状況の更新頻度。 int: 加法、float: 乗法
- 静かな
診断と進行状況の更新を出力しない
-h [ - 助けて ]
ここを見て: http://hunch.net/~vw/ そしてチュートリアルをクリック。
機能 オプション:
- ハッシュ argは
機能をハッシュする方法。 利用可能なオプション: 文字列、すべて
- 無視 argは
文字で始まる名前空間を無視する
- 保つ argは
文字で始まる名前空間を維持する
--再定義 argは
文字列 S の文字で始まる名前空間を名前空間 N として再定義します。
'N:=S' の形式である必要があります。ここで、:= は演算子です。 空の N または S はデフォルトとして扱われます
名前空間。 S のワイルドカードとして「:」を使用します。
-b [ --bit_precision ] 引数
特徴テーブルのビット数
-- 定数なし
一定の機能を追加しないでください
-C [ - 絶え間ない ] 引数
定数の初期値を設定
--ngram argは
N グラムを生成します。 単一の名前空間 'foo' に対して N グラムを生成するには、arg を次のようにする必要があります。
fN.
--スキップ argは
スキップを N グラム単位で生成します。 これを ngram タグと組み合わせて使用することができます
一般化された n-skip-k-gram を生成します。 単一の名前空間の n-skips を生成するには
'foo'、arg は fN である必要があります。
--feature_limit argは
N 個の機能に制限します。 単一の名前空間 'foo' に適用するには、arg を fN にする必要があります
- 接辞 argは
機能のプレフィックス/サフィックスを生成します。 引数 '+2a,-3b,+1' は 2 文字の生成を意味します
名前空間 a のプレフィックス、b の 3 文字のサフィックス、およびデフォルトの 1 文字のプレフィックス
名前空間
- つづり argは
指定された名前空間のスペル機能を計算します (デフォルトの名前空間には「_」を使用します)
- 辞書 argは
追加機能の辞書を読み取ります (引数 'x:file' または単に 'file' のいずれか)
--dictionary_path argは
このディレクトリで辞書を探します。 デフォルトは現在のディレクトリまたはenv{PATH}
-- 相互作用 argは
名前空間間であらゆるレベルの機能の相互作用を作成します。
--順列
同じ機能の相互作用には、組み合わせではなく順列を使用します
名前空間
--leave_duplicate_interactions
名前空間の重複した組み合わせとの相互作用を削除しないでください。 たとえば。 これ
重複しています: '-q ab -q ba' および '-q ::' にはさらに多くの機能があります。
-q [ --二次 ] 引数
二次機能の作成と使用
- NS: 引数
: すべての印刷可能な文字のワイルドカードに対応
- キュービック argは
キュービック フィーチャの作成と使用
例: オプション:
-t [ --testonly ]
ラベル情報を無視してテストするだけ
--holdout_off
複数のパスでホールドアウト データなし
--holdout_period argは
テストのみのホールドアウト期間、デフォルトは 10
--holdout_after argは
n トレーニング例の後のホールドアウト、デフォルトはオフ (holdout_period を無効にする)
--early_terminate argは
ホールドアウト損失が前に減少しない場合に許容されるパスの数を指定します
早期終了、デフォルトは 3
-パス argは
トレーニング パスの数
--initial_pass_length argは
パスごとのサンプルの初期数
-例 argは
解析する例の数
--min_prediction argは
出力する最小予測
--max_prediction argは
出力する最大の予測
--sort_features
これをオンにすると、機能が定義された順序が無視されます。 これは
より小さなキャッシュサイズへ
--loss_function 引数 (=二乗)
使用する損失関数を指定します。デフォルトでは二乗を使用します。 現在利用可能
XNUMX つは二乗、クラシック、ヒンジ、ロジスティック、分位数です。
--quantile_tau arg(= 0.5)
分位損失に関連するパラメータ \tau。 デフォルトは 0.5
--l1 argは
l_1 ラムダ
--l2 argは
l_2 ラムダ
--named_labels argは
引数を指定して、整数ではなくラベル (マルチクラスなど) に名前を使用します
すべての可能なラベル、コンマ区切り、例: "--named_labels Noun,Verb,Adj,Punc"
出力 モデル:
-f [ --final_regressor ] 引数
最終リグレッサー
--readable_model argは
数値機能を備えた人間が判読できる最終リグレッサーを出力する
--invert_hash argは
人間が判読できる最終リグレッサーを機能名とともに出力します。 計算的に
高価な。
--save_resume
余分な状態を保存して、後で新しいデータで学習を再開できるようにする
--save_per_pass
データを渡すたびにモデルを保存する
--output_feature_regulator_binary argは
機能ごとの正則化出力ファイル
--output_feature_regulatory_text arg フィーチャの正則化出力ファイルごとに、
本文中
出力 オプション:
-p [ -- 予測 ] 引数
予測を出力するファイル
-r [ --raw_predictions ] 引数
正規化されていない予測を出力するファイル
削減オプション、[オプション] を使用 - 助けて 詳細:
-ブートストラップ argは
オンライン重要度リサンプリングによる k-way ブートストラップ
- 探す argは
学習を使用して検索します。引数 = 最大アクション ID または LDF の場合は 0
--replay_c argは
指定されたレベル[b=分類/回帰、
m=マルチクラス、c=コストに敏感] 指定されたバッファサイズ
--cbify argは
マルチクラスをオンに変換クラスをコンテキストバンディット問題に変換
--cb_adf
複数行のアクションに依存する機能を使用して、コンテキスト バンディット学習を行います。
--cb argは
コンテキスト バンディット学習を使用するコスト
--csoaa_ldf argは
ラベルに依存する機能を備えた XNUMX 対 XNUMX のマルチクラス学習を使用します。 特定
シングルラインまたはマルチライン。
--wap_ldf argは
ラベル依存の特徴を持つ重み付けされた全ペア マルチクラス学習を使用します。
単一行または複数行を指定します。
- 交流する argは
名前空間からフィーチャー プロダクトに重みを付けると
--csoaa argは
XNUMX 対 XNUMX のマルチクラスコスト
--multilabel_oaa argは
XNUMX 対 XNUMX のマルチラベルラベル
--log_multi argは
マルチクラスにオンライン ツリーを使用する
--ect argは
トーナメントのエラー修正ラベル
--ブースト中 argは
によるオンラインブースティング弱い学習者
--oaa argは
XNUMX 対 XNUMX のマルチクラスラベル
- 上 argは
トップkの推奨事項
--replay_m argは
指定されたレベル[b=分類/回帰、
m=マルチクラス、c=コストに敏感] 指定されたバッファサイズ
- バイナリ
のバイナリ分類として損失を報告する -1,1
- リンク arg (=ID)
リンク関数を指定します: ID、ロジスティック、または glf1
--stage_poly
段階的多項式特徴学習を使用する
--lrqfa argは
フィールド認識重み付きの低ランク二次機能を使用する
--lrq argは
低ランクの二次機能を使用する
--オートリンク argは
多項式 d でリンク関数を作成する
--new_mf argは
リダクションベースの行列分解のランク
--nn argは
を使用したシグモイド フィードフォワード ネットワーク隠しユニット
- 自信
バイナリ予測の信頼性を得る
--active_cover
カバーでアクティブ ラーニングを有効にする
- アクティブ
アクティブ ラーニングを有効にする
--replay_b argは
指定されたレベル[b=分類/回帰、
m=マルチクラス、c=コストに敏感] 指定されたバッファサイズ
--bfgs bfgs 最適化を使用する
--conjugate_gradient
共役勾配ベースの最適化を使用する
--lda argは
でldaを実行トピック
--いいえ 学習しない
-印刷
印刷例
-ランク argは
行列分解のランク。
- に送る argは
例を送る
--svrg ストリーミング確率的分散減少勾配
--ftrl FTRL: 近位正規化リーダーに従う
- ピストル
FTRL: パラメータのない確率的学習
--ksvm カーネル svm
勾配 降下 オプション:
--sgd 通常の確率的勾配降下更新を使用します。
--適応型
適応型の個別学習率を使用します。
-不変
安全/重要な更新を使用します。
--正規化された
機能ごとに正規化された更新を使用する
--sparse_l2 arg(= 0)
機能ごとに正規化された更新を使用する
入力 オプション:
-d [ - データ ] 引数
例セット
- デーモン
ポート 26542 での永続的なデーモン モード
- 港 argは
リッスンするポート。 0 を使用して未使用のポートを選択します
--num_children argは
永続的なデーモン モードの子の数
--pid_file argは
永続的なデーモン モードで pid ファイルを書き込む
--ポートファイル argは
永続的なデーモン モードで使用される書き込みポート
-c [ - キャッシュ ]
キャッシュを使用します。 デフォルトは。キャッシュ
--キャッシュファイル argは
cache_file の場所。
-k [ --kill_cache ]
既存のキャッシュを再利用しない: 常に新しいキャッシュを作成する
-圧縮
可能な限り gzip 形式を使用してください。 キャッシュ ファイルが作成されている場合、このオプションは
圧縮されたキャッシュ ファイルを作成します。 生テキストと圧縮された入力の混合は
自動検出でサポートされています。
--no_stdin
標準入力からの読み取りをデフォルトにしない
onworks.net サービスを使用して vw online を使用する