英語フランス語スペイン語

Ad


OnWorksファビコン

wget - クラウドでオンライン

Ubuntu Online、Fedora Online、Windows オンライン エミュレーター、または MAC OS オンライン エミュレーターを介して、OnWorks の無料ホスティング プロバイダーで wget を実行します。

これは、Ubuntu Online、Fedora Online、Windows オンライン エミュレーター、または MAC OS オンライン エミュレーターなどの複数の無料オンライン ワークステーションの XNUMX つを使用して、OnWorks 無料ホスティング プロバイダーで実行できるコマンド wget です。

プログラム:

NAME


Wget - 非対話型ネットワーク ダウンローダー。

SYNOPSIS


ウィゲット [オプション] ... [URL] ...

DESCRIPTION


GNU Wget は、Web からファイルを非対話型でダウンロードするための無料のユーティリティです。 それ
は、HTTP、HTTPS、および FTP プロトコルに加えて、HTTP プロキシを介した取得をサポートします。

Wget は非対話型です。つまり、ユーザーが操作を行っていなくても、バックグラウンドで動作できます。
ログオン。 これにより、取得を開始してシステムから切断できるようになり、
仕事を終わらせてください。 対照的に、ほとんどの Web ブラウザでは、ユーザーの継続的なアクセスが必要です。
存在すると、大量のデータを転送するときに大きな障害となる可能性があります。

Wget は、HTML、XHTML、CSS ページ内のリンクをたどって、リモートのローカル バージョンを作成できます。
Web サイトでは、元のサイトのディレクトリ構造が完全に再作成されます。 これは
「再帰的ダウンロード」と呼ばれることもあります。 その際、Wget は
ロボット排除基準(/ロボット.txt)。 Wget にリンクを変換するように指示できます。
ダウンロードされたファイルは、オフラインで表示できるようにローカル ファイルをポイントします。

Wget は、低速または不安定なネットワーク接続でも堅牢になるように設計されています。 もし
ネットワークの問題によりダウンロードが失敗します。ファイル全体が完了するまで再試行されます。
回収された。 サーバーが再取得をサポートしている場合は、サーバーに続行するように指示します。
中断したところからダウンロードします。

Wget はクライアント失効リスト (CRL) をサポートしていないため、HTTPS 証明書は
への接続はサイト所有者によって取り消される可能性があります。

OPTIONS


オプション 構文
Wget はコマンドライン引数の処理に GNU getopt を使用するため、すべてのオプションは長い形式になります。
短いのも一緒に。 長いオプションは覚えておくと便利ですが、覚えるのに時間がかかります。
タイプ。 異なるオプション スタイルを自由に組み合わせたり、コマンドの後にオプションを指定したりできます。
行の引数。 したがって、次のように書くことができます。

wget -r --tries=10 http://fly.srk.fer.hr/ -o ログ

引数を受け取るオプションと引数の間のスペースは省略できます。
の代わりに -o ログ あなたは書ける -オログ.

次のように、引数を必要としない複数のオプションを組み合わせることができます。

wget -drc

これは以下と完全に同等です。

wget -d -r -c

オプションは引数の後に指定できるので、 --.
したがって、次はURLをダウンロードしようとします -x、失敗を報告する ログ:

wget -o log -- -x

カンマ区切りリストを受け入れるオプションはすべて、指定する規則を尊重します。
空のリストはその値をクリアします。 これは、 .wgetrc 設定。 ために
たとえば、あなたの場合、 .wgetrc 「exclude_directories」を次のように設定します /cgi-bin、次の例
まずリセットしてから、除外するように設定します /~誰も & /~誰か。 あなたがすることもできます
~のリストをクリアする .wgetrc.

wget -X " -X /~誰も、/~誰か

引数を受け入れないほとんどのオプションは次のとおりです。 ブール値 オプションの名前は、
状態は、はいまたはいいえ (「ブール」) 変数でキャプチャできます。 例えば、 --フォロー-ftp
Wget に HTML ファイルからの FTP リンクをたどるよう指示しますが、その一方で、 --グロブなし それを伝えます
FTP URL でファイルのグロビングを実行しないようにします。 ブール型オプションは次のいずれかです 肯定的な or
(から始まる - いいえ)。 このようなオプションはすべて、いくつかのプロパティを共有します。

特に明記されていない限り、デフォルトの動作はその逆であると想定されます。
オプションは実行されます。 たとえば、文書化された存在 --フォロー-ftp と仮定する
デフォルトは HTML ページから FTP リンクをたどります。

肯定的なオプションは、先頭に - 番号- オプション名に; ネガティブ
オプションは省略することで無効にできます - 番号- 接頭辞。 これは余計なことのように思えるかもしれません ---
肯定的な選択肢のデフォルトは何もしないことですが、それならなぜそうする方法を提供するのでしょうか?
明示的にオフにしますか? しかし、実際には起動ファイルによってデフォルトが変更される可能性があります。 ために
インスタンス、「follow_ftp = on」を使用 .wgetrc Wgetを作ります デフォルトの FTP リンク、および
--no-follow-ftp コマンドから工場出荷時のデフォルトに戻す唯一の方法です
ライン。

Basic スタートアップ オプション
-V
- バージョン
Wgetのバージョンを表示します。

-h
- 助けて
Wget のすべてのコマンドライン オプションを説明するヘルプ メッセージを出力します。

-b
- バックグラウンド
起動直後はバックグラウンドに移行します。 出力ファイルが指定されていない場合は、
-o、出力はにリダイレクトされます wget ログ.

-e command
- 実行する command
実行する command まるでその一部であるかのように .wgetrc。 このようにして呼び出されるコマンドは、
実行された After のコマンド .wgetrcしたがって、それらよりも優先されます。 必要な場合は
複数の wgetrc コマンドを指定するには、の複数のインスタンスを使用します。 -e.

ロギング & 入力 File オプション
-o ログファイル
--output-file =ログファイル
すべてのメッセージを ログファイル。 メッセージは通常、標準エラーに報告されます。

-a ログファイル
--追加出力=ログファイル
に追加 ログファイル。 これは以下と同じです -o、それのみが追加されます ログファイル
古いログ ファイルを上書きします。 もしも ログファイル 存在しない場合は、新しいファイルが作成されます。

-d
- デバッグ
デバッグ出力をオンにします。これは、Wget の開発者にとって重要なさまざまな情報を意味します。
正常に動作しない場合。 システム管理者がコンパイルを選択した可能性があります
デバッグサポートなしの Wget (その場合) -d 動作しないでしょう。 その点に注意してください
デバッグ サポートを使用したコンパイルは常に安全です ---デバッグ サポートを使用してコンパイルされた Wget
意志 要求されない限り、デバッグ情報を出力します。 -d.

-q
- 静かな
Wget の出力をオフにします。

-v
-詳細
利用可能なすべてのデータを含む詳細出力をオンにします。 デフォルトの出力は詳細です。

-nv
--詳細なし
完全に静かにせずに冗長をオフにします (使用 -q そのため)、つまり、
エラー メッセージと基本情報は引き続き出力されます。

--レポート速度=type
帯域幅を次のように出力します type。 唯一受け入れられる値は、 ビット.

-i file
--input-file =file
ローカルまたは外部から URL を読み取る file。 場合 - として指定されます file、URLが読み取られます
標準入力から。 (使用 ./- 文字通りの名前のファイルから読み取る -.)

この関数を使用する場合、コマンド ラインに URL を指定する必要はありません。 あれば
コマンドラインと入力ファイルの両方の URL。コマンドラインの URL は次のようになります。
最初に取得されるもの。 もしも --force-html 指定されていない場合 file すべき
は、XNUMX 行に XNUMX つずつ、一連​​の URL で構成されます。

ただし、指定した場合は、 --force-html、文書は次のようにみなされます。 HTML。 その中で
この場合、相対リンクに問題がある可能性があります。これは、次のいずれかを追加することで解決できます。
URL">" ドキュメントに追加するか、指定して --base =URL コマンドラインで。

Status file が外部ドキュメントである場合、ドキュメントは自動的に次のように扱われます。 HTML if
Content-Type が一致する text / htmlの。 さらに、 fileの場所は
何も指定されていない場合は、ベース href として暗黙的に使用されます。

--input-metalink=file
ローカルの Metalink でカバーされているファイルをダウンロードします file。 Metalink バージョン 3 および 4 は、


--metallink-over-http
GET の代わりに HTTP HEAD リクエストを発行し、レスポンスから Metalink メタデータを抽出します
ヘッダー。 その後、Metalink のダウンロードに切り替わります。 有効な Metalink メタデータがない場合は、
見つかった場合は、通常の HTTP ダウンロードに戻ります。

- 好きな場所
Metalink リソースの優先場所を設定します。 これは、複数のリソースがある場合に効果があります。
同じ優先度のものが利用可能です。

-F
--force-html
入力がファイルから読み取られる場合、強制的に HTML ファイルとして扱われます。 これにより、
ローカル ディスク上の既存の HTML ファイルから相対リンクを取得するには、次のように追加します。
URL">" HTML に変換するか、 - ベース コマンドラインオプション。

-B URL
--base =URL
を使用して相対リンクを解決します。 URL からのリンクを読むときの参照点として
経由で指定された HTML ファイル -i/- 入力ファイル オプション(一緒に) --force-htmlまたは
入力ファイルが HTML として記述されたサーバーからリモートでフェッチされたとき)。 これは
HTML 入力ファイル内の「BASE」タグの存在と同等です。 URL として
「href」属性の値。

たとえば、次のように指定すると、 http://foo/bar/a.html for URL、そして Wget は読み取ります
../baz/b.html 入力ファイルからは次のように解決されます。 http://foo/baz/b.html.

--config =FILE
使用するスタートアップ ファイルの場所を指定します。

--拒否されたログ=ログファイル
すべての URL 拒否をログに記録します ログファイル カンマ区切りの値として。 値には次のものが含まれます。
拒否の理由、URL、および拒否された親 URL。

ダウンロード オプション
--bind-address =ADDRESS
クライアントの TCP/IP 接続を確立するときは、次のようにバインドします。 ADDRESS ローカルマシン上。 ADDRESS
ホスト名または IP アドレスとして指定できます。 このオプションは、次の場合に役立ちます。
マシンは複数の IP にバインドされています。

-t
--試行=
試行回数を設定してください 。 0または infファイル 無限に再試行するため。 デフォルトは
「接続が拒否されました」などの致命的なエラーを除き、20 回再試行します。
「見つかりません」(404)、再試行されません。

-O file
--出力ドキュメント=file
ドキュメントは適切なファイルに書き込まれませんが、すべてのファイルに書き込まれます。
結合して書き込まれる file。 場合 - として使用されます file、書類は
標準出力に出力され、リンク変換が無効になります。 (使用 ./- ファイルに出力するには
文字通りの名前 -.)

活用 -O is 単に「名前を使用する」という意味を意図したものです file の代わりに
URL;"というよりは、シェルのリダイレクトに似ています。 wgetの -O file http://foo is
のように動作することを目的としています wgetの -O - http://foo > file; file すぐに切り捨てられますが、
& ダウンロードしたコンテンツはそこに書き込まれます。

このために、 -N (タイムスタンプチェック用) との組み合わせはサポートされていません。 -O:
から file は常に新しく作成され、常に新しいタイムスタンプを持ちます。 あ
この組み合わせを使用すると警告が発行されます。

同様に、 -r or -p   -O 期待どおりに動作しない可能性があります: Wget はダウンロードするだけではありません
最初のファイルを file そして残りを通常の名前でダウンロードします。
ダウンロードされたコンテンツは次の場所に配置されます file。 これはバージョン 1.11 では無効になっていましたが、
場合によっては、1.11.2 で (警告付きで) 復元されました。
この動作は実際に何らかの用途がある可能性があります。

との組み合わせ -nc 指定された出力ファイルが存在しない場合にのみ受け入れられます。

との組み合わせに注意してください -k 単一のドキュメントをダウンロードする場合にのみ許可されます。
この場合、すべての相対 URI を外部 URI に変換するだけです。 -k しません
複数の URI がすべて XNUMX つのファイルにダウンロードされている場合にそれらを感知します。 -k することができます
出力が通常のファイルの場合にのみ使用されます。

-nc
-- 破壊者なし
ファイルが同じディレクトリに複数回ダウンロードされた場合、Wget の動作は依存します
いくつかのオプションについて -nc。 場合によっては、ローカル ファイルは 損壊,
またはダウンロードを繰り返すと上書きされます。 それ以外の場合は保存されます。

なしで Wget を実行する場合 -N, -nc, -rまたは -p、同じファイルを同じ場所にダウンロードする
ディレクトリには、元のコピーが作成されます file 保存されているものとXNUMX番目のコピー
名前が付けられている file.1。 そのファイルをもう一度ダウンロードすると、XNUMX 番目のコピーは次のようになります。
命名 file.2、 等々。 (これは、 -NS、 たとえ -r or -p である
効果があります。) -nc が指定されている場合、この動作は抑制され、Wget は拒否します。
~の新しいコピーをダウンロードする file。 したがって、「no-clobber」は実際には誤った呼び名です。
このモード --- 防止されるのは破壊ではありません (数値接尾辞がすでに使用されているため)
上書きの防止) ではなく、複数のバージョンの保存が防止されます。

Wget を実行する場合 -r or -pしかし、なしの -N, -NSまたは -nc、ファイルを再ダウンロードする
新しいコピーが古いコピーを単に上書きすることになります。 追加 -nc これを防ぎます
代わりに、元のバージョンが保存され、新しいコピーが保存されます。
無視されるサーバー。

Wget を実行する場合 -N、 有無 -r or -pかどうかの決定。
ファイルの新しいコピーをダウンロードするかどうかは、ローカルおよびリモートのタイムスタンプとサイズによって異なります。
ファイルの。 -nc と同時に指定することはできません -N.

との組み合わせ -O/-- 出力ドキュメント 指定された出力ファイルがそうする場合にのみ受け入れられます。
存在しない。

に注意してください -nc が指定されている場合、拡張子が付いているファイル .htmlを or 。HTM ロードされます
ローカル ディスクから取得され、Web から取得されたかのように解析されます。

--バックアップ=バックアップ
ファイルを(上書き)する前に、 .1 接尾辞 (_1 on
VMS)をファイル名に追加します。 このようなバックアップ ファイルは次のようにローテーションされます。 .2, .3、など、まで
バックアップ (そしてそれを超えて失われた)。

-c
- 継続する
部分的にダウンロードされたファイルの取得を続行します。 仕上げたいときに便利です
Wget の前のインスタンスまたは別のプログラムによって開始されたダウンロードを開始します。 ために
インスタンス:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

という名前のファイルがある場合 ls-lR.Z Wget は現在のディレクトリにあるものとみなします。
リモート ファイルの最初の部分を削除し、サーバーに処理を続行するよう要求します。
ローカル ファイルの長さに等しいオフセットからの取得。

現在の情報だけが必要な場合は、このオプションを指定する必要がないことに注意してください。
途中で接続が失われた場合にファイルのダウンロードを再試行するための Wget の呼び出し
終えた。 これはデフォルトの動作です。 -c ダウンロードの再開にのみ影響します
開始 事前の この Wget の呼び出しに、そのローカル ファイルはまだ残っています
まわり。

無し -c、前の例では、リモート ファイルをダウンロードするだけです。 ls-lR.Z.1,
切り捨てられたままにする ls-lR.Z ファイルだけ。

Wget 1.7 以降、使用する場合 -c 空ではないファイルに対して、
サーバーはダウンロードの継続をサポートしていないため、Wget はダウンロードの開始を拒否します。
最初から作成すると、既存のコンテンツが実質的に破壊されてしまいます。 本当に欲しいのであれば、
最初から始めるにはダウンロードして、ファイルを削除してください。

また、Wget 1.7 以降では、使用する場合 -c と同じサイズのファイル
サーバー上に XNUMX つあると、Wget はファイルのダウンロードを拒否し、説明文を出力します。
メッセージ。 ファイルがローカルよりもサーバー上の方が小さい場合にも同じことが起こります
(おそらく、最後のダウンロード以降にサーバー上で変更されたためです
試行)---「続行」には意味がないため、ダウンロードは行われません。

コインの反対側では、使用中に -c、サーバー上のより大きなファイル
ローカルではダウンロードが不完全とみなされ、「(length(remote) -
length(local))" バイトがダウンロードされ、ローカル ファイルの末尾に追加されます。
この動作は、場合によっては望ましい場合があります。たとえば、次のように使用できます。 wgetの -c 〜へ
データ コレクションまたはログ ファイルに追加された新しい部分だけをダウンロードします。

ただし、サーバー上のファイルが以前より大きくなっている場合は、 変更、 とは対照的に
ただ 添付 そうすると、ファイルが文字化けしてしまいます。 Wgetには確認する方法がありません
ローカル ファイルが実際にリモート ファイルの有効なプレフィックスであることを確認します。 あなたはそうする必要があります
使用する場合は特に注意してください -c と一緒に -r、すべてのファイルが
「不完全なダウンロード」候補とみなされます。

使用しようとするとファイルが文字化けする別の例 -c あなたが持っている場合です
「転送中断」文字列をローカル ファイルに挿入する不十分な HTTP プロキシ。 の
将来的には、このケースに対処するために「ロールバック」オプションが追加される可能性があります。

注意してください -c FTP サーバーと、
「範囲」ヘッダー。

--start-pos=OFFSET
ゼロベースの位置からダウンロードを開始します OFFSET。 オフセットはバイト単位で表現できます。
キロバイトには「k」という接尾辞が付き、メガバイトには「m」という接尾辞が付きます。

--開始位置 よりも優先されます - 継続する。 時 --開始位置 & - 継続する
両方が指定されている場合、wget は警告を発し、次のように処理を進めます。 - 継続する 欠席しました。

ダウンロードを継続するにはサーバーのサポートが必要です。そうでない場合は、 --開始位置 助けることはできません。
見る -c 詳細については。

--progress =type
使用する進行状況インジケーターのタイプを選択します。 法的インジケーターは「ドット」です
そして「バー」。

デフォルトでは「バー」インジケーターが使用されます。 ASCII プログレスバーグラフィックスを描画します
(別名「温度計」表示) 取得のステータスを示します。 出力が次の場合
TTY ではない場合、デフォルトで「ドット」バーが使用されます。

  --progress=ドット を押すと「ドット」表示に切り替わります。 による検索を追跡します。
画面上にドットを印刷し、各ドットはダウンロードされた一定量のデータを表します。

進捗 type XNUMX つ以上のパラメータを取ることもできます。 パラメータは以下に基づいて異なります。
  type 選択されました。 パラメータを type 型に追加することで渡されます
次のようにコロン (:) で区切られます。 --progress =type:parameter1:parameter2.

ドット検索を使用する場合、次のように設定できます。 タイプを次のように指定することで、
ドット: 。 スタイルが異なれば、XNUMX つのドットに異なる意味が割り当てられます。 「デフォルト」では
各ドットは 1K を表すスタイルで、50 つのクラスターに XNUMX 個のドットがあり、XNUMX 行に XNUMX 個のドットがあります。
「バイナリ」スタイルは、より「コンピュータ」に近い方向性を持っています -- 8K ドット、16 ドット クラスター
48 行あたり 384 ドット (XNUMXK 行になります)。 「メガ」スタイルが適しているのは、
大きなファイルのダウンロード --- 各ドットは取得された 64K を表し、XNUMX つのファイルに XNUMX つのドットがあります。
クラスタ、および各行に 48 ドット (つまり、各行には 3M が含まれます)。 「メガ」だけでは足りない場合
次に、「ギガ」スタイルを使用できます。各ドットは取得された 1M を表し、XNUMX つあります。
クラスター内にドットがあり、各行に 32 個のドットが含まれます (つまり、各行には 32M が含まれます)。

--progress=バー、現在、可能なパラメータは XNUMX つあります。 & ノスクロール.

出力が TTY ではない場合、進行状況バーは常に「ドット」に戻ります。
--progress=バー 呼び出し中に Wget に渡されました。 この動作はオーバーライドできます
そして、「force」パラメータを次のように使用して強制される「bar」出力 --progress=bar:force.

デフォルトでは、 バー スタイルプログレスバー ファイル名を左から右にスクロールします
ダウンロード中のファイルに対して、ファイル名が割り当てられた最大長を超えている場合
その表示。 特定の場合には、次のような場合があります。 --progress=bar:force、望まないかもしれません
プログレスバーでスクロールするファイル名。 「noscroll」パラメータを渡すことで、Wget
スクロールせずに、ファイル名をできるだけ多く表示するように強制できます。
ボーマンは

「progress」コマンドを使用してデフォルトのスタイルを設定できることに注意してください。 .wgetrc。 その
設定はコマンドラインから上書きできます。 たとえば、バー出力を強制するには
スクロールせずに使用してください --progress=bar:force:noscroll.

--show-progress
wget に進行状況バーを任意の詳細度で表示するように強制します。

デフォルトでは、wget は詳細モードで進行状況バーのみを表示します。 しかし、次のようなことも考えられます。
wget が他のものと連動して画面上に進行状況バーを表示したい
のような冗長モード --詳細なし or - 静かな。 これは、多くの場合、次の場合に望ましいプロパティです。
wget を呼び出して、いくつかの小さい/大きいファイルをダウンロードします。 このような場合、wget は次のことを行うことができます。
このパラメータを指定して呼び出すだけで、画面上でよりクリーンな出力が得られます。

このオプションは、進行状況バーを強制的に印刷します。 stderr 使用時
と並んで --ログファイル オプションを選択します。

-N
-タイムスタンピング
タイムスタンプをオンにします。

--no-if-modified-since
If-Modified-Since ヘッダーを送信しないでください -N モード。 予備的な HEAD リクエストを送信する
その代わり。 これは次の場合にのみ効果があります。 -N モード。

--no-use-server-timestamps
ローカル ファイルのタイムスタンプをサーバー上のタイムスタンプに基づいて設定しないでください。

デフォルトでは、ファイルがダウンロードされると、そのタイムスタンプは、ファイルのタイムスタンプと一致するように設定されます。
リモートファイル。 これにより、次の使用が可能になります。 -タイムスタンピング それ以降の wget の呼び出し時。
ただし、ローカル ファイルのタイムスタンプを、そのファイルが作成された時点に基づいて作成すると便利な場合があります。
実際にダウンロードされました。 その目的のために、 --no-use-server-timestamps オプションはされています


-S
-- サーバー応答
HTTP サーバーから送信されたヘッダーと FTP サーバーから送信された応答を出力します。

- クモ
このオプションを指定して呼び出すと、Wget は Web として動作します。 クモ、つまり、
ページはダウンロードされません。ページが存在することを確認するだけです。 たとえば、次のように使用できます
ブックマークを確認するには:

wget --spider --force-html -i ブックマーク.html

Wget が実際の機能に近づくには、この機能にはさらに多くの作業が必要です。
蜘蛛の巣。

-T
--timeout =
ネットワークタイムアウトを次のように設定します 秒。 これは次のように指定するのと同じです
--dns-タイムアウト, --接続タイムアウト, --読み取りタイムアウト、すべて同時に。

ネットワークと対話するときに、Wget はタイムアウトをチェックして操作を中止できます。
時間がかかりすぎる場合。 これにより、読み取りのハングや無限などの異常が防止されます。
接続します。 デフォルトで有効になっている唯一のタイムアウトは、900 秒の読み取りタイムアウトです。 設定
タイムアウトを 0 にすると完全に無効になります。 自分が何をしているのか分からない限り、それが最善です
デフォルトのタイムアウト設定を変更しないでください。

すべてのタイムアウト関連のオプションは、XNUMX 進数値だけでなく、XNUMX 秒未満の値も受け入れます。 ために
例、 0.1 秒は、タイムアウトの合法的な (ただし賢明ではない) 選択です。 XNUMX 秒未満のタイムアウト
サーバーの応答時間を確認したり、ネットワーク遅延をテストしたりするのに役立ちます。

--dns-タイムアウト=
DNS ルックアップのタイムアウトを次のように設定します。 秒。 以内に完了しない DNS ルックアップ
指定された時間は失敗します。 デフォルトでは、DNS ルックアップにはタイムアウトはありません。
システム ライブラリによって実装されるものよりも。

--接続タイムアウト=
接続タイムアウトを次のように設定します 秒。 TCP 接続に時間がかかる
確立は中止されます。 デフォルトでは、それ以外に接続タイムアウトはありません。
システムライブラリによって実装されます。

--読み取りタイムアウト=
読み取り (および書き込み) タイムアウトを次のように設定します。 秒。 このタイムアウトの「時間」
を指します アイドル 時間: ダウンロードのどの時点でも、それ以上データを受信しなかった場合
指定された秒数を超えると、読み取りは失敗し、ダウンロードが再開されます。
このオプションは、ダウンロード全体の時間には直接影響しません。

もちろん、リモート サーバーはこれより早く接続を終了することを選択する場合があります。
オプションが必要です。 デフォルトの読み取りタイムアウトは 900 秒です。

--制限レート=
ダウンロード速度を次のように制限します XNUMX 秒あたりのバイト数。 金額は次のように表現できます。
バイト、キロバイト k 接尾辞、またはメガバイトに m サフィックス。 例えば、
--limit-rate=20k 取得速度は 20KB/秒に制限されます。 これは、次のような場合に便利です。
理由が何であれ、Wget が利用可能な帯域幅全体を消費することは望ましくありません。

このオプションを使用すると、通常はべき乗と組み合わせて XNUMX 進数を使用できます。
接尾辞; 例えば、 --limit-rate=2.5k は正当な値です。

Wget は適切な時間スリープすることで制限を実装していることに注意してください。
レートで指定された時間よりも短いネットワーク読み取りの後。 結局これ
この戦略により、TCP 転送がほぼ指定された速度まで遅くなります。
ただし、このバランスが達成されるまでには時間がかかる場合がありますので、驚かないでください。
非常に小さなファイルではレート制限がうまく機能しない場合。

-w
--wait =
取得の間に指定した秒数待機します。 このオプションの使用方法は、
リクエストの頻度が減ることでサーバーの負荷が軽減されるため、推奨されます。
秒単位の代わりに、「m」接尾辞を使用して時間を分単位で指定できます。
「h」接尾辞を使用すると時間単位、「d」接尾辞を使用すると日単位になります。

このオプションに大きな値を指定すると、ネットワークまたは宛先が
ホストがダウンしているため、Wget はネットワーク エラーが発生することが十分に予想されるのに十分な時間待機できます。
再試行する前に修正してください。 この関数で指定する待機間隔は、
「--random-wait」の影響を受けています。

--waitretry=
Wget を待機させたくない場合は、 あらゆる 取得、ただし再試行間のみ
ダウンロードが失敗した場合は、このオプションを使用できます。 Wget が使用します 線形 バックオフ、待機中 1
特定のファイルで最初の失敗が発生してから 2 秒後、その後 XNUMX 秒待機します。
そのファイルに対する XNUMX 回目の失敗 (最大数) 指定します。

デフォルトでは、Wget は 10 秒の値を想定します。

--ランダム待機
一部の Web サイトでは、Wget by などの検索プログラムを特定するためにログ分析を実行する場合があります。
リクエスト間の時間における統計的に有意な類似点を探します。 これ
オプションにより、リクエスト間の時間が 0.5 ~ 1.5 の間で変化します * wait 秒、
コラボレー wait を使用して指定されました - 待つ Wget の存在を隠すためのオプション
そういった分析から。

人気の消費者向けプラットフォームでの開発に特化した出版物に掲載された 2001 年の記事
この分析をオンザフライで実行するためのコードが提供されました。 その作成者は次の場所でブロックすることを提案しました
クラス C アドレス レベル。
DHCP が提供するアドレスを変更します。

  --ランダム待機 このオプションは、多くのユーザーをブロックするというこの無謀な推奨事項に触発されて誕生しました。
ある者の行為により、関係のないユーザーが Web サイトからアクセスされなくなる。

-プロキシなし
適切な *_proxy 環境変数が定義されている場合でも、プロキシは使用しないでください。

-Q クォータ
--クォータ=クォータ
自動取得のダウンロードクォータを指定します。 値はバイト単位で指定できます
(デフォルト)、キロバイト ( k サフィックス)、またはメガバイト ( m サフィックス)。

クォータは XNUMX つのファイルのダウンロードには決して影響しないことに注意してください。 したがって、指定すると wgetの
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz、 すべての ls-lR.gz ダウンロードされます。 の
コマンドラインで複数の URL を指定した場合でも同様です。 ただし、ノルマは、
再帰的に取得するとき、または入力ファイルから取得するときに尊重されます。 したがって、あなたは、
安全に入力 wgetの -Q2分 -i サイト---割り当てを超過すると、ダウンロードは中止されます。

クォータを 0 または に設定する infファイル ダウンロードクォータを無制限にします。

--no-DNS-キャッシュ
DNS ルックアップのキャッシュをオフにします。 通常、Wget は調べた IP アドレスを記憶しています。
DNS から起動されるため、同じために DNS サーバーに繰り返し接続する必要がなくなります。
(通常は小規模な) ホストのセットを取得します。 このキャッシュはメモリ内にのみ存在します。 ある
新しい Wget を実行すると、再度 DNS に接続されます。

ただし、状況によってはキャッシュすることが望ましくないことが報告されています。
Wget のような短時間実行アプリケーションの実行中であっても、ホスト名。 これとともに
オプション Wget は、新しい DNS ルックアップを発行します (より正確には、「gethostbyname」への新しい呼び出し、または
"getaddrinfo") 新しい接続を確立するたびに。 このオプションでは、
解決ライブラリまたは外部によって実行される可能性のあるキャッシュに影響します。
NSCD などのキャッシュ層。

このオプションの機能を正確に理解していない場合は、おそらく必要ありません。

--restrict-file-names=モード
リモート URL で見つかった文字の生成時にエスケープする必要がある文字を変更します。
ローカルファイル名。 であるキャラクター 制限されました このオプションによりエスケープされます。つまり、
交換された %HHここで、 HH に対応する XNUMX 進数です。
限定キャラ。 このオプションは、すべてのアルファベットの大文字と小文字を強制的に一致させるために使用することもできます。
小文字または大文字のいずれかになります。

デフォルトでは、Wget はファイルの一部として無効または安全ではない文字をエスケープします。
オペレーティング システム上の名前、および通常使用される制御文字
印刷不可。 このオプションは、これらのデフォルトを変更する場合に便利です。
非ネイティブ パーティションにダウンロードしているか、エスケープを無効にしたいため
制御文字、またはさらに文字を次の文字のみに制限したい場合
ASCII の値の範囲。

  モード は、カンマで区切られたテキスト値のセットです。 許容可能な値は次のとおりです。 UNIX,
ウィンドウズ, ノーコントロール, アスキー, 小文字, 大文字。 その価値 UNIX & ウィンドウズ  
相互に排他的です (一方が他方をオーバーライドします)。 小文字 & 大文字.
最後のものは特殊なケースであり、文字セットは変更されません。
エスケープされますが、ローカル ファイル パスは強制的に下位パスまたは
大文字。

"unix" を指定すると、Wget は文字をエスケープします。 / と制御文字
範囲は 0 ~ 31 および 128 ~ 159 です。 これは、Unix 系オペレーティング システムのデフォルトです。

「windows」を指定すると、Wget は文字をエスケープします。 \, |, /, :, ?, ", *, <, >,
0 ~ 31 および 128 ~ 159 の範囲の制御文字。 これに加えて、Wget
Windows モードでの使用 + : ローカル ファイル名でホストとポートを区切る、および
使用されます @ ? ファイル名のクエリ部分を残りの部分から分離します。
したがって、次のように保存される URL www.xemacs.org:4300/search.pl?input=何とか in
Unix モードは次のように保存されます。 www.xemacs.org+4300/search.pl@input=何とか Windows モードで。
このモードは Windows のデフォルトです。

指定した場合 ノーコントロール、その後、制御文字のエスケープも切り替わります
オフ。 このオプションは、名前に次のものが含まれる URL をダウンロードする場合に意味があるかもしれません。
ファイル名を UTF-8 で保存および表示できるシステム上の UTF-8 文字 (一部のファイル名)
UTF-8 バイト シーケンスで使用できるバイト値は、値の範囲内にあります。
Wget によって「コントロール」として指定されます)。

  アスキー モードは、値が範囲外のバイトを指定するために使用されます。
ASCII 文字 (つまり、127 より大きい文字) はエスケープされます。 これは次のような場合に役立ちます。
エンコードがローカルで使用されているものと一致しないファイル名を保存する。

-4
--inet4 のみ
-6
--inet6 のみ
IPv4 または IPv6 アドレスへの接続を強制します。 と --inet4 のみ or -4、Wget のみが実行されます。
IPv4 ホストに接続し、DNS の AAAA レコードを無視し、IPv6 への接続を拒否します。
URL で指定されたアドレス。 逆に、 --inet6 のみ or -6、Wget のみが実行されます。
IPv6 ホストに接続し、A レコードと IPv4 アドレスを無視します。

通常はどちらのオプションも必要ありません。 デフォルトでは、IPv6 対応 Wget は次を使用します。
ホストの DNS レコードによって指定されたアドレス ファミリ。 DNS が両方で応答する場合
IPv4 および IPv6 アドレス。Wget は、可能なアドレスが見つかるまで、それらを順番に試行します。
に接続します。 (以下で説明する「--prefer-family」オプションも参照してください。)

これらのオプションを使用すると、IPv4 または IPv6 アドレスの使用を意図的に強制できます。
デュアル ファミリ システム上のファミリ。通常はデバッグを支援したり、壊れた問題に対処したりするために使用されます。
ネットワーク設定。 そのうちの XNUMX つだけ --inet6 のみ & --inet4 のみ で指定できます
同じ時間です。 どちらのオプションも、IPv6 サポートなしでコンパイルされた Wget では使用できません。

--prefer-family=none/IPv4/IPv6
複数のアドレスを選択した場合、指定されたアドレスに接続します。
最初に家族に話しかけます。 DNS から返されたアドレスの順序は、DNS によって変更されずに使用されます。
デフォルト。

これにより、誤ったエラーが回避され、次のように解決されるホストにアクセスする際の接続試行が回避されます。
IPv6 ネットワークからの IPv4 アドレスと IPv4 アドレスの両方。 例えば、 www.kame.net 解決する
〜へ 2001:200:0:8002:203:47ff:fea5:3085 とに 203.178.141.194。 優先されるとき
ファミリが「IPv4」の場合、IPv4 アドレスが最初に使用されます。 優先ファミリーが「IPv6」の場合、
IPv6 アドレスが最初に使用されます。 指定値が「なし」の場合、アドレス順序
DNSから返されたものがそのまま使用されます。

取消 -4 & -6、このオプションは、どのアドレス ファミリへのアクセスも禁止しません。
を変える 注文 ここでアドレスにアクセスします。 並べ替えにも注意してください
このオプションによって実行されるのは、 安定した---同じアドレスの順序には影響しません。
家族。 つまり、すべての IPv4 アドレスとすべての IPv6 アドレスの相対的な順序です。
すべての場合において無傷のままです。

--再試行-拒否されました
「接続が拒否されました」は一時的なエラーであると考えて、もう一度試してください。 通常 Wget は諦めます
接続失敗によりサイトに接続できない場合のURL
サーバーがまったく実行されておらず、再試行しても役に立たないことを示しています。 これ
このオプションは、サーバーが短期間で失われる傾向にある信頼性の低いサイトをミラーリングするためのものです
期間。

--user =user
--password =password
ユーザー名を指定してください user そして、パスワード password FTP と HTTP の両方のファイル取得用。
これらのパラメータは、 --ftp ユーザー & --ftp-パスワード のオプション
FTP 接続と --http-ユーザー & --http-パスワード HTTP 接続のオプション。

--ask-パスワード
確立された接続ごとにパスワードの入力を求められます。 の場合は指定できません
- パスワード これらは相互に排他的であるため、使用されています。

--ノイリ
国際化 URI (IRI) サポートをオフにします。 使用 --iri をつけるために。 IRIサポートは
デフォルトで有効化されます。

IRI サポートのデフォルト状態は、次の「iri」コマンドを使用して設定できます。 .wgetrc。 その
設定はコマンドラインから上書きできます。

--local-encoding=エンコーディング
Wget の使用を強制する エンコーディング デフォルトのシステムエンコーディングとして。 それは Wget の方法に影響します
IRI サポートのために、引数として指定された URL をロケールから UTF-8 に変換します。

Wget は関数「nl_langinfo()」を使用し、次に「CHARSET」環境変数を使用して、
ロケールを取得します。 失敗した場合は、ASCII が使用されます。

「local_encoding」コマンドを使用して、デフォルトのローカルエンコーディングを設定できます。 .wgetrc.
この設定はコマンド ラインから上書きできます。

--リモートエンコーディング=エンコーディング
Wget の使用を強制する エンコーディング デフォルトのリモートサーバーエンコーディングとして。 それがどのように影響するか
Wget は、再帰中にファイル内で見つかった URI をリモート エンコーディングから UTF-8 に変換します。
フェッチ。 このオプションは、IRI サポート、非
ASCII 文字。

HTTP の場合、リモート エンコーディングは HTTP の「Content-Type」ヘッダーと HTML にあります。
「Content-Type http-equiv」メタタグ。

「remoteencoding」コマンドを使用してデフォルトのエンコーディングを設定できます。 .wgetrc。 その
設定はコマンドラインから上書きできます。

--リンクを解除する
既存のファイルを上書きするのではなく、Wget にファイルのリンクを強制的に解除します。 このオプションは便利です
ハードリンクを含むディレクトリにダウンロードする場合。

ディレクトリ オプション
-NS
-ディレクトリなし
再帰的に取得する場合は、ディレクトリの階層を作成しないでください。 これとともに
オプションをオンにすると、すべてのファイルが現在のディレクトリに保存されます。
上書き (名前が複数回表示される場合、ファイル名には拡張子が付けられます) .n).

-x
--force-ディレクトリ
の反対 -NS---ディレクトリ階層を作成しない場合でも、ディレクトリ階層を作成します。
それ以外の場合は作成されます。 例えば wgetの -x http://fly.srk.fer.hr/robots.txt を保存します
ダウンロードしたファイルを fly.srk.fer.hr/robots.txt.

-nH
--ホストディレクトリなし
ホストプレフィックス付きディレクトリの生成を無効にします。 デフォルトでは、次のように Wget を呼び出します。 -r
http://fly.srk.fer.hr/ で始まるディレクトリ構造を作成します
fly.srk.fer.hr/。 このオプションはそのような動作を無効にします。

--プロトコルディレクトリ
プロトコル名をローカル ファイル名のディレクトリ コンポーネントとして使用します。 たとえば、
このオプション、 wgetの -r http://host に保存します http/host/ ... ただではなく
host/ ....

--cut-dirs=
無視する ディレクトリコンポーネント。 これは、きめ細かい制御を行うのに役立ちます
再帰的取得が保存されるディレクトリに上書きします。

たとえば、次のディレクトリを考えてみましょう。 ftp://ftp.xemacs.org/pub/xemacs/。 取得すると
それで -r、ローカルに保存されます ftp.xemacs.org/pub/xemacs/。 一方、 -nH
オプションで削除できます ftp.xemacs.org/ 部分的には、あなたはまだ立ち往生しています パブ/ゼマック。 この
どこにいますか? --カットディレクトリ 便利です。 Wget が「見えない」ようになります リモートディレクトリ
コンポーネント。 以下にその方法の例をいくつか示します --カットディレクトリ オプションが機能します。

オプションなし -> ftp.xemacs.org/pub/xemacs/
-nH -> pub/xemacs/
-nH --cut-dirs=1 -> xemacs/
-nH --cut-dirs=2 -> 。

--cut-dirs=1 -> ftp.xemacs.org/xemacs/
...

ディレクトリ構造を削除したいだけの場合、このオプションは
の組み合わせ -NS & -P。 しかし、 -NS, --カットディレクトリ で負けない
サブディレクトリ --- たとえば、 -nH --cut-dirs=1 ベータ/ サブディレクトリは次のようになります
に置かれる xemacs/ベータ版、予想通り。

-P 接頭辞
--ディレクトリプレフィックス=接頭辞
ディレクトリプレフィックスを次のように設定します 接頭辞を選択します。 ディレクトリにジョブを開始します。 接頭辞 他のすべてが保存されるディレクトリです
ファイルとサブディレクトリは、つまり検索ツリーの最上位に保存されます。 の
デフォルトは . (現在のディレクトリ)。

HTTP オプション
--デフォルトページ=
  不明な場合のデフォルトのファイル名として (つまり、
スラッシュ)の代わりに index.htmlを.

-E
--調整拡張子
次のタイプのファイルの場合 application / xhtml + xml or text / htmlの ダウンロードされ、URL がダウンロードされます。
正規表現で終わらない \.[Hh][Tt][Mm][Ll]?、このオプションにより、サフィックスが表示されます。 .htmlを
ローカルファイル名に追加されます。 これは、たとえば次のような場合に便利です。
を使用するリモート サイトのミラーリング 。のAsp ページをミラーリングしたいのですが、
ストック Apache サーバーで表示できます。 これのもう XNUMX つの良い使い方は、次のような場合です。
CGI で生成された素材をダウンロードします。 のような URL http://site.com/article.cgi?25 意志
として保存される 記事.cgi?25.html.

この方法で変更されたファイル名は、再ミラーリングするたびに再ダウンロードされることに注意してください。
サイトです。Wget ではローカルであることがわかりません。 X.html ファイルはリモート URL に対応します X
(URL が次のタイプの出力を生成することをまだ認識していないため) text / htmlの or
application / xhtml + xml.

バージョン 1.12 以降、Wget はダウンロードされたファイルのタイプも保証します。 テキスト/CSS
接尾語で終わる .css、オプションの名前は から変更されました。 --html 拡張子、より良いものに
新しい動作を反映します。 古いオプション名も引き続き使用できますが、現在は次のようにする必要があります。
非推奨と見なされます。

将来のある時点で、このオプションは、次の接尾辞を含むように拡張される可能性があります。
他のタイプのコンテンツ (Wget によって解析されないコンテンツ タイプを含む)。

--http-ユーザー=user
--http-パスワード=password
ユーザー名を指定してください user そして、パスワード password HTTP サーバー上で。 による
チャレンジのタイプに応じて、Wget は「ベーシック」(安全でない)、
「digest」、または Windows の「NTLM」認証スキーム。

ユーザー名とパスワードを指定するもう XNUMX つの方法は、URL 自体で指定することです。 どちらの方法でも
わざわざ「ps」を実行しようとする人にパスワードを公開してしまいます。 パスワードを防止するには
見られないように保管してください .wgetrc or .netrc、それらのファイルを必ず保護してください
他のユーザーからは「chmod」で。 パスワードが本当に重要な場合は、その場から離れないでください
これらのファイルには、ファイルを編集して、Wget が完了した後に削除してください。
ダウンロードを開始しました。

--no-http-キープアライブ
HTTP ダウンロードの「キープアライブ」機能をオフにします。 通常、Wget はサーバーに質問します。
接続を開いたままにし、
同じサーバーにある場合は、同じ TCP 接続を介して転送されます。 これにより時間が節約され、
同時にサーバーの負荷も軽減されます。

このオプションは、何らかの理由で永続的な (キープアライブ) 接続が確立されない場合に役立ちます。
たとえば、サーバーのバグやサーバー側の機能の不全が原因で機能します。
接続に対処するためのスクリプト。

-キャッシュなし
サーバー側のキャッシュを無効にします。 この場合、Wget はリモート サーバーに
適切なディレクティブ (プラグマ: キャッシュなし) リモート サービスからファイルを取得するには、
キャッシュされたバージョンを返すのではなく。 これは、取得する場合に特に便利です。
プロキシ サーバー上の古いドキュメントをフラッシュします。

キャッシュはデフォルトで許可されています。

--Cookieなし
Cookieの使用を無効にします。 Cookie はサーバー側でメンテナンスを行うためのメカニズムです。
州。 サーバーは「Set-Cookie」ヘッダーを使用してクライアントに Cookie を送信します。
クライアントは、さらなるリクエストに対して同じ Cookie で応答します。 Cookie が許可しているため、
サーバー所有者は訪問者を追跡し、サイトはこの情報を交換します。
プライバシーの侵害だと考える人もいます。 デフォルトでは Cookie が使用されます。 しかし、
保存 Cookie はデフォルトではオンになっていません。

--load-cookies file
Cookie をロードする file 最初の HTTP 取得の前。 file はテキスト ファイルです。
もともと Netscape で使用されていた形式 クッキー.txt ファイルにソフトウェアを指定する必要があります。

通常、このオプションは、次の操作が必要なサイトをミラーリングするときに使用します。
ログインしてコンテンツの一部またはすべてにアクセスします。 通常、ログインプロセスは機能します
Web サーバーは、あなたのメッセージを受信して​​検証したときに HTTP Cookie を発行します。
資格。 その後、Cookie は、その部分にアクセスするときにブラウザによって再送信されます。
サイトにアクセスし、あなたの身元を証明します。

このようなサイトをミラーリングするには、Wget がブラウザから送信されるのと同じ Cookie を送信する必要があります。
サイトと通信します。 これは次のようにして達成されます。 --load-cookies---単に Wget をポイントするだけです
の場所へ クッキー.txt ファイルを開くと、同じ Cookie が送信されます。
ブラウザも同じ状況で送信します。 さまざまなブラウザがテキスト Cookie を保持します
別の場所にあるファイル:

「ネットスケープ 4.x」
クッキーが入っています ~/.netscape/cookies.txt.

「Mozilla と Netscape 6.x」
Mozilla の Cookie ファイルの名前も クッキー.txt、以下のどこかにあります
~/.mozilla、プロフィールのディレクトリにあります。 通常、フルパスは次のようになります
なんとなく似ている ~/.mozilla/default/some-weird-string/cookies.txt.

"インターネットエクスプローラ。"
Wget が使用できる Cookie ファイルを作成するには、[ファイル] メニュー、[インポート]、
エクスポート、Cookie をエクスポートします。 これは Internet Explorer 5 でテストされています。 そうではない
以前のバージョンでも動作することが保証されています。

「他のブラウザ」
別のブラウザを使用して Cookie を作成している場合は、 --load-cookies 意志
Netscape 形式の Cookie ファイルを見つけたり生成したりできる場合にのみ機能します。
ウィゲットは期待しています。

ご利用できない場合 --load-cookies、まだ代替手段があるかもしれません。 もしあなたの
ブラウザは「Cookie マネージャー」をサポートしているため、これを使用して、次の場合に使用される Cookie を表示できます。
ミラーリングしているサイトにアクセスします。 Cookie の名前と値を書き留めます。
「公式」Cookie サポートをバイパスして、これらの Cookie を送信するように Wget に手動で指示します。

wget --no-cookies --header "クッキー: = 」

--save-cookies file
クッキーの保存先 file 出る前に。 これにより、有効期限が切れた Cookie は保存されません。
有効期限のないもの (いわゆる「セッション Cookie」) ですが、以下も参照してください。
--keep-session-cookies.

--keep-session-cookies
指定した場合の原因 --save-cookies セッション Cookie も保存します。 セッションクッキー
これらはメモリに保持され、いつ忘れられるかを意図しているため、通常は保存されません。
ブラウザを終了します。 保存すると、ログインやログインが必要なサイトで便利です。
一部のページにアクセスする前に、ホームページにアクセスしてください。 このオプションを使用すると、複数の Wget
サイトに関する限り、実行は単一のブラウザ セッションとみなされます。

Cookie ファイル形式は通常、セッション Cookie を伝送しないため、Wget はセッション Cookie をマークします。
有効期限タイムスタンプは 0 です。Wget の --load-cookies それらをセッションとして認識します
Cookie を使用しますが、他のブラウザを混乱させる可能性があります。 また、ロードされた Cookie は
他のセッション Cookie として扱われます。つまり、必要に応じて --save-cookies 〜へ
それらを再度保存するには、使用する必要があります --keep-session-cookies 再び。

--ignore-length
残念ながら、一部の HTTP サーバー (より正確には CGI プログラム) は偽のメッセージを送信します。
「Content-Length」ヘッダー。Wget がドキュメント全体ではないとみなして暴走する原因になります。
が回収されました。 Wget が同じドキュメントの取得を再試行すると、この症候群を見つけることができます。
何度も何度も、そのたびに(そうでなければ正常な)接続が閉じられたと主張します
まったく同じバイトで。

このオプションを使用すると、Wget は「Content-Length」ヘッダーを無視します。
存在した。

--header =ヘッダー行
送信 ヘッダー行 各 HTTP リクエストの残りのヘッダーとともに。 の
指定されたヘッダーはそのまま送信されます。つまり、名前と値が で区切られて含まれている必要があります。
コロンを使用し、改行を含めることはできません。

を指定することで、複数の追加ヘッダーを定義できます。 - ヘッダ 一回以上。

wget --header='Accept-Charset: iso-8859-2' \
--header='受け入れ言語: hr' \
http://fly.srk.fer.hr/

ヘッダー値として空の文字列を指定すると、以前のすべてのユーザーがクリアされます。
定義されたヘッダー。

Wget 1.10 以降、このオプションを使用して、別の方法で生成されたヘッダーをオーバーライドできます。
自動的。 この例では、Wget に localhost に接続するように指示しますが、
foo.bar 「ホスト」ヘッダー内:

wget --header="ホスト: foo.bar" http://localhost/

1.10 より前のバージョンの Wget では、このような使用法 - ヘッダ 重複送信の原因となった
ヘッダー。

--max-リダイレクト=
リソースに対して従うリダイレクトの最大数を指定します。 デフォルトは
20 ですが、これは通常必要以上に大きくなります。 ただし、そのような場合には、
より多く (またはより少なく) 許可したい場合は、これを使用するオプションです。

--プロキシユーザー=user
--プロキシパスワード=password
ユーザー名を指定してください user そして、パスワード password プロキシサーバーでの認証用。
Wget は、「基本」認証スキームを使用してそれらをエンコードします。

セキュリティに関する考慮事項は、 --http-パスワード ここにも関係します。

--referer=URL
`リファラーを含める: URL' HTTP リクエストのヘッダー。 文書を取得するのに便利です
インタラクティブ Web によって常に取得されることを前提としたサーバー側の処理
ブラウザで参照し、リファラーがポイントするページの XNUMX つに設定されている場合にのみ適切に表示されます。
彼らへ。

--save-headers
HTTP サーバーによって送信されたヘッダーを実際のコンテンツの前にファイルに保存します。
区切り文字として空行を使用します。

-U エージェント文字列
--user-agent =エージェント文字列
として識別 エージェント文字列 HTTP サーバーに送信します。

HTTP プロトコルにより、クライアントは「ユーザー エージェント」を使用して自身を識別できます。
ヘッダーフィールド。 これにより、通常は統計目的で WWW ソフトウェアを区別できるようになります。
目的またはプロトコル違反の追跡のため。 通常、Wget は次のように識別します。
ウィゲット/バージョン, バージョン は Wget の現在のバージョン番号です。

ただし、一部のサイトでは出力をカスタマイズするポリシーを課していることが知られています。
「ユーザーエージェント」が提供する情報によると。 これはそれほど悪いアイデアではありませんが、
理論的には、サーバーによって悪用され、他のクライアントへの情報を拒否します。
(歴史的には) Netscape、またはより多くの場合、Microsoft Internet Explorer。 このオプション
Wget が発行する「User-Agent」行を変更できます。 このオプションの使用方法は、
自分が何をしているのか本当にわかっていない限り、落胆してしまいます。

空のユーザーエージェントを指定する --ユーザーエージェント="" Wget に、
HTTP リクエストの「User-Agent」ヘッダー。

--post-data=文字列
--post-file=file
すべての HTTP リクエストのメソッドとして POST を使用し、指定されたデータを
リクエスト本文。 --投稿データ 送る 文字列 データとして --投稿ファイル を送信します
の内容 file。 それ以外は、まったく同じように機能します。 特に、
彼ら 両言語で パーセントエンコーディングの形式「key1=value1&key2=value2」のコンテンツが必要です
特殊文字の場合。 唯一の違いは、そのコンテンツが
コマンドライン パラメーターと、もう XNUMX つはファイルからその内容を受け取ります。 特に、
--投稿ファイル is ファイルをフォーム添付ファイルとして送信する場合: これらは次のように表示される必要があります。
他のすべてと同様に、「key=value」データ (適切なパーセントコーディング付き)。 ウィゲット
現在、POST データを送信するための「multipart/form-data」はサポートされていません。 それだけ
「application/x-www-form-urlencoded」。 そのうちの XNUMX つだけ --投稿データ & --投稿ファイル でなければなりません
指定。

wget ではコンテンツが次の形式である必要はないことに注意してください。
「key1=value1&key2=value2」ですが、それをテストすることもありません。 Wget は単に送信します
どのようなデータが提供されたとしても。 ただし、ほとんどのサーバーは POST データが存在することを期待しています。
HTML フォームを処理する場合は、上記の形式を使用します。

を使用して POST リクエストを送信する場合、 --投稿ファイル オプションを使用すると、Wget はファイルを
バイナリ ファイルを作成し、POST リクエストのすべての文字を削除せずに送信します。
末尾の改行文字またはフォームフィード文字。 テキスト内の他の制御文字は、
POST リクエストでそのまま送信することもできます。

Wget は POST データのサイズを事前に知っておく必要があることに注意してください。
したがって、「--post-file」の引数は通常のファイルである必要があります。 FIFO を指定するか、
何かのようなもの / dev / stdin 機能しません。 これを回避する方法は完全には明確ではありません
HTTP/1.0 に固有の制限。 HTTP/1.1 が導入されましたが、 チャンク それを転送する
リクエストの長さを事前に知る必要がないため、クライアントはチャンクを使用できません
HTTP/1.1 サーバーと通信していることがわかっていない限り。 そして、それが起こるまでそれを知ることはできません
応答を受信すると、要求が完了している必要があります。
鶏が先か、卵が先かの問題。

注: バージョン 1.15 では、POST リクエストの完了後に Wget がリダイレクトされる場合、
その動作は、サーバーから返される応答コードによって異なります。 の場合
301 永続的に移動、302 一時的に移動、または 307 一時的なリダイレクト、Wget は、
RFC2616 に従って、POST リクエストの送信を続けます。 サーバーが
クライアントがリダイレクト時に Request メソッドを変更するには、303 See Other を送信する必要があります。
応答コード。

この例では、POST を使用してサーバーにログインし、ダウンロードに進む方法を示します。
おそらく許可されたユーザーのみがアクセスできる、目的のページ:

# サーバーにログインします。 これは XNUMX 回だけ実行できます。
wget --save-cookies cookies.txt \
--post-data 'user=foo&password=bar' \
http://server.com/auth.php

# 次に、関心のあるページを取得します。
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php

サーバーがユーザー認証を追跡するためにセッション Cookie を使用している場合、上記は
働かないから --save-cookies はそれらを保存しません(ブラウザも保存しません)。
クッキー.txt ファイルは空になります。 その場合は使用してください --keep-session-cookies と一緒に
--save-cookies セッション Cookie を強制的に保存します。

--method =HTTP メソッド
RESTful スクリプトの目的で、Wget は他の HTTP メソッドの送信を許可します。
を使用して明示的に設定する必要はありません --header=ヘッダー行。 Wget が使用します
その後に渡される文字列は何でも - 方法 HTTP メソッドとしてサーバーに送信します。

--body-data=データ文字列
--本体ファイル=データファイル
追加データをメソッドとともにサーバーに送信する必要がある場合に設定する必要があります。
を使用して指定 - 方法. --本体データ 送る 文字列 データとして --本体ファイル 送る
の内容 file。 それ以外は、まったく同じように機能します。

現在、 --本体ファイル is ファイル全体を送信するためのものです。 Wgetはそうではありません
現在、データ送信用に「multipart/form-data」をサポートしています。 それだけ
「application/x-www-form-urlencoded」。 将来的には、wget が次のように変更される可能性があります。
を送信します --本体ファイル コンテンツをに送信するのではなく、完全なファイルとして
サーバ。 Wget は BODY データの内容を事前に知っている必要があることに注意してください。
したがって、次の議論は --本体ファイル 通常のファイルである必要があります。 見る --投稿ファイル のために
より詳しい説明。 そのうちの XNUMX つだけ --本体データ & --本体ファイル でなければなりません
指定。

リクエストの完了後に Wget がリダイレクトされると、Wget は現在のリクエストを一時停止します。
メソッドを使用して、リダイレクトが完了するまで GET リクエストを送信します。 これはすべてに当てはまります
明示的に使用される 307 Temporary Redirect を除くリダイレ​​クト応答コード
リクエストメソッドが次のようにすることを指定します 変化。 もう XNUMX つの例外は、
メソッドが「POST」に設定されている場合、以下で指定されたリダイレクト ルールが適用されます。
--投稿データ フォローされています。

--コンテンツの性質
これがオンに設定されている場合、実験的な (完全には機能しない) サポートが行われます。
「Content-Disposition」ヘッダーが有効になります。 現在、これにより余分なラウンドが発生する可能性があります。
「HEAD」リクエストのためにサーバーにトリップし、いくつかのバグがあることが知られています。
そのため、現在デフォルトでは有効になっていません。

このオプションは、次のようなファイルをダウンロードする一部の CGI プログラムに役立ちます。
ダウンロードされたファイルの名前を記述する「Content-Disposition」ヘッダー
さあ。

--コンテンツ・オン・エラー
これが on に設定されている場合、サーバーが応答したときに wget はコンテンツをスキップしません。
エラーを示す http ステータス コード。

--trust-server-names
これがオンに設定されている場合、リダイレクト時にリダイレクト URL の最後のコンポーネントは次のようになります。
ローカルファイル名として使用されます。 デフォルトでは、元のコンポーネントの最後のコンポーネントが使用されます。
URL。

--認証なしチャレンジ
このオプションが指定されている場合、Wget は基本的な HTTP 認証情報を送信します。
Wget 1.10.2 以前と同様に、すべてのリクエストに対する (プレーンテキストのユーザー名とパスワード)
デフォルトで実行されました。

このオプションの使用は推奨されません。いくつかの機能をサポートすることのみを目的としています。
隠蔽されたサーバー。HTTP 認証チャレンジは決して送信しませんが、受け入れます。
たとえば、フォームベースの認証に加えて、要求されていない認証情報などです。

HTTPS (SSL/TLS) オプション
暗号化された HTTP (HTTPS) ダウンロードをサポートするには、Wget を外部 SSL を使用してコンパイルする必要があります
図書館。 現在のデフォルトは GnuTLS です。 さらに、Wget は HSTS (HTTP Strict) もサポートしています。
輸送セキュリティ)。 Wget が SSL サポートなしでコンパイルされている場合、これらのオプションはいずれもサポートされません。
にアクセスできるようにしています。

--セキュアプロトコル=
使用する安全なプロトコルを選択します。 有効な値は次のとおりです オート, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 & PFS。 場合 オート が使用されている場合、SSL ライブラリには次の自由が与えられます。
適切なプロトコルを自動的に選択します。これは、TLSv1 を送信することで実現されます。
挨拶。 これがデフォルトです。

指定 SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 対応するものの使用を強制します
プロトコル。 これは、古くてバグのある SSL サーバー実装と通信する場合に便利です。
そのため、基盤となる SSL ライブラリが正しいプロトコルを選択することが困難になります。
バージョン。 幸いなことに、そのようなサーバーは非常にまれです。

指定 PFS いわゆるPerfect Forward Security暗号の使用を強制します
スイーツ。 つまり、PFS は SSL ごとにワンタイム キーを作成することでセキュリティを強化します。
繋がり。 クライアントとサーバーに対する CPU への影響が少し大きくなります。 私たちは既知のことを使用します
安全な暗号 (例: MD4 なし) と TLS プロトコル。

--https のみ
再帰モードの場合、HTTPS リンクのみが追跡されます。

--ノーチェック証明書
サーバー証明書を利用可能な認証局と照合しないでください。
また、URL ホスト名が、
証明書。

Wget 1.10 の時点では、デフォルトではサーバーの証明書を
認識された認証局がSSLハンドシェイクを中断し、
検証が失敗した場合はダウンロードします。 これによりダウンロードはより安全になりますが、
以前の Wget バージョンで動作していた一部のサイトとの相互運用性は失われますが、
特に、自己署名証明書、期限切れ証明書、またはその他の無効な証明書を使用している証明書。
このオプションは、証明書を無効にする「安全でない」操作モードを強制します。
検証エラーが警告に変わり、続行できるようになります。

「証明書の検証」エラーまたは「共通名」というエラーが発生した場合は、
要求されたホスト名と一致しません」という場合は、このオプションを使用して検証をバイパスできます。
ダウンロードを続行します。 のみ つかいます この オプション if 貴社   さもないと 確信 of
  サイトの 信憑性、 or if 貴社 本当に しない これ   有効 of その
証明書。 次の場合に証明書をチェックしないのはほとんどの場合、悪い考えです。
機密または重要なデータの送信。 自己署名/内部証明書の場合、
これを強制するのではなく、証明書をダウンロードしてそれを検証する必要があります。
不安定なモード。 証明書の検証をまったく必要としない場合は、
--check-certificate=quiet を指定すると、wget に警告を出力しないように指示できます。
無効な証明書。ただし、ほとんどの場合、これは間違った行為です。

--証明書=file
に保存されているクライアント証明書を使用します。 file。 これは、次のようなサーバーに必要です。
接続するクライアントからの証明書を要求するように構成されています。 通常、
証明書は必須ではなく、このスイッチはオプションです。

--証明書の種類=type
クライアント証明書の種類を指定します。 有効な値は次のとおりです PEM (デフォルトで想定)
& DER、 としても知られている ASN1.

--private-key =file
から秘密鍵を読み取ります file。 これにより、ファイルに秘密キーを指定できるようになります。
証明書とは別のものです。

--秘密鍵の種類=type
秘密鍵の種類を指定します。 受け入れられる値は次のとおりです PEM (デフォルト) および DER.

--ca-証明書=file
  file を検証するための認証局 (「CA」) のバンドルをファイルとして保存します。
仲間たち。 証明書は PEM 形式である必要があります。

このオプションを使用しないと、Wget はシステム指定の場所で CA 証明書を検索します。
OpenSSL のインストール時に選択されます。

--ca-ディレクトリ=ディレクトリにジョブを開始します。
PEM 形式の CA 証明書を含むディレクトリを指定します。 各ファイルには XNUMX つが含まれます
CA 証明書から派生したハッシュ値に基づいてファイル名が付けられます。
証明書。 これは、証明書ディレクトリを次のコマンドで処理することによって実現されます。
OpenSSL に付属の「c_rehash」ユーティリティ。 使用する --ca-ディレクトリ よりも効率的です
--ca-証明書 Wget による取得が可能になるため、多くの証明書がインストールされている場合
オンデマンドで証明書を発行します。

このオプションを使用しないと、Wget はシステム指定の場所で CA 証明書を検索します。
OpenSSL のインストール時に選択されます。

--crl-ファイル=file
CRL ファイルを指定します file。 これは、次の証明書に必要です。
CA によって取り消されました。

--ランダムファイル=file
[OpenSSL および LibreSSL のみ] 使用する file シード用のランダム データのソースとして
擬似乱数ジェネレーターを持たないシステムでは は/ dev / urandomの.

このようなシステムでは、SSL ライブラリを初期化するために外部のランダム性ソースが必要です。
ランダム性は EGD によって提供される場合があります (「 --egd-ファイル 以下)または外部から読み取る
ユーザーが指定したソース。 このオプションが指定されていない場合、Wget はランダムな検索を行います。
$RANDFILE 内のデータ、または設定されていない場合は $HOME/.rnd.

「OpenSSL PRNG をシードできませんでした。SSL を無効にしています。」というメッセージが表示される場合。 エラーです。
上記の方法のいくつかを使用してランダム データを提供します。

--egd-file=file
[OpenSSLのみ]使用する file EGD ソケットとして。 EGD の略 エントロピー 集まり デーモン
さまざまな予測不可能なシステム ソースからデータを収集するユーザー空間プログラム。
これにより、それを必要とする他のプログラムがそれを利用できるようになります。 暗号化ソフトウェアなど
SSL ライブラリには、乱数をシードするための非反復ランダム性のソースが必要です
暗号的に強力なキーを生成するために使用されるジェネレーター。

OpenSSL を使用すると、ユーザーは「RAND_FILE」を使用して独自のエントロピー ソースを指定できます。
環境変数。 この変数が設定されていない場合、または指定されたファイルが設定されていない場合
十分なランダム性を生成すると、OpenSSL は指定された EGD ソケットからランダム データを読み取ります。
このオプションを使用します。

このオプションが指定されていない場合 (および同等の起動コマンドが使用されていない場合)、EGD
決して連絡されません。 EGD は、サポートする最新の Unix システムでは必要ありません。
は/ dev / urandomの.

--hst なし
Wget はデフォルトで HSTS (HTTP Strict Transport Security、RFC 6797) をサポートします。 使用
--hst なし Wget を HSTS 非準拠の UA として機能させるためです。 結果として、Wget は次のようになります。
すべての「Strict-Transport-Security」ヘッダーを無視し、既存のヘッダーを強制しません。
HSTS ポリシー。

--hsts-ファイル=file
デフォルトでは、Wget は HSTS データベースを次の場所に保存します。 ~/.wget-hsts。 あなたが使用することができます --hsts ファイル 〜へ
これをオーバーライドします。 Wget は、提供されたファイルを HSTS データベースとして使用します。 このようなファイルは、
Wget で使用される正しい HSTS データベース形式に準拠しています。 Wget が解析できない場合は、
提供されたファイルの動作は未指定です。

Wget の HSTS データベースはプレーン テキスト ファイルです。 各行には HSTS エントリ (すなわち、
「Strict-Transport-Security」ヘッダーを発行し、したがって、
適用される具体的な HSTS ポリシーを指定します)。 ダッシュ (「#」) で始まる行は、
Wget によって無視されます。 この便利な人間可読ハンドにもかかわらず、
HSTS データベースをハッキングすることは一般的に良い考えではありません。

HSTS エントリ行は、XNUMX つ以上の空白で区切られた複数のフィールドで構成されます。

」 SP [ 』SP SP SP 」

  hostname & ポート フィールドは、指定された HSTS が送信されるホスト名とポートを示します。
ポリシーが適用されます。 の ポート フィールドはゼロになる可能性があり、ほとんどの場合、ゼロになります。 それか
これは、ポート番号が、そのようなかどうかを決定するときに考慮されないことを意味します。
HSTS ポリシーは、特定のリクエストに適用する必要があります (ホスト名のみが適用されます)。
評価されました)。 いつ ポート がゼロではない場合、ターゲットのホスト名とポートの両方が
が評価され、両方が一致する場合にのみ HSTS ポリシーが適用されます。 これ
この機能はテスト/開発目的のみに含まれています。 Wget テストスイート
(中 テストンv/) を保証する目的で、明示的なポートを使用して HSTS データベースを作成します。
Wget の正しい動作。 デフォルト以外のポートへの HSTS ポリシーの適用
は RFC 6797 によって推奨されていません (付録 B「HSTS ポリシーと同じポリシーの相違点」を参照)
オリジン ポリシー」)。したがって、この機能は運用環境では使用しないでください。
環境と ポート 通常はゼロになります。 最後の XNUMX つのフィールドはそのままの役割を果たします
と予想されます。 フィールド include_subdomains は 1 または 0 のいずれかであり、それは次のいずれかを示します。
ターゲット ドメインのサブドメインも、指定された HSTS ポリシーの一部である必要があります。
  作成した & 最大年齢 フィールドには、そのエントリが作成されたときのタイムスタンプ値が保持されます。
作成された (Wget によって最初に確認された) および HSTS 定義の値 'max-age'。
HSTS ポリシーがアクティブな状態を維持する期間 (開始から経過した秒数で測定)
に保存されているタイムスタンプ 作成した。 その時間が経過すると、HSTS ポリシーは無効になります。
有効期限が切れ、最終的にはデータベースから削除されます。

独自の HSTS データベースを提供する場合は、 --hsts ファイル、Wget が変更する可能性があることに注意してください。
によって要求された HSTS ポリシー間で変更が発生した場合は、提供されたファイル
リモートサーバーとファイル内のサーバー。 Wget が存在する場合、Wget は効果的に
HSTS データベースを新しいエントリでデータベース ファイルを書き換えます。

指定されたファイルが存在しない場合は、Wget がファイルを作成します。 このファイルには、
新しいHSTSエントリ。 HSTS エントリが生成されなかった場合 (「Strict-Transport-Security」がない場合)
ヘッダーがいずれかのサーバーによって送信された場合)、ファイルは作成されません。
空のもの。 この動作は、デフォルトのデータベース ファイル (~/.wget-hsts) 同様に:
一部のサーバーが HSTS ポリシーを強制するまでは作成されません。

他の Wget プロセスによって行われる可能性のある変更をオーバーライドしないように注意してください。
HSTS データベース上でも同時に実行されます。 更新された HSTS エントリをファイルにダンプする前に、
Wget はそれを再読み込みし、変更をマージします。

カスタム HSTS データベースを使用したり、既存のデータベースを変更したりすることはお勧めできません。 ために
このような行為から生じる潜在的なセキュリティ脅威の詳細については、を参照してください。
RFC 14 のセクション 6797「セキュリティに関する考慮事項」、特にセクション 14.9「クリエイティブ」
HSTS ポリシー ストアの操作」。

--warc-ファイル=file
  file 宛先 WARC ファイルとして。

--warc-header=文字列
  文字列 warcinfo レコードとしてコピーされます。

--warc-max-size=サイズ
WARC ファイルの最大サイズを次のように設定します。 サイズ.

--warc-cdx
CDX インデックス ファイルを書き込みます。

--warc-dedup=file
この CDX ファイルにリストされているレコードを保存しないでください。

--no-warc-圧縮
WARC ファイルを GZIP で圧縮しないでください。

--no-warc-ダイジェスト
SHA1 ダイジェストを計算しません。

--no-warc-keep-log
ログ ファイルを WARC レコードに保存しないでください。

--warc-tempdir=DIR
WARC ライターによって作成される一時ファイルの場所を指定します。

FTP オプション
--ftp-user=user
--ftp-パスワード=password
ユーザー名を指定してください user そして、パスワード password FTPサーバー上で。 これがなければ、あるいは
対応する起動オプション、パスワードのデフォルトは -wget@、通常は次の目的で使用されます
匿名FTP。

ユーザー名とパスワードを指定するもう XNUMX つの方法は、URL 自体で指定することです。 どちらの方法でも
わざわざ「ps」を実行しようとする人にパスワードを公開してしまいます。 パスワードを防止するには
見られないように保管してください .wgetrc or .netrc、それらのファイルを必ず保護してください
他のユーザーからは「chmod」で。 パスワードが本当に重要な場合は、その場から離れないでください
これらのファイルには、ファイルを編集して、Wget が完了した後に削除してください。
ダウンロードを開始しました。

--削除リストなし
一時的なものは削除しないでください .listing FTP 取得によって生成されたファイル。 通常は、
これらのファイルには、FTP サーバーから受信した生のディレクトリ リストが含まれています。 いいえ
それらを削除すると、デバッグの目的や、次のことを実行できるようにしたい場合に役立ちます。
リモート サーバー ディレクトリの内容を簡単にチェックできます (たとえば、
実行中のミラーは完了しました)。

Wget はこのファイルの既知のファイル名に書き込みますが、これは
ユーザーが作成したシナリオにおけるセキュリティ ホール .listing へのシンボリックリンク /etc/passwd
または何か、「root」に自分のディレクトリで Wget を実行するように依頼します。 状況に応じて、
オプションを使用すると、Wget は書き込みを拒否します。 .listing
グロビング/再帰/タイムスタンプ操作が失敗するか、シンボリック リンクが削除されます
そして実際のものと置き換えます .listing そうでない場合、リストはファイルに書き込まれます。
.listing.number ファイルにソフトウェアを指定する必要があります。

ただし、この状況は問題ではありませんが、「root」は決して Wget を実行すべきではありません。
信頼されていないユーザーのディレクトリ。 ユーザーはリンクなどの単純なことを行うことができます
index.htmlを 〜へ /etc/passwd そして「root」にWgetを実行するように依頼します -N or -r ファイルは
上書きされます。

--グロブなし
FTP グロビングをオフにします。 グロビングとは、シェルのような特殊文字の使用を指します。
(ワイルドカード)、 好む *, ?, [ & ] 同じディレクトリから複数のファイルを取得するには
すぐに次のように:

wgetの ftp://gnjilux.srk.fer.hr/*.msg

デフォルトでは、URL にグロビング文字が含まれている場合、グロビングがオンになります。 これ
このオプションを使用すると、グロビングを永続的にオンまたはオフにすることができます。

シェルによって展開されないようにするには、URL を引用符で囲む必要がある場合があります。
グロビングにより、Wget はシステム固有のディレクトリ リストを検索します。 これは
現在 Unix FTP サーバー (および Unix "ls" をエミュレートするサーバー) でのみ動作するのはなぜですか
出力)。

--no-パッシブ-ftp
の使用を無効にします パッシブ FTP転送モード。 パッシブ FTP では、
クライアントは、他のサーバーではなくデータ接続を確立するためにサーバーに接続します。
道の周りに。

マシンがインターネットに直接接続されている場合、パッシブ FTP とアクティブ FTP の両方
同様にうまく機能するはずです。 ほとんどのファイアウォールと NAT 構成の背後では、パッシブ FTP が
働く可能性が高まります。 ただし、一部のまれなファイアウォール構成では、アクティブな FTP
実際には、パッシブ FTP が機能しない場合でも機能します。 これが当てはまると思われる場合は、これを使用してください
オプションを使用するか、init ファイルで「passive_ftp=off」を設定します。

--保存-許可
umask によって設定されたアクセス許可の代わりに、リモート ファイルのアクセス許可を保持します。

--retr-シンボリックリンク
デフォルトでは、FTP ディレクトリを再帰的に取得し、シンボリック リンクが
検出された場合、シンボリック リンクがトラバースされ、指定されたファイルが取得されます。
現在、Wget はディレクトリへのシンボリック リンクをたどってダウンロードすることはありません。
ただし、この機能は将来追加される可能性があります。

日時 --retr-symlinks=no を指定した場合、リンク先ファイルはダウンロードされません。 その代わり、
一致するシンボリック リンクがローカル ファイル システム上に作成されます。 指定されたファイルは、
この再帰的な取得が個別に発生しない限り、取得されません
そしてとにかくダウンロードしました。 このオプションは、悪意のある FTP が侵入する場合にセキュリティ上のリスクを引き起こします。
サーバーにより、Wget が意図したディレクトリ外のファイルに書き込みを行う可能性があります。
特別に作成された .LISTING ファイル。

ファイル (ディレクトリではなく) を取得するときは、ファイルが指定されているため、
コマンドラインでは、再帰されたためではなく、このオプションは効果がありません。
この場合、シンボリック リンクは常に通過されます。

FTPS オプション
--ftps-暗黙的
このオプションは、Wget に暗黙的に FTPS を使用するように指示します。 暗黙的 FTPS は初期化で構成されます
制御接続の最初から SSL/TLS。 このオプションでは送信されません
「AUTH TLS」コマンド: サーバーが FTPS を通信すると想定し、直接 TLS を開始します。
SSL/TLS接続。 試行が成功すると、次のようにセッションが続行されます。
通常の FTPS (「PBSZ」と「PROT」が送信されるなど)。 暗黙的 FTPS は廃止されました。
FTPS 実装の要件であるため、多くのサーバーがこれをサポートしていない可能性があります。 もしも
--ftps-暗黙的 が渡され、明示的なポート番号が指定されていない場合は、デフォルトのポートが使用されます。
「通常」のデフォルト ポートの代わりに、暗黙的な FTPS 990 が使用されます。
(明示的な)FTP と同じ FTPS、21.

--no-ftps-resume-ssl
データ チャネルで SSL/TLS セッションを再開しないでください。 データ開始時
接続すると、Wget はコントロールで以前に開始された SSL/TLS セッションを再開しようとします
繋がり。 SSL/TLS セッションを再開すると、まったく新しいハンドシェイクの実行が回避されます。
以前のセッションの SSL/TLS パラメータを再利用します。 通常、FTPS サーバーは次のことを望んでいます。
そのため、Wget はデフォルトでこれを行います。 ただし、まれな状況では、
すべてのデータ接続でまったく新しい SSL/TLS セッションを開始したい。 これは何
--no-ftps-resume-ssl のためです。

--ftps-クリアデータ接続
すべてのデータ接続はプレーンテキストになります。 制御接続のみになります。
SSL/TLSの下で。 Wget はこれを達成するために「PROT C」コマンドを送信します。これは次のようにする必要があります。
サーバーによって承認されました。

--ftps-フォールバックからftpへ
ターゲット サーバーで FTPS がサポートされていない場合は、FTP にフォールバックします。 セキュリティ上の理由から、
このオプションはデフォルトではアサートされません。 デフォルトの動作では、次のコマンドを実行して終了します。
エラー。 サーバーが最初の「AUTH TLS」コマンドに正常に応答しなかった場合、または
暗黙的 FTPS の場合、最初の SSL/TLS 接続の試行が拒否された場合、
そのようなサーバーは FTPS をサポートしていないと考えられます。

再帰的 検索 オプション
-r
-再帰的
再帰的な取得をオンにします。 デフォルトの最大深さは 5 です。

-l 深さ
--level =深さ
再帰の最大深さレベルを指定する 深さ.

-- 削除後
このオプションは、ダウンロードしたすべてのファイルを削除するように Wget に指示します。 After そうしたことで。
これは、プロキシ経由で人気のあるページをプリフェッチする場合に役立ちます。例:

wget -r -nd --delete-after http://whatever.com/~popular/page/

  -r オプションは再帰的に取得することです。 -NS ディレクトリを作成しないようにします。

注意してください -- 削除後 ローカルマシン上のファイルを削除します。 発行しません。
DELE たとえば、リモート FTP サイトへのコマンド。 また、次の場合にも注意してください。 -- 削除後 is
指定、 --convert-links 無視されるので、 .orig ファイルは単純に作成されません
最初の場所。

-k
--convert-links
ダウンロードが完了したら、ドキュメント内のリンクを変換して
ローカルでの視聴に適しています。 これは、表示されているハイパーリンクだけでなく、すべてのハイパーリンクに影響します。
埋め込み画像などの外部コンテンツにリンクする文書の一部。
スタイル シート、非 HTML コンテンツへのハイパーリンクなど。

各リンクは、次の XNUMX つの方法のいずれかで変更されます。

・Wgetでダウンロードしたファイルへのリンクを参照するように変更します。
相対リンクとして指すファイル。

例: ダウンロードしたファイルの場合 /foo/doc.html へのリンク /bar/img.gif、したがって、
ダウンロードしてから、リンクをクリックします doc.html を指すように変更されます ../bar/img.gif.
この種の変換は、以下の任意の組み合わせに対して確実に機能します。
ディレクトリ。

・Wgetでダウンロードされていないファイルへのリンクは に変更されます。
ホスト名と、それらが指す場所の絶対パスが含まれます。

例: ダウンロードしたファイルの場合 /foo/doc.html へのリンク /bar/img.gif (または
../bar/img.gif)、次のリンク doc.html を指すように変更されます
http://hostname/bar/img.gif.

このため、ローカル ブラウジングは確実に機能します。リンクされたファイルがダウンロードされた場合、
リンクはローカル名を参照します。 ダウンロードされていない場合、リンクは次のリンクを参照します。
壊れたリンクを表示するのではなく、完全なインターネット アドレスを表示します。 という事実は、
以前のリンクは相対リンクに変換されるため、ダウンロードしたリンクを確実に移動できます。
階層を別のディレクトリに移動します。

Wget はダウンロードの最後にのみ、どのリンクがダウンロードされたかを知ることができることに注意してください。
ダウンロードされました。 そのため、行われた仕事は、 -k すべての最後に実行されます
ダウンロード。

--変換ファイルのみ
このオプションは、URL のファイル名部分のみを変換し、残りの URL はそのままにします。
手付かずの。 このファイル名の部分は「ベース名」と呼ばれることもありますが、
混乱を招かないように、ここではその用語を避けてください。

特に以下と組み合わせると効果的です。 --調整拡張子、これは
カップリングは強制されません。 インターネット キャッシュにファイルを格納すると便利であることがわかります
異なるホストからダウンロードされます。

例: リンクが次を指している場合 //foo.com/bar.cgi?xyz   --調整拡張子 アサートされた
そのローカルの宛先は次のとおりです ./foo.com/bar.cgi?xyz.css、リンク
に変換されます //foo.com/bar.cgi?xyz.css。 ファイル名の部分のみに注意してください。
変更されました。 ネットパスを含め、URL の残りの部分は変更されません。
("//") これは、そうでなければ Wget によって処理され、有効な形式に変換されます。
スキーム (つまり、「http://」)。

-K
--バックアップ-変換済み
ファイルを変換するときは、元のバージョンをバックアップしてください。 .orig サフィックス。 影響を与えるのは、
の行動 -N.

-m
- 鏡
ミラーリングに適したオプションをオンにします。 このオプションは再帰と時間を有効にします。
スタンピング、無限の再帰の深さを設定し、FTP ディレクトリのリストを保持します。 それは
現在は以下と同等 -r -N -l infファイル --削除リストなし.

-p
--page-requisites
このオプションを選択すると、Wget は適切に実行するために必要なすべてのファイルをダウンロードします。
指定された HTML ページを表示します。 これには、インライン画像、サウンド、
参照されたスタイルシート。

通常、単一の HTML ページをダウンロードする場合、必要なドキュメントはすべてダウンロードされます。
正しく表示するために必要なファイルがダウンロードされていません。 使用する -r ととも​​に -l 助けられる、
ただし、Wget は通常、外部ドキュメントとインラインドキュメントを区別しないため、
通常、必要条件が欠けている「リーフ ドキュメント」が残されます。

たとえば、ドキュメントと言うと、 1.html "が含まれています「タグ参照」 1.gif
外部ドキュメントを指す「 」タグ 2.html。 と言う 2.html 似ていますが、それは
そのイメージは 2.gif そしてそれはにリンクします 3.html。 これが任意に続くと言う
高い数値。

コマンドを実行すると:

wget -r -l 2 http:// /1.html

その後 1.html, 1.gif, 2.html, 2.gif, 3.html ダウンロードされます。 ご覧のように、
3.html その必要条件がありません 3.gif Wget は単純に数を数えているだけなので、
~からホップ (最大 2) 1.html 再帰をどこで停止するかを決定するため。
ただし、このコマンドでは次のようになります。

wget -r -l 2 -p http:// /1.html

上記のすべてのファイル & 3.htmlの必須条件 3.gif ダウンロードされます。 同様に、

wget -r -l 1 -p http:// /1.html

引き起こすだろう 1.html, 1.gif, 2.html, 2.gif ダウンロードされるようになります。 次のように考える人もいるかもしれません。

wget -r -l 0 -p http:// /1.html

ただダウンロードするでしょう 1.html & 1.gif、しかし残念ながらそうではありません。
-l 0 に相当します -l infファイル---つまり、無限再帰です。 単一の HTML をダウンロードするには
ページ (またはいくつかのページ、すべてコマンドラインまたは -i URL入力
ファイル) とその (またはその) 要件はそのままにしておきます -r & -l:

wget -p http:// /1.html

Wget は次のように動作することに注意してください。 -r 指定されていましたが、その XNUMX ページのみと
その必要条件がダウンロードされます。 そのページから外部ドキュメントへのリンクは、
フォローされません。 実際には、単一のページとそのすべての必要条件をダウンロードするには (たとえ
それらは別の Web サイトに存在します)、ロットがローカルで適切に表示されることを確認します。
この著者は、それに加えていくつかのオプションを使用することを好みます -p:

wget -E -H -k -K -p http:// /

このトピックの締めくくりとして、Wget の外部ドキュメントの考え方について知っておく価値があります。
link は、「 」タグ、「 」タグ、または「 」タグで指定された任意の URL です。
よりも " 」。

--strict-コメント
HTML コメントの厳密な解析をオンにします。 デフォルトでは、コメントは次の位置で終了します。
の最初の発生 - >.

仕様上、HTMLコメントはSGMLで表現されます。 宣言.
宣言は、で始まる特殊なマークアップです。 <! 終わりに >、 といった <!DOCTYPE
...>、次のペアの間にコメントが含まれる場合があります。 -- 区切り文字。 HTMLコメントは
「空の宣言」、コメント以外のテキストを含まない SGML 宣言。 したがって、
は有効なコメントです。 <!--XNUMX-- --XNUMX -->、 だけど そうではありません。

一方、ほとんどの HTML ライターはコメントを他のものとして認識しません。
で区切られたテキスト <!-- & - >、まったく同じではありません。 たとえば、何か
ような ダッシュの数が XNUMX である限り、有効なコメントとして機能します。
XNUMX の倍数 (!)。 そうでない場合、コメントは技術的には次のコメントまで続きます。 --、その
文書のもう一方の端にあるかもしれません。 このため、多くの人気のあるブラウザでは
仕様を完全に無視し、ユーザーが期待するものを実装します。
で区切られたコメント <!-- & - >.

バージョン 1.9 までは、Wget はコメントを厳密に解釈していたため、リンクが失われていました。
多くの Web ページではブラウザでは問題なく表示されましたが、次のような不運がありました。
準拠していないコメントが含まれています。 バージョン 1.9 から、Wget が加わりました。
「素朴な」コメントを実装し、各コメントを次の時点で終了するクライアントのランク
の最初の発生 - >.

何らかの理由で、厳密なコメント解析が必要な場合は、このオプションを使用してそれを有効にします。
に。

再帰的 承認/拒否 オプション
-A アクリスト - 受け入れる アクリスト
-R 拒否リスト - 拒絶 拒否リスト
受け入れるか拒否するファイル名のサフィックスまたはパターンのカンマ区切りのリストを指定します。
ワイルドカード文字のいずれかを使用すると、 *, ?, [ or ]、の要素に表示されます。
アクリスト or 拒否リストの場合、接尾辞ではなくパターンとして扱われます。 この中で
この場合、シェルが展開されないようにパターンを引用符で囲む必要があります。
それは、のように -A 「*.mp3」 or -A 「*.mp3」.

--accept-正規表現 URL正規表現
--reject-regex URL正規表現
正規表現を指定して、完全な URL を受け入れるか拒否します。

--正規表現の種類 正規表現型
正規表現の種類を指定します。 考えられるタイプは次のとおりです POSIX or PCRE。 注意してください。
使用できる PCRE タイプの場合、wget は libpcre サポートを使用してコンパイルする必要があります。

-D ドメインリスト
--ドメイン=ドメインリスト
フォローするドメインを設定します。 ドメインリスト ドメインのカンマ区切りのリストです。 ノート
それがすること オンにする -H.

--除外ドメイン ドメインリスト
対象となるドメインを指定します。 フォローされること。

--フォロー-ftp
HTML ドキュメントから FTP リンクをたどります。 このオプションを使用しないと、Wget はすべての
FTP リンク。

--フォロータグ=リスト
Wget には、HTML タグと属性のペアの内部テーブルがあり、
再帰的検索中にリンクされたドキュメントを検索します。 ユーザーが
これらのタグのサブセットを考慮する必要がありますが、そのようなタグを指定する必要があります
カンマ区切りで リスト このオプションを使用します。

--ignore-tags=リスト
これはその逆です --フォロータグ オプション。 特定の HTML タグをスキップするには
ダウンロードするドキュメントを再帰的に検索し、カンマ区切りで指定します。 リスト.

以前は、このオプションは、単一のページとそのページをダウンロードする場合の最善の策でした。
次のようなコマンドラインを使用して、必要条件を指定します。

wget --ignore-tags=a,area -H -k -K -r http:// /

ただし、このオプションの作成者は、「」のようなタグが含まれるページに遭遇しました。
HREF="/">" と考え、無視するタグを指定するだけでは十分ではないことに気づきました。
Wget に単に無視するように指示することはできません。」 "、その場合、スタイルシートは使用されないため、
ダウンロードされました。 単一のページとその必要条件をダウンロードするための最良の方法は、
専用の --page-requisites オプションを選択します。

--大文字と小文字を区別しない
ファイルとディレクトリを照合する場合、大文字と小文字は区別されません。 これは -R の動作に影響します。
-A、-I、および -X オプション、および FTP からダウンロードするときに実装されるグロビング
サイト。 たとえば、このオプションを使用すると、 -A "*。TXT" 一致します ファイル1.txt、 だけでなく
ファイル2.TXT, ファイル3.TxT、 等々。 例内の引用符はシェルを防ぐためのものです。
パターンを拡張することから。

-H
--スパンホスト
再帰的な取得を実行するときに、ホスト間のスパンを有効にします。

-L
- 相対的
相対リンクのみをたどってください。 何もせずに特定のホームページを取得する場合に便利です。
同じホストからのものであっても、気を散らすものはありません。

-I リスト
--include-directorys=リスト
ダウンロード時にたどるディレクトリのカンマ区切りリストを指定します。
の要素 リスト ワイルドカードが含まれる場合があります。

-X リスト
--除外ディレクトリ=リスト
ダウンロードから除外するディレクトリのカンマ区切りリストを指定します。
の要素 リスト ワイルドカードが含まれる場合があります。

-np
--親なし
再帰的に取得する場合は、親ディレクトリに絶対にアクセスしないでください。 これは
ファイルのみを保証するため、便利なオプションです。 以下 特定の階層は
ダウンロードされる。

ENVIRONMENT


Wget は、HTTP と FTP の両方の取得のプロキシをサポートします。 プロキシを指定する標準的な方法
Wget が認識する location は次の環境変数を使用します。

http_proxy
https_proxy
設定されている場合、 http_proxy & https_proxy 変数には、
それぞれ HTTP 接続と HTTPS 接続のプロキシ。

ftp_proxy
この変数には、FTP 接続用のプロキシの URL が含まれている必要があります。 それはかなり〜です
共通のこと http_proxy & ftp_proxy 同じ URL に設定されます。

no_proxy
この変数には、プロキシが必要とするドメイン拡張子のカンマ区切りのリストが含まれている必要があります。
に使用されます。 たとえば、次の値がある場合、 no_proxy is .mit.edu、プロキシは行いません
MIT からドキュメントを取得するために使用されます。

EXIT ステータス


Wget で問題が発生した場合、いくつかのエラー コードの XNUMX つが返されることがあります。

0 問題は発生しませんでした。

1 一般的なエラー コード。

2 解析エラー --- たとえば、コマンドライン オプションを解析するときに、 .wgetrc or
.netrc...

3 ファイル I/O エラー。

4 ネットワーク障害。

5 SSL 検証の失敗。

6 ユーザー名/パスワード認証に失敗しました。

7 プロトコルエラー。

8 サーバーがエラー応答を発行しました。

0 と 1 を除き、小さい番号の終了コードが大きい番号の終了コードより優先されます。
複数の種類のエラーが発生した場合は、番号が付けられています。

1.12 より前の Wget のバージョンでは、Wget の終了ステータスは役に立たない傾向がありました。
一貫性がない。 再帰的ダウンロードでは、事実上常に 0 (成功) が返されます。
問題が発生した場合、非再帰フェッチでは対応するステータスのみが返されました。
最後に試みたダウンロードに。

onworks.net サービスを使用してオンラインで wget を使用する


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad