EnglischFranzösischSpanisch

Ad


OnWorks-Favicon

wget – Online in der Cloud

Führen Sie wget im kostenlosen Hosting-Anbieter OnWorks über Ubuntu Online, Fedora Online, den Windows-Online-Emulator oder den MAC OS-Online-Emulator aus

Dies ist der Befehl wget, der beim kostenlosen Hosting-Anbieter OnWorks mit einer unserer zahlreichen kostenlosen Online-Workstations wie Ubuntu Online, Fedora Online, dem Windows-Online-Emulator oder dem MAC OS-Online-Emulator ausgeführt werden kann

PROGRAMM:

NAME/FUNKTION


Wget – Der nicht interaktive Netzwerk-Downloader.

ZUSAMMENFASSUNG


wget [zu erhalten]... [URL] ...

BESCHREIBUNG


GNU Wget ist ein kostenloses Dienstprogramm zum nicht interaktiven Herunterladen von Dateien aus dem Web. Es
unterstützt die Protokolle HTTP, HTTPS und FTP sowie den Abruf über HTTP-Proxys.

Wget ist nicht interaktiv, was bedeutet, dass es im Hintergrund arbeiten kann, während der Benutzer dies nicht tut
eingeloggt sein. Dadurch können Sie einen Abruf starten und die Verbindung zum System trennen
Wir beenden die Arbeit. Im Gegensatz dazu erfordern die meisten Webbrowser ständige Benutzerzugriffe
Anwesenheit, die bei der Übertragung großer Datenmengen ein großes Hindernis darstellen kann.

Wget kann Links in HTML-, XHTML- und CSS-Seiten folgen, um lokale Versionen von Remote zu erstellen
Websites, wobei die Verzeichnisstruktur der ursprünglichen Website vollständig wiederhergestellt wird. Das ist
wird manchmal als „rekursives Herunterladen“ bezeichnet. Dabei respektiert Wget die
Roboterausschlussstandard (/robots.txt). Wget kann angewiesen werden, die Links in zu konvertieren
heruntergeladene Dateien, um auf die lokalen Dateien zu verweisen, für die Offline-Anzeige.

Wget wurde für Robustheit gegenüber langsamen oder instabilen Netzwerkverbindungen entwickelt; wenn ein
Wenn der Download aufgrund eines Netzwerkproblems fehlschlägt, wird der Versuch wiederholt, bis die gesamte Datei heruntergeladen wurde
abgerufen worden. Wenn der Server das erneute Abrufen unterstützt, weist er den Server an, fortzufahren
der Download dort, wo er aufgehört hat.

Wget unterstützt keine Client-Sperrlisten (CRLs), also ist das HTTPS-Zertifikat, das Sie verwenden
Die Verbindung mit kann vom Websitebesitzer widerrufen werden.

OPTIONAL


Option Syntax
Da Wget GNU getopt zur Verarbeitung von Befehlszeilenargumenten verwendet, hat jede Option eine Langform
zusammen mit dem kurzen. Lange Optionen sind bequemer zu merken, erfordern aber Zeit
Typ. Sie können verschiedene Optionsstile frei kombinieren oder Optionen nach dem Befehl angeben.
Zeilenargumente. So können Sie schreiben:

wget -r --tries=10 http://fly.srk.fer.hr/ -o Protokoll

Das Leerzeichen zwischen der Option, die ein Argument akzeptiert, und dem Argument kann weggelassen werden.
Anstelle von -o Log Du kannst schreiben -log.

Sie können mehrere Optionen zusammenfassen, die keine Argumente erfordern, wie zum Beispiel:

wget -drc

Dies ist völlig gleichbedeutend mit:

wget -d -r -c

Da die Optionen nach den Argumenten angegeben werden können, können Sie sie mit beenden --.
Im Folgenden wird also versucht, die URL herunterzuladen -x, Versäumnis melden Log:

wget -o log -- -x

Die Optionen, die durch Kommas getrennte Listen akzeptieren, respektieren alle die Konvention, die angegeben wird
Eine leere Liste löscht ihren Wert. Dies kann nützlich sein, um das zu löschen .wgetrc Einstellungen. Für
Zum Beispiel, wenn Ihr .wgetrc setzt „exclude_directories“ auf /cgi-bin, das folgende Beispiel
wird es zuerst zurücksetzen und dann auf Ausschließen setzen /~niemand und /~jemand. Sie können auch
Löschen Sie die Listen .wgetrc.

wget -X " -X /~nobody,/~somebody

Die meisten Optionen, die keine Argumente akzeptieren, sind boolean Optionen, so genannt, weil ihre
Der Zustand kann mit einer Ja-oder-Nein-Variable („boolean“) erfasst werden. Zum Beispiel, --follow-ftp
weist Wget an, FTP-Links aus HTML-Dateien zu folgen und andererseits --no-glob sagt es
kein Datei-Globbing für FTP-URLs durchzuführen. Eine boolesche Option ist entweder positiv or
Negativ (mit ... anfangen --Nein). Alle diese Optionen haben mehrere Eigenschaften gemeinsam.

Sofern nicht anders angegeben, wird davon ausgegangen, dass das Standardverhalten das Gegenteil davon ist
Die Option erfüllt. Zum Beispiel die dokumentierte Existenz von --follow-ftp übernimmt
dass die Standardeinstellung ist nicht Folgen Sie FTP-Links von HTML-Seiten.

Affirmative Optionen können durch das Voranstellen des negiert werden --Nein- zum Optionsnamen; Negativ
Optionen können durch Weglassen negiert werden --Nein- Präfix. Dies mag überflüssig erscheinen – wenn das
Die Standardeinstellung für eine positive Option ist, etwas nicht zu tun. Warum sollte dann eine Möglichkeit bereitgestellt werden, dies zu tun?
explizit ausschalten? Die Startdatei kann jedoch tatsächlich die Standardeinstellung ändern. Für
zum Beispiel mit „follow_ftp = on“ in .wgetrc macht Wget folgen FTP-Links standardmäßig und
Verwendung von --no-follow-ftp Dies ist die einzige Möglichkeit, die Werkseinstellungen über den Befehl wiederherzustellen
Linie.

Basic Startup Optionen
-V
--Version
Zeigt die Version von Wget an.

-h
--help
Gibt eine Hilfemeldung aus, die alle Befehlszeilenoptionen von Wget beschreibt.

-b
--Hintergrund
Wechseln Sie sofort nach dem Start in den Hintergrund. Wenn keine Ausgabedatei über angegeben ist
-o, die Ausgabe wird umgeleitet wget-log.

-e Befehl
--ausführen Befehl
Ausführen Befehl als ob es ein Teil davon wäre .wgetrc. Ein auf diese Weise aufgerufener Befehl lautet
ausgeführt nachdem die Befehle in .wgetrcund haben somit Vorrang vor ihnen. Wenn Sie brauchen
Um mehr als einen wgetrc-Befehl anzugeben, verwenden Sie mehrere Instanzen von -e.

Protokollierung und zufuhr Reichen Sie das Optionen
-o Logdatei
--output-file=Logdatei
Alle Nachrichten protokollieren Logdatei. Die Meldungen werden normalerweise an den Standardfehler gemeldet.

-a Logdatei
--append-output=Logdatei
Anhängen Logdatei. Dies ist das gleiche wie -o, nur es hängt an Logdatei statt
Überschreiben der alten Protokolldatei. Wenn Logdatei nicht existiert, wird eine neue Datei erstellt.

-d
--debuggen
Aktivieren Sie die Debug-Ausgabe, also verschiedene Informationen, die für die Entwickler von Wget wichtig sind
wenn es nicht richtig funktioniert. Ihr Systemadministrator hat sich möglicherweise für die Kompilierung entschieden
Wget ohne Debug-Unterstützung, in diesem Fall -d wird nicht funktionieren. Bitte beachte, dass
Das Kompilieren mit Debug-Unterstützung ist immer sicher – Wget wurde mit Debug-Unterstützung kompiliert
werden wir nicht Drucken Sie alle Debug-Informationen aus, sofern Sie nicht dazu aufgefordert werden -d.

-q
--ruhig
Schalten Sie die Wget-Ausgabe aus.

-v
- ausführlich
Aktivieren Sie die ausführliche Ausgabe mit allen verfügbaren Daten. Die Standardausgabe ist ausführlich.

-nv
--no-verbose
Deaktivieren Sie ausführlich, ohne völlig leise zu sein (verwenden Sie -q dafür), was das bedeutet
Fehlermeldungen und grundlegende Informationen werden weiterhin gedruckt.

--report-speed=tippe
Ausgabebandbreite als tippe. Der einzig akzeptierte Wert ist Bits.

-i Datei
--input-file=Datei
Lesen Sie URLs von einem lokalen oder externen Gerät Datei. Wenn - wird angegeben als Datei, URLs werden gelesen
aus der Standardeingabe. (Verwenden ./- aus einer Datei mit dem wörtlichen Namen lesen -.)

Wenn diese Funktion verwendet wird, müssen keine URLs in der Befehlszeile vorhanden sein. Wenn es gibt
URLs sowohl in der Befehlszeile als auch in einer Eingabedatei werden diejenigen in den Befehlszeilen sein
die ersten, die abgerufen werden. Wenn --force-html nicht angegeben ist, dann Datei sollte
bestehen aus einer Reihe von URLs, eine pro Zeile.

Allerdings, wenn Sie angeben --force-html, wird das Dokument als betrachtet html. Darin
In diesem Fall könnten Sie Probleme mit relativen Links haben, die Sie entweder durch Hinzufügen lösen können
"URL">" zu den Unterlagen oder durch Angabe --base=URL in der Kommandozeile.

Besitzt das Datei Wenn es sich um ein externes Dokument handelt, wird das Dokument automatisch als behandelt html if
Der Inhaltstyp stimmt überein text / html. Darüber hinaus ist die DateiDer Standort wird sein
Wird implizit als Basis-HREF verwendet, wenn keine angegeben wurde.

--input-metalink=Datei
Lädt Dateien herunter, die im lokalen Metalink abgedeckt sind Datei. Metalink Version 3 und 4 sind
unterstützt.

--metalink-over-http
Gibt eine HTTP-HEAD-Anfrage anstelle einer GET-Anfrage aus und extrahiert Metalink-Metadaten aus der Antwort
Kopfzeilen. Dann wechselt es zum Metalink-Download. Wenn keine gültigen Metalink-Metadaten vorhanden sind
gefunden, greift es auf den normalen HTTP-Download zurück.

--preferred-location
Legen Sie den bevorzugten Speicherort für Metalink-Ressourcen fest. Dies wirkt sich aus, wenn mehrere Ressourcen vorhanden sind
mit gleicher Priorität stehen zur Verfügung.

-F
--force-html
Wenn Eingaben aus einer Datei gelesen werden, erzwingen Sie, dass diese als HTML-Datei behandelt wird. Das ermöglicht
Sie können durch Hinzufügen relative Links aus vorhandenen HTML-Dateien auf Ihrer lokalen Festplatte abrufen
"URL">" in HTML umwandeln oder das verwenden --Base Befehlszeilenoption.

-B URL
--base=URL
Löst relative Links mit auf URL als Bezugspunkt beim Lesen von Links von
eine über die angegebene HTML-Datei -i/--Eingabedatei Option (zusammen mit --force-html, oder
wenn die Eingabedatei remote von einem Server abgerufen wurde, der sie als HTML beschreibt). Das ist
entspricht dem Vorhandensein eines „BASE“-Tags in der HTML-Eingabedatei, mit URL wie die
Wert für das „href“-Attribut.

Zum Beispiel, wenn Sie angeben http://foo/bar/a.html für URL, und Wget liest
../baz/b.html Aus der Eingabedatei würde es aufgelöst werden http://foo/baz/b.html.

--config=FILE
Geben Sie den Speicherort einer Startdatei an, die Sie verwenden möchten.

--rejected-log=Logdatei
Protokolliert alle URL-Ablehnungen Logdatei als durch Kommas getrennte Werte. Die Werte umfassen die
Grund der Ablehnung, die URL und die übergeordnete URL, unter der sie gefunden wurde.

Herunterladen Optionen
--bind-adresse=ADRESSE
Wenn Sie Client-TCP/IP-Verbindungen herstellen, binden Sie an ADRESSE auf dem lokalen Computer. ADRESSE
kann als Hostname oder IP-Adresse angegeben werden. Diese Option kann nützlich sein, wenn Sie
Die Maschine ist an mehrere IPs gebunden.

-t Anzahl
--tries=Anzahl
Anzahl der Versuche festlegen Anzahl. Geben Sie 0 oder an inf für unendliche Wiederholungsversuche. Die Standardeinstellung ist
20 Mal erneut versuchen, mit Ausnahme schwerwiegender Fehler wie „Verbindung abgelehnt“ oder
„nicht gefunden“ (404), die nicht erneut versucht werden.

-O Datei
--output-document=Datei
Die Dokumente werden nicht in die entsprechenden Dateien geschrieben, aber alle
zusammengefügt und angeschrieben werden Datei. Wenn - wird verwendet als Datei, Dokumente werden sein
wird auf die Standardausgabe gedruckt, wodurch die Linkkonvertierung deaktiviert wird. (Verwenden ./- in eine Datei drucken
wörtlich benannt -.)

Gebrauch von -O is nicht soll einfach bedeuten: „Benutze den Namen.“ Datei statt der in der
URL;“ ist vielmehr analog zur Shell-Umleitung: wget -O Datei http://foo is
soll funktionieren wie wget -O - http://foo > Datei; Datei wird sofort abgeschnitten,
und alle heruntergeladene Inhalte werden dort geschrieben.

Aus diesem Grunde -N (zur Zeitstempelprüfung) wird in Kombination mit nicht unterstützt -O:
da Datei Wird immer neu erstellt, hat es immer einen ganz neuen Zeitstempel. A
Bei Verwendung dieser Kombination wird eine Warnung ausgegeben.

In ähnlicher Weise verwenden -r or -p mit -O funktioniert möglicherweise nicht wie erwartet: Wget wird nicht einfach heruntergeladen
die erste Datei zu Datei und laden Sie dann den Rest unter seinen normalen Namen herunter: alle
Der heruntergeladene Inhalt wird eingefügt Datei. Dies war in Version 1.11 deaktiviert, ist aber deaktiviert
wurde in 1.11.2 (mit einer Warnung) wieder eingeführt, da es einige Fälle gibt, in denen dies der Fall ist
Verhalten kann tatsächlich von Nutzen sein.

Eine Kombination mit -nc wird nur akzeptiert, wenn die angegebene Ausgabedatei nicht existiert.

Beachten Sie, dass eine Kombination mit -k ist nur beim Herunterladen eines einzelnen Dokuments zulässig,
denn in diesem Fall werden einfach alle relativen URIs in externe umgewandelt; -k macht nein
Sinn für mehrere URIs, wenn sie alle in eine einzige Datei heruntergeladen werden; -k kann sein
Wird nur verwendet, wenn die Ausgabe eine reguläre Datei ist.

-nc
--no-clobber
Wenn eine Datei mehr als einmal in dasselbe Verzeichnis heruntergeladen wird, hängt das Verhalten von Wget davon ab
auf ein paar Optionen, darunter -nc. In bestimmten Fällen wird die lokale Datei sein verstaut,
oder bei wiederholtem Download überschrieben. In anderen Fällen bleibt es erhalten.

Wenn Wget ohne ausgeführt wird -N, -nc, -r, oder -p, Laden Sie dieselbe Datei in dieselbe herunter
Verzeichnis führt zur Originalkopie von Datei erhalten und das zweite Exemplar
genannt werden Datei.1. Wenn diese Datei noch einmal heruntergeladen wird, wird es die dritte Kopie sein
namens Datei.2, usw. (Dies ist auch das Verhalten mit -ndSelbst wenn -r or -p sind in
Wirkung.) Wann -nc angegeben ist, wird dieses Verhalten unterdrückt und Wget lehnt dies ab
Laden Sie neuere Kopien von herunter Datei. Daher ist „no-clobber“ eigentlich eine Fehlbezeichnung
In diesem Modus wird nicht das Überladen verhindert (wie es bereits bei den numerischen Suffixen der Fall war).
Verhinderung von Clobbering), sondern vielmehr das Speichern mehrerer Versionen, das verhindert wird.

Beim Ausführen von Wget mit -r or -p, Aber ohne -N, -nd, oder -nc, erneutes Herunterladen einer Datei
führt dazu, dass die neue Kopie einfach die alte überschreibt. Hinzufügen -nc wird dies verhindern
Verhalten, sondern führt dazu, dass die Originalversion und alle neueren Kopien erhalten bleiben
der Server, der ignoriert werden soll.

Beim Ausführen von Wget mit -N, mit oder ohne -r or -p, die Entscheidung, ob oder nicht
Das Herunterladen einer neueren Kopie einer Datei hängt vom lokalen und Remote-Zeitstempel und der Größe ab
der Datei. -nc darf nicht gleichzeitig mit angegeben werden -N.

Eine Kombination mit -O/--output-document wird nur akzeptiert, wenn die angegebene Ausgabedatei dies tut
nicht existieren.

Beachten Sie das wann -nc angegeben ist, Dateien mit den Suffixen . Html or . Htm wird geladen
von der lokalen Festplatte heruntergeladen und analysiert, als ob sie aus dem Web abgerufen worden wären.

--backups=Sicherungen
Bevor Sie eine Datei (über)schreiben, sichern Sie eine vorhandene Datei, indem Sie eine hinzufügen .1 Suffix (_1 on
VMS) zum Dateinamen hinzufügen. Auf solche Sicherungsdateien wird rotiert .2, .3, und so weiter, bis zu
Sicherungen (und darüber hinaus verloren).

-c
--fortsetzen
Erhalten Sie weiterhin eine teilweise heruntergeladene Datei. Dies ist nützlich, wenn Sie den Vorgang beenden möchten
einen Download starten, der von einer früheren Instanz von Wget oder einem anderen Programm gestartet wurde. Für
Beispiel:

wget-c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Wenn es eine Datei mit dem Namen gibt ls-lR.Z Im aktuellen Verzeichnis geht Wget davon aus, dass dies der Fall ist
den ersten Teil der Remote-Datei und fordert den Server auf, mit dem fortzufahren
Abruf von einem Offset, der der Länge der lokalen Datei entspricht.

Beachten Sie, dass Sie diese Option nicht angeben müssen, wenn Sie nur den Strom benötigen
Aufruf von Wget, um den Download einer Datei erneut zu versuchen, falls die Verbindung auf halbem Weg unterbrochen wird
durch. Dies ist das Standardverhalten. -c wirkt sich nur auf die Wiederaufnahme von Downloads aus
begonnen vor auf diesen Aufruf von Wget zugreifen und deren lokale Dateien noch vorhanden sind
um.

Ohne -c, im vorherigen Beispiel würde nur die Remote-Datei heruntergeladen ls-lR.Z.1,
das Abgeschnittene verlassen ls-lR.Z Datei allein.

Beginnend mit Wget 1.7, falls Sie verwenden -c auf einer nicht leeren Datei, und es stellt sich heraus, dass die
Wenn der Server das weitere Herunterladen nicht unterstützt, weigert sich Wget, den Download zu starten
von Grund auf neu erstellen, was bestehende Inhalte effektiv ruinieren würde. Wenn du das wirklich willst
Um den Download von vorne zu beginnen, entfernen Sie die Datei.

Auch ab Wget 1.7, falls Sie es verwenden -c auf einer Datei, die gleich groß ist wie die
Wenn Sie eine auf dem Server haben, weigert sich Wget, die Datei herunterzuladen und druckt eine Erklärung aus
Nachricht. Das Gleiche passiert, wenn die Datei auf dem Server kleiner ist als lokal
(vermutlich, weil es seit Ihrem letzten Download auf dem Server geändert wurde
Versuch)---da „Fortfahren“ keinen Sinn ergibt, findet kein Download statt.

Auf der anderen Seite der Medaille, während der Nutzung -c, jede Datei, die auf dem Server größer ist
als lokal wird als unvollständiger Download betrachtet und nur „(length(remote) -
length(local))“ Bytes werden heruntergeladen und an das Ende der lokalen Datei angehängt.
Dieses Verhalten kann in bestimmten Fällen wünschenswert sein – Sie können es beispielsweise verwenden wget -c zu
Laden Sie nur den neuen Teil herunter, der an eine Datensammlung oder Protokolldatei angehängt wurde.

Wenn die Datei jedoch auf dem Server größer ist, weil sie vorhanden ist geändert, im Gegensatz zu
nur angehängt Wenn Sie dies tun, erhalten Sie eine verstümmelte Datei. Wget hat keine Möglichkeit zur Überprüfung
dass die lokale Datei tatsächlich ein gültiges Präfix der Remote-Datei ist. Du musst sein
Achten Sie bei der Verwendung besonders darauf -c in Verbindung mit -r, da jede Datei dies tun wird
als Kandidat für einen „unvollständigen Download“ betrachtet werden.

Ein weiterer Fall, bei dem Sie eine verstümmelte Datei erhalten, wenn Sie versuchen, sie zu verwenden -c ist, wenn du eine hast
lahmer HTTP-Proxy, der eine Zeichenfolge „Übertragung unterbrochen“ in die lokale Datei einfügt. In
In Zukunft könnte eine „Rollback“-Option hinzugefügt werden, um diesen Fall zu lösen.

Beachten Sie, dass -c Funktioniert nur mit FTP-Servern und mit HTTP-Servern, die das unterstützen
Header „Bereich“.

--start-pos=OFFSET
Beginnen Sie mit dem Herunterladen an der nullbasierten Position OFFSET. Der Offset kann in Bytes ausgedrückt werden.
Kilobyte mit dem Suffix „k“ oder Megabyte mit dem Suffix „m“ usw.

--start-pos hat höheren Vorrang vor --fortsetzen. Wenn --start-pos und --fortsetzen
Sind beide angegeben, gibt wget eine Warnung aus und fährt dann fort, als ob --fortsetzen war abwesend.

Andernfalls ist Serverunterstützung für den weiteren Download erforderlich --start-pos kann nicht helfen.
See -c für weitere Einzelheiten.

--progress=tippe
Wählen Sie den Typ der Fortschrittsanzeige aus, den Sie verwenden möchten. Rechtliche Indikatoren sind „Punkt“
und „Bar“.

Standardmäßig wird der Indikator „Balken“ verwendet. Es zeichnet eine ASCII-Fortschrittsbalkengrafik
(auch „Thermometer“-Anzeige genannt), die den Status des Abrufs anzeigt. Wenn die Ausgabe ist
kein TTY, standardmäßig wird die „Punkt“-Leiste verwendet.

Verwenden Sie die --progress=Punkt um zur „Punkt“-Anzeige zu wechseln. Es verfolgt den Abruf durch
Drucken von Punkten auf dem Bildschirm, wobei jeder Punkt eine feste Menge heruntergeladener Daten darstellt.

Der Fortschritt tippe kann auch einen oder mehrere Parameter annehmen. Die Parameter variieren je nach
tippe ausgewählt. Parameter zu tippe werden durch Anhängen an den Typ übergeben
getrennt durch einen Doppelpunkt (:) wie folgt: --progress=tippe:Parameter1:Parameter2.

Wenn Sie die Punktabfrage verwenden, können Sie die festlegen Stil durch Angabe des Typs als
Punkt:Stil. Verschiedene Stile weisen einem Punkt unterschiedliche Bedeutungen zu. Mit der „Standard“
Im Stil stellt jeder Punkt 1K dar, es gibt zehn Punkte in einem Cluster und 50 Punkte in einer Linie.
Der „binäre“ Stil hat eine eher „computerartige“ Ausrichtung – 8K Punkte, 16-Punkte-Cluster
und 48 Punkte pro Zeile (was 384 Zeilen ergibt). Der „Mega“-Stil eignet sich für
Herunterladen großer Dateien – jeder Punkt stellt 64 KB dar, die abgerufen wurden, es gibt acht Punkte in einer
Cluster und 48 Punkte auf jeder Zeile (jede Zeile enthält also 3M). Wenn „Mega“ nicht reicht
Dann können Sie den „Giga“-Stil verwenden – jeder Punkt stellt 1M abgerufen dar, es sind acht
Punkte in einem Cluster und 32 Punkte in jeder Zeile (jede Zeile enthält also 32 MB).

Mit der --progress=barDerzeit gibt es zwei mögliche Parameter: Stärke und nicht scrollen.

Wenn die Ausgabe kein TTY ist, fällt der Fortschrittsbalken immer auf „Punkt“ zurück, auch wenn
--progress=bar wurde während des Aufrufs an Wget übergeben. Dieses Verhalten kann überschrieben werden
und der „bar“-Ausgang, der durch Verwendung des Parameters „force“ erzwungen wird --progress=bar:force.

Standardmäßig ist die Bar Stil-Fortschrittsbalken scrollen Sie durch den Namen der Datei von links nach rechts
für die heruntergeladene Datei, wenn der Dateiname die maximal zulässige Länge überschreitet
seine Anzeige. In bestimmten Fällen, z. B. bei --progress=bar:force, kann man nicht wollen
der scrollende Dateiname in der Fortschrittsleiste. Durch Übergabe des Parameters „noscroll“ kann Wget
kann erzwungen werden, so viel wie möglich vom Dateinamen anzuzeigen, ohne durchzuscrollen
es.

Beachten Sie, dass Sie den Standardstil mit dem Befehl „progress“ festlegen können .wgetrc. Das
Die Einstellung kann über die Befehlszeile überschrieben werden. Zum Beispiel, um die Bar-Ausgabe zu erzwingen
ohne Scrollen verwenden --progress=bar:force:noscroll.

--Fortschritt anzeigen
Erzwingen Sie, dass wget den Fortschrittsbalken in beliebiger Ausführlichkeit anzeigt.

Standardmäßig zeigt wget den Fortschrittsbalken nur im ausführlichen Modus an. Man kann jedoch,
Ich möchte, dass wget den Fortschrittsbalken zusammen mit anderen auf dem Bildschirm anzeigt
Ausführlichkeitsmodi wie --no-verbose or --ruhig. Dies ist oft eine gewünschte Immobilie
Aufrufen von wget, um mehrere kleine/große Dateien herunterzuladen. In einem solchen Fall könnte wget
einfach mit diesem Parameter aufgerufen werden, um eine viel sauberere Ausgabe auf dem Bildschirm zu erhalten.

Diese Option erzwingt auch das Drucken des Fortschrittsbalkens stderr wenn verwendet
neben der --Logdatei .

-N
--Zeitstempeln
Zeitstempel aktivieren.

--no-if-modified-since
Senden Sie keinen If-Modified-Since-Header ein -N Modus. Senden Sie eine vorläufige HEAD-Anfrage
stattdessen. Dies hat nur Auswirkungen in -N Modus arbeiten können.

--no-use-server-timestamps
Legen Sie den Zeitstempel der lokalen Datei nicht anhand des Zeitstempels auf dem Server fest.

Wenn eine Datei heruntergeladen wird, werden ihre Zeitstempel standardmäßig so eingestellt, dass sie mit denen der Datei übereinstimmen
Remote-Datei. Dies ermöglicht die Verwendung von --Zeitstempeln bei nachfolgenden Aufrufen von wget.
Manchmal ist es jedoch sinnvoll, den Zeitstempel der lokalen Datei auf dem Zeitpunkt zu basieren, zu dem sie erstellt wurde
tatsächlich heruntergeladen; zu diesem Zweck die --no-use-server-timestamps Option war
unter der Voraussetzung.

-S
--server-response
Drucken Sie die von HTTP-Servern gesendeten Header und die von FTP-Servern gesendeten Antworten.

--Spinne
Wenn Wget mit dieser Option aufgerufen wird, verhält es sich wie ein Web Spinne, was bedeutet, dass es
Die Seiten werden nicht heruntergeladen. Überprüfen Sie einfach, ob sie vorhanden sind. Sie können zum Beispiel verwenden
So können Sie Ihre Lesezeichen überprüfen:

wget --spider --force-html -i bookmarks.html

Diese Funktion erfordert viel mehr Arbeit, damit Wget der Funktionalität von Real nahe kommt
Netzspinnen.

-T Sekunden
--timeout=Sekunden
Stellen Sie das Netzwerk-Timeout auf ein Sekunden Sekunden. Dies ist gleichbedeutend mit einer Angabe
--dns-timeout, --Verbindungs ​​Timeout und --read-timeout, alles zur selben Zeit.

Bei der Interaktion mit dem Netzwerk kann Wget nach einer Zeitüberschreitung suchen und den Vorgang abbrechen
wenn es zu lange dauert. Dies verhindert Anomalien wie hängende Lesevorgänge und Unendlichkeit
verbindet. Das einzige standardmäßig aktivierte Zeitlimit ist ein Lesezeitlimit von 900 Sekunden. Einstellung
Ein Timeout auf 0 deaktiviert es vollständig. Wenn Sie nicht wissen, was Sie tun, ist es das Beste
die Standard-Timeout-Einstellungen nicht zu ändern.

Alle Timeout-bezogenen Optionen akzeptieren Dezimalwerte sowie Werte in Sekundenbruchteilen. Für
Beispiel 0.1 Sekunden ist eine zulässige (wenn auch unkluge) Wahl des Timeouts. Zeitüberschreitungen in Sekundenbruchteilen
sind nützlich, um die Antwortzeiten des Servers zu überprüfen oder die Netzwerklatenz zu testen.

--dns-timeout=Sekunden
Stellen Sie das Zeitlimit für die DNS-Suche auf ein Sekunden Sekunden. DNS-Suchvorgänge, die nicht abgeschlossen werden
Die angegebene Zeit wird fehlschlagen. Standardmäßig gibt es bei DNS-Suchvorgängen und anderen keine Zeitüberschreitungen
als das, was von Systembibliotheken implementiert wird.

--connect-timeout=Sekunden
Stellen Sie das Verbindungszeitlimit auf ein Sekunden Sekunden. TCP-Verbindungen, deren Herstellung länger dauert
Die Einrichtung wird abgebrochen. Standardmäßig gibt es ansonsten kein Verbindungszeitlimit
implementiert durch Systembibliotheken.

--read-timeout=Sekunden
Legen Sie das Lese- (und Schreib-)Timeout auf fest Sekunden Sekunden. Die „Zeit“ dieses Timeouts
bezieht sich auf Leerlauf Zeit: Wenn zu irgendeinem Zeitpunkt des Downloads keine Daten mehr empfangen werden
die angegebene Anzahl an Sekunden überschreitet, schlägt der Lesevorgang fehl und der Download wird neu gestartet.
Diese Option hat keinen direkten Einfluss auf die Dauer des gesamten Downloads.

Natürlich kann der Remote-Server die Verbindung früher beenden
Option erfordert. Das standardmäßige Lese-Timeout beträgt 900 Sekunden.

--limit-rate=Betrag
Begrenzen Sie die Download-Geschwindigkeit auf Betrag Bytes pro Sekunde. Der Betrag kann in angegeben werden
Bytes, Kilobytes mit dem k Suffix oder Megabyte mit dem m Suffix. Zum Beispiel,
--limit-rate=20k begrenzt die Abrufrate auf 20 KB/s. Dies ist nützlich, wenn z
Aus welchem ​​Grund auch immer, Sie möchten nicht, dass Wget die gesamte verfügbare Bandbreite verbraucht.

Diese Option ermöglicht die Verwendung von Dezimalzahlen, normalerweise in Verbindung mit Potenzen
Suffixe; Zum Beispiel, --limit-rate=2.5k ist ein gesetzlicher Wert.

Beachten Sie, dass Wget die Begrenzung implementiert, indem es die entsprechende Zeitspanne in den Ruhezustand versetzt
nach einem Netzwerklesevorgang, der weniger Zeit in Anspruch nahm als in der Rate angegeben. Irgendwann das
Die Strategie führt dazu, dass die TCP-Übertragung auf ungefähr die angegebene Geschwindigkeit verlangsamt wird.
Es kann jedoch einige Zeit dauern, bis dieses Gleichgewicht erreicht ist. Seien Sie also nicht überrascht
wenn die Begrenzung der Rate bei sehr kleinen Dateien nicht gut funktioniert.

-w Sekunden
--warte=Sekunden
Warten Sie die angegebene Anzahl von Sekunden zwischen den Abrufen. Die Verwendung dieser Option ist
empfohlen, da dadurch die Serverlast verringert wird, da die Anfragen seltener erfolgen.
Statt in Sekunden kann die Zeit mit dem Suffix „m“ in Minuten angegeben werden
Stunden mit dem Suffix „h“ oder in Tagen mit dem Suffix „d“.

Die Angabe eines großen Werts für diese Option ist nützlich, wenn es sich um das Netzwerk oder das Ziel handelt
Der Host ist ausgefallen, sodass Wget lange genug warten kann, um den Netzwerkfehler vernünftigerweise zu erwarten
muss vor dem erneuten Versuch behoben werden. Das von dieser Funktion angegebene Warteintervall beträgt
beeinflusst durch „--random-wait“, was zu sehen ist.

--waitretry=Sekunden
Wenn Sie nicht möchten, dass Wget dazwischen wartet alles, Abruf, aber nur zwischen Wiederholungsversuchen von
Bei fehlgeschlagenen Downloads können Sie diese Option nutzen. Wget wird verwendet linear Backoff, warten 1
Sekunde nach dem ersten Fehler bei einer bestimmten Datei, dann 2 Sekunden warten nach dem
zweiter Fehler in dieser Datei, bis zur maximalen Anzahl von Sekunden Sie geben an.

Standardmäßig nimmt Wget einen Wert von 10 Sekunden an.

--random-wait
Einige Websites führen möglicherweise eine Protokollanalyse durch, um Abrufprogramme wie Wget by zu identifizieren
Suche nach statistisch signifikanten Ähnlichkeiten in der Zeit zwischen Anfragen. Das
Die Option bewirkt, dass die Zeit zwischen Anfragen zwischen 0.5 und 1.5 * variiert. warten Sekunden
woher warten wurde mit angegeben --Warten Option, um die Anwesenheit von Wget zu maskieren
aus einer solchen Analyse.

Ein Artikel aus dem Jahr 2001 in einer Publikation über die Entwicklung einer beliebten Verbraucherplattform
stellte Code zur Verfügung, um diese Analyse im Handumdrehen durchzuführen. Sein Autor schlug vor, bei zu blockieren
die Adressebene der Klasse C, um sicherzustellen, dass automatische Abrufprogramme trotzdem blockiert wurden
Ändern der von DHCP bereitgestellten Adressen.

Das --random-wait Option wurde von dieser unklugen Empfehlung inspiriert, viele zu blockieren
unabhängige Benutzer von einer Website aufgrund der Aktionen eines solchen.

--kein Vertreter
Verwenden Sie keine Proxys, auch wenn die entsprechende Umgebungsvariable *_proxy definiert ist.

-Q Aktie
--quota=Aktie
Geben Sie das Download-Kontingent für automatische Abrufe an. Der Wert kann in Bytes angegeben werden
(Standard), Kilobyte (mit k Suffix) oder Megabyte (mit m Suffix).

Beachten Sie, dass sich das Kontingent niemals auf das Herunterladen einer einzelnen Datei auswirkt. Also, wenn Sie angeben wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, alle der ls-lR.gz wird heruntergeladen. Die
Dasselbe gilt auch dann, wenn mehrere URLs in der Befehlszeile angegeben werden. Quote gilt jedoch
wird beim rekursiven Abrufen oder aus einer Eingabedatei berücksichtigt. So können Sie
sicher tippen wget -Q2m -i Seiten---Download wird abgebrochen, wenn das Kontingent überschritten ist.

Kontingent auf 0 oder auf setzen inf Begrenzt das Download-Kontingent.

--no-dns-cache
Deaktivieren Sie das Caching von DNS-Suchen. Normalerweise merkt sich Wget die gesuchten IP-Adressen
vom DNS herauf, sodass der DNS-Server nicht wiederholt kontaktiert werden muss
(normalerweise kleine) Gruppe von Hosts, von denen es abruft. Dieser Cache existiert nur im Speicher; A
Bei einem neuen Wget-Lauf wird DNS erneut kontaktiert.

Es wurde jedoch berichtet, dass es in manchen Situationen nicht wünschenswert ist, zwischenzuspeichern
Hostnamen, auch für die Dauer einer kurz laufenden Anwendung wie Wget. Mit diesem
Option Wget gibt eine neue DNS-Suche aus (genauer gesagt einen neuen Aufruf von „gethostbyname“ oder
„getaddrinfo“) jedes Mal, wenn eine neue Verbindung hergestellt wird. Bitte beachten Sie, dass diese Option dies tut
nicht wirken sich auf das Caching aus, das möglicherweise von der auflösenden Bibliothek oder von einer externen Bibliothek durchgeführt wird
Caching-Schicht, wie z. B. NSCD.

Wenn Sie nicht genau verstehen, was diese Option bewirkt, werden Sie sie wahrscheinlich nicht benötigen.

--restrict-file-names=Modi
Ändern Sie, welche Zeichen in Remote-URLs bei der Generierung mit Escapezeichen versehen werden müssen
lokale Dateinamen. Charaktere, die es sind eingeschränkt durch diese Option werden maskiert, d. h
Ersetzt mit %HH, Wobei HH ist die Hexadezimalzahl, die dem entspricht
eingeschränkter Charakter. Diese Option kann auch verwendet werden, um alle alphabetischen Groß- und Kleinschreibung zu erzwingen
entweder Klein- oder Großbuchstaben sein.

Standardmäßig maskiert Wget die Zeichen, die als Teil der Datei nicht gültig oder sicher sind
Namen auf Ihrem Betriebssystem sowie Steuerzeichen, die normalerweise verwendet werden
nicht druckbar. Diese Option ist nützlich, um diese Standardeinstellungen zu ändern, vielleicht weil Sie
auf eine nicht native Partition herunterladen oder weil Sie die Escape-Funktion deaktivieren möchten
die Steuerzeichen, oder Sie möchten die Zeichen weiter auf die in beschränken
den ASCII-Wertebereich.

Das Modi sind eine durch Kommas getrennte Menge von Textwerten. Die akzeptablen Werte sind Unix,
Fenster, keine Kontrolle, ASCII, Klein und Groß. Die Werte Unix und Fenster sind
schließen sich gegenseitig aus (das eine überschreibt das andere). Klein und Groß.
Letztere sind Sonderfälle, da sie den Zeichensatz nicht verändern
maskiert werden, sondern erzwingen vielmehr die Konvertierung lokaler Dateipfade entweder in niedrigere oder
Großbuchstaben.

Wenn „unix“ angegeben ist, maskiert Wget das Zeichen / und die Steuerzeichen in
die Bereiche 0--31 und 128--159. Dies ist die Standardeinstellung auf Unix-ähnlichen Betriebssystemen.

Wenn „windows“ angegeben ist, maskiert Wget die Zeichen \, |, /, :, ?, ", *, <, > und
die Steuerzeichen in den Bereichen 0–31 und 128–159. Darüber hinaus ist Wget in
Windows-Modus verwendet + statt : um Host und Port in lokalen Dateinamen zu trennen, und
verwendet @ statt ? um den Abfrageteil des Dateinamens vom Rest zu trennen.
Daher eine URL, die als gespeichert werden würde www.xemacs.org:4300/search.pl?input=blah in
Der Unix-Modus würde gespeichert als www.xemacs.org+4300/search.pl@input=blah im Windows-Modus.
Dieser Modus ist der Standardmodus unter Windows.

Wenn Sie angeben keine Kontrolle, dann wird auch das Escapen der Steuerzeichen umgeschaltet
aus. Diese Option kann sinnvoll sein, wenn Sie URLs herunterladen, deren Namen enthalten
UTF-8-Zeichen, auf einem System, das Dateinamen in UTF-8 speichern und anzeigen kann (einige).
Mögliche Bytewerte, die in UTF-8-Bytesequenzen verwendet werden, liegen im Wertebereich
von Wget als „Kontrollen“ bezeichnet).

Das ASCII Der Modus wird verwendet, um anzugeben, dass alle Bytes, deren Werte außerhalb des Bereichs liegen
ASCII-Zeichen (d. h. größer als 127) müssen maskiert werden. Dies kann nützlich sein, wenn
Speichern von Dateinamen, deren Kodierung nicht mit der lokal verwendeten übereinstimmt.

-4
--inet4-only
-6
--inet6-only
Verbindung zu IPv4- oder IPv6-Adressen erzwingen. Mit --inet4-only or -4, Wget wird nur
Stellen Sie eine Verbindung zu IPv4-Hosts her, ignorieren Sie AAAA-Einträge im DNS und verweigern Sie die Verbindung zu IPv6
in URLs angegebene Adressen. Umgekehrt mit --inet6-only or -6, Wget wird nur
Stellen Sie eine Verbindung zu IPv6-Hosts her und ignorieren Sie A-Einträge und IPv4-Adressen.

Normalerweise sollten keine der beiden Optionen benötigt werden. Standardmäßig wird ein IPv6-fähiges Wget verwendet
die durch den DNS-Eintrag des Hosts angegebene Adressfamilie. Wenn der DNS mit beidem antwortet
IPv4- und IPv6-Adressen, Wget wird sie nacheinander ausprobieren, bis es eine findet, die es finden kann
verbunden mit. (Siehe auch die unten beschriebene Option „--prefer-family“.)

Mit diesen Optionen kann die Verwendung einer IPv4- oder IPv6-Adresse gezielt erzwungen werden
Familien auf Dual-Familien-Systemen, normalerweise um das Debuggen zu erleichtern oder um Fehler zu beheben
Netzwerkkonfiguration. Nur einer von --inet6-only und --inet4-only kann unter angegeben werden
die selbe Zeit. Keine der beiden Optionen ist in Wget verfügbar, das ohne IPv6-Unterstützung kompiliert wurde.

--prefer-family=none/IPv4/IPv6
Wenn Sie mehrere Adressen zur Auswahl haben, stellen Sie eine Verbindung zu den angegebenen Adressen her
Wenden Sie sich zuerst an die Familie. Die von DNS zurückgegebene Adressreihenfolge wird unverändert von verwendet
default.

Dies vermeidet falsche Fehler und Verbindungsversuche beim Zugriff auf Hosts, die aufgelöst werden
sowohl IPv6- als auch IPv4-Adressen aus IPv4-Netzwerken. Zum Beispiel, www.kame.net löst
zu 2001:200:0:8002:203:47ff:fea5:3085 und 203.178.141.194. Wenn das bevorzugt wird
Familie ist „IPv4“, die IPv4-Adresse wird zuerst verwendet; wenn die bevorzugte Familie „IPv6“ ist,
die IPv6-Adresse wird zuerst verwendet; Wenn der angegebene Wert „none“ ist, die Adressreihenfolge
Der vom DNS zurückgegebene Wert wird unverändert verwendet.

Im Gegensatz zu -4 und -6, diese Option verhindert nicht den Zugriff auf eine Adressfamilie, sondern nur
ändert die Auftrag in dem auf die Adressen zugegriffen wird. Beachten Sie auch, dass die Neuordnung
wird von dieser Option ausgeführt stabil---es hat keinen Einfluss auf die Reihenfolge der Adressen derselben
Familie. Das heißt, die relative Reihenfolge aller IPv4-Adressen und aller IPv6-Adressen
bleibt in jedem Fall erhalten.

--retry-connrefused
Betrachten Sie „Verbindung abgelehnt“ als vorübergehenden Fehler und versuchen Sie es erneut. Normalerweise gibt Wget auf
auf einer URL, wenn keine Verbindung zur Site hergestellt werden kann, weil die Verbindung fehlgeschlagen ist
als Zeichen dafür, dass der Server überhaupt nicht läuft und dass Wiederholungsversuche nicht helfen würden. Das
Die Option dient der Spiegelung unzuverlässiger Websites, deren Server dazu neigen, kurzzeitig zu verschwinden
Zeiträume.

--user=Benutzer
--Passwort=Passwort
Geben Sie den Benutzernamen an Benutzer und das Passwort Passwort für den FTP- und HTTP-Dateiabruf.
Diese Parameter können mit überschrieben werden --ftp-user und --ftp-password Optionen für
FTP-Verbindungen und die --http-Benutzer und --http-Passwort Optionen für HTTP-Verbindungen.

--ask-password
Fordern Sie für jede hergestellte Verbindung ein Passwort an. Wann kann nicht angegeben werden
--Passwort verwendet, da sie sich gegenseitig ausschließen.

--no-iri
Deaktivieren Sie die Unterstützung für internationalisierte URIs (IRI). Verwenden --iri um es einzuschalten. IRI-Unterstützung ist
standardmäßig aktiviert.

Sie können den Standardstatus der IRI-Unterstützung mit dem Befehl „iri“ in festlegen .wgetrc. Das
Die Einstellung kann über die Befehlszeile überschrieben werden.

--local-encoding=Codierung
Erzwinge die Verwendung von Wget Codierung als Standard-Systemkodierung. Das beeinflusst, wie Wget
Konvertiert als Argumente angegebene URLs vom Gebietsschema in UTF-8 für die IRI-Unterstützung.

Wget verwendet die Funktion „nl_langinfo()“ und dann die Umgebungsvariable „CHARSET“, um
Holen Sie sich das Gebietsschema. Wenn dies fehlschlägt, wird ASCII verwendet.

Sie können die standardmäßige lokale Kodierung mit dem Befehl „local_encoding“ in festlegen .wgetrc.
Diese Einstellung kann über die Befehlszeile überschrieben werden.

--remote-encoding=Codierung
Erzwinge die Verwendung von Wget Codierung als Standard-Remote-Server-Kodierung. Das beeinflusst, wie
Wget konvertiert URIs, die in Dateien gefunden werden, während einer Rekursion von der Remote-Kodierung in UTF-8
bringen. Diese Option ist nur für die IRI-Unterstützung nützlich, für die Interpretation von nicht
ASCII-Zeichen.

Für HTTP ist die Remote-Codierung im HTTP-Header „Content-Type“ und in HTML zu finden
Meta-Tag „Content-Type http-equiv“.

Sie können die Standardkodierung mit dem Befehl „remoteencoding“ festlegen .wgetrc. Das
Die Einstellung kann über die Befehlszeile überschrieben werden.

- Verknüpfung aufheben
Erzwingen Sie, dass Wget die Dateiverknüpfung aufhebt, anstatt die vorhandene Datei zu überladen. Diese Option ist nützlich
zum Herunterladen in das Verzeichnis mit Hardlinks.

Verzeichnis Optionen
-nd
--keine-verzeichnisse
Erstellen Sie beim rekursiven Abrufen keine Verzeichnishierarchie. Mit diesem
Wenn die Option aktiviert ist, werden alle Dateien im aktuellen Verzeichnis gespeichert, ohne dass dies der Fall ist
Clobbering (wenn ein Name mehr als einmal auftaucht, erhalten die Dateinamen Erweiterungen .n).

-x
--force-Verzeichnisse
Das Gegenteil von -nd---Erstellen Sie eine Hierarchie von Verzeichnissen, auch wenn dies nicht der Fall wäre
anders erstellt worden. Z.B wget -x http://fly.srk.fer.hr/robots.txt wird das retten
heruntergeladene Datei an fly.srk.fer.hr/robots.txt.

-nH
--no-host-directories
Deaktivieren Sie die Generierung von Verzeichnissen mit Host-Präfix. Standardmäßig wird Wget mit aufgerufen -r
http://fly.srk.fer.hr/ erstellt zunächst eine Verzeichnisstruktur
fly.srk.fer.hr/. Diese Option deaktiviert dieses Verhalten.

--protocol-directories
Verwenden Sie den Protokollnamen als Verzeichnisbestandteil lokaler Dateinamen. Zum Beispiel mit
diese Option, wget -r http://Gastgeber wird gespeichert http /Gastgeber/ ... anstatt nur zu
Gastgeber/ ....

--cut-dirs=Anzahl
Ignore Anzahl Verzeichniskomponenten. Dies ist nützlich, um eine feinkörnige Kontrolle zu erhalten
über das Verzeichnis, in dem der rekursive Abruf gespeichert wird.

Nehmen Sie zum Beispiel das Verzeichnis unter ftp://ftp.xemacs.org/pub/xemacs/. Wenn Sie abrufen
es mit -r, es wird lokal unter gespeichert ftp.xemacs.org/pub/xemacs/. Während die -nH
Option kann das entfernen ftp.xemacs.org/ Teilweise steckst du immer noch fest pub/xemacs. Dies
ist wo --cut-dirs ist praktisch; es macht Wget nicht „sehen“ Anzahl Remote-Verzeichnis
Komponenten. Hier sind einige Beispiele dafür --cut-dirs Option funktioniert.

Keine Optionen -> ftp.xemacs.org/pub/xemacs/
-nH -> pub/xemacs/
-nH --cut-dirs=1 -> xemacs/
-nH --cut-dirs=2 -> .

--cut-dirs=1 -> ftp.xemacs.org/xemacs/
...

Wenn Sie nur die Verzeichnisstruktur entfernen möchten, ähnelt diese Option a
Kombination von -nd und -P. Im Gegensatz dazu -nd, --cut-dirs verliert nicht mit
Unterverzeichnisse – zum Beispiel mit -nH --cut-dirs=1, eine Beta/ Unterverzeichnis wird sein
platziert zu xemacs/beta, wie man es erwarten würde.

-P Präfix
--directory-prefix=Präfix
Verzeichnispräfix festlegen auf Präfixdem „Vermischten Geschmack“. Seine Verzeichnis Präfix ist das Verzeichnis, in dem sich alle anderen befinden
Dateien und Unterverzeichnisse werden an der Spitze des Abrufbaums gespeichert. Der
Standard ist . (das aktuelle Verzeichnis).

HTTP Optionen
--default-page=Name
Verwenden Sie die Name als Standarddateiname, wenn er nicht bekannt ist (z. B. für URLs, die auf a enden).
Schrägstrich), statt index.html.

-E
--adjust-extension
Wenn eine Datei vom Typ application / xhtml + xml or text / html wird heruntergeladen und die URL tut es
nicht mit dem regulären Ausdruck enden \.[Hh][Tt][Mm][Ll]?, diese Option verursacht das Suffix . Html
an den lokalen Dateinamen angehängt werden. Dies ist zum Beispiel nützlich, wenn Sie es sind
Spiegelung einer Remote-Site, die verwendet .asp Seiten, aber Sie möchten, dass die Seiten gespiegelt werden
sichtbar auf Ihrem Standard-Apache-Server. Eine weitere gute Verwendung hierfür ist, wenn Sie sind
Herunterladen von CGI-generierten Materialien. Eine URL wie http://site.com/article.cgi? 25 werden wir
gespeichert werden als Article.cgi?25.html.

Beachten Sie, dass auf diese Weise geänderte Dateinamen bei jedem erneuten Spiegeln erneut heruntergeladen werden
eine Site, weil Wget das nicht erkennen kann X.html Die Datei entspricht der Remote-URL X
(da es noch nicht weiß, dass die URL eine Ausgabe vom Typ erzeugt text / html or
application / xhtml + xml.

Ab Version 1.12 stellt Wget außerdem sicher, dass alle heruntergeladenen Dateien des Typs Text/css
enden mit dem Suffix . Css, und die Option wurde in umbenannt --html-Erweiterung, verbessern
sein neues Verhalten widerspiegeln. Der alte Optionsname ist immer noch akzeptabel, sollte es aber jetzt sein
als veraltet angesehen.

Irgendwann in der Zukunft könnte diese Option durchaus um Suffixe für erweitert werden
andere Arten von Inhalten, einschließlich Inhaltstypen, die nicht von Wget analysiert werden.

--http-user=Benutzer
--http-password=Passwort
Geben Sie den Benutzernamen an Benutzer und das Passwort Passwort auf einem HTTP-Server. Entsprechend der
Art der Herausforderung, Wget kodiert sie entweder mit dem „Basic“ (unsicher), dem
„digest“ oder das Windows-Authentifizierungsschema „NTLM“.

Eine andere Möglichkeit, Benutzernamen und Passwort anzugeben, besteht in der URL selbst. Beide Methoden
verrät Ihr Passwort jedem, der sich die Mühe macht, „ps“ auszuführen. Um die Passwörter zu verhindern
Bewahren Sie sie auf, damit sie nicht gesehen werden .wgetrc or .netrc, und achten Sie darauf, diese Dateien zu schützen
von anderen Benutzern mit „chmod“. Wenn die Passwörter wirklich wichtig sind, gehen Sie nicht weg
Sie liegen entweder in diesen Dateien – bearbeiten Sie die Dateien und löschen Sie sie, nachdem Wget dies getan hat
den Download gestartet.

--no-http-keep-alive
Deaktivieren Sie die „Keep-Alive“-Funktion für HTTP-Downloads. Normalerweise fragt Wget den Server
um die Verbindung offen zu halten, damit, wenn Sie mehr als ein Dokument von herunterladen
Wenn sie sich auf demselben Server befinden, werden sie über dieselbe TCP-Verbindung übertragen. Das spart Zeit und
Gleichzeitig wird die Belastung des Servers reduziert.

Diese Option ist nützlich, wenn dauerhafte (Keep-Alive-)Verbindungen aus irgendeinem Grund nicht funktionieren
für Sie nicht funktionieren, beispielsweise aufgrund eines Serverfehlers oder aufgrund der Unfähigkeit der Serverseite
Skripte zur Bewältigung der Zusammenhänge.

--no-cache
Deaktivieren Sie den serverseitigen Cache. In diesem Fall sendet Wget dem Remote-Server eine
entsprechende Weisung (Pragma: no-cache), um die Datei vom Remote-Dienst abzurufen,
anstatt die zwischengespeicherte Version zurückzugeben. Dies ist besonders beim Abrufen hilfreich
und Löschen veralteter Dokumente auf Proxyservern.

Caching ist standardmäßig zulässig.

--keine Kekse
Deaktivieren Sie die Verwendung von Cookies. Cookies sind ein Mechanismus zur serverseitigen Aufrechterhaltung
Zustand. Der Server sendet dem Client mithilfe des „Set-Cookie“-Headers ein Cookie und das
Der Client antwortet auf weitere Anfragen mit demselben Cookie. Da Cookies dies ermöglichen
Serverbesitzer, um die Besucher zu verfolgen und Websites diese Informationen auszutauschen,
Manche halten sie für einen Verstoß gegen die Privatsphäre. Standardmäßig werden Cookies verwendet. Jedoch,
Speicherung Cookies sind standardmäßig nicht aktiviert.

--load-cookies Datei
Cookies laden von Datei vor dem ersten HTTP-Abruf. Datei ist eine Textdatei im
Format, das ursprünglich von Netscape verwendet wurde Cookies.txt Datei.

Normalerweise verwenden Sie diese Option, wenn Sie Websites spiegeln, für die dies erforderlich ist
angemeldet, um auf einige oder alle Inhalte zuzugreifen. Der Anmeldevorgang funktioniert normalerweise
indem der Webserver beim Empfang und der Überprüfung Ihrer Daten ein HTTP-Cookie ausgibt
Referenzen. Das Cookie wird dann vom Browser erneut gesendet, wenn auf diesen Teil der Seite zugegriffen wird
Website und beweist so Ihre Identität.

Um eine solche Website zu spiegeln, muss Wget dieselben Cookies senden, die Ihr Browser sendet
Kommunikation mit der Website. Dies wird erreicht durch --load-cookies---zeigen Sie einfach Wget
zum Standort der Cookies.txt Datei, und es werden die gleichen Cookies an Sie gesendet
Der Browser würde in der gleichen Situation senden. Verschiedene Browser speichern Text-Cookies
Dateien an verschiedenen Orten:

„Netscape 4.x.“
Die Kekse sind drin ~/.netscape/cookies.txt.

„Mozilla und Netscape 6.x.“
Auch die Cookie-Datei von Mozilla trägt ihren Namen Cookies.txt, irgendwo darunter gelegen
~/.mozilla, im Verzeichnis Ihres Profils. Normalerweise endet der vollständige Pfad
sieht irgendwie so aus ~/.mozilla/default/some-weird-string/cookies.txt.

"Internet Explorer."
Sie können eine Cookie-Datei erstellen, die Wget verwenden kann, indem Sie im Menü „Datei“ auf „Importieren“ klicken
Exportieren, Cookies exportieren. Dies wurde mit Internet Explorer 5 getestet; es ist nicht
Funktioniert garantiert mit früheren Versionen.

"Andere Browser."
Wenn Sie zum Erstellen Ihrer Cookies einen anderen Browser verwenden, --load-cookies werden wir
Funktioniert nur, wenn Sie eine Cookie-Datei im Netscape-Format finden oder erstellen können
Wget erwartet.

Wenn Sie es nicht verwenden können --load-cookies, vielleicht gibt es noch eine Alternative. Wenn dein
Browser unterstützt einen „Cookie-Manager“, mit dem Sie die verwendeten Cookies einsehen können
Zugriff auf die Website, die Sie spiegeln. Notieren Sie den Namen und den Wert des Cookies und
Weisen Sie Wget manuell an, diese Cookies zu senden, und umgehen Sie dabei die „offizielle“ Cookie-Unterstützung:

wget --no-cookies --header „Cookie: = "

--save-cookies Datei
Speichern Sie Cookies unter Datei vor dem Verlassen. Dadurch werden keine abgelaufenen oder abgelaufenen Cookies gespeichert
die keine Ablaufzeit haben (sog. „Session-Cookies“), sondern auch sehen
--keep-session-cookies.

--keep-session-cookies
Wenn angegeben, Ursachen --save-cookies um auch Session-Cookies zu speichern. Sitzungscookies
werden normalerweise nicht gespeichert, da sie dazu gedacht sind, im Gedächtnis zu bleiben und später vergessen zu werden
Sie verlassen den Browser. Das Speichern ist auf Websites nützlich, bei denen Sie sich anmelden oder anmelden müssen
Besuchen Sie die Homepage, bevor Sie auf einige Seiten zugreifen können. Mit dieser Option können mehrere Wget
Ausführungen werden für die Website als einzelne Browsersitzung betrachtet.

Da das Cookie-Dateiformat normalerweise keine Sitzungscookies enthält, werden diese von Wget markiert
mit einem Ablaufzeitstempel von 0. Wget's --load-cookies erkennt diese als Sitzung
Cookies, aber es könnte andere Browser verwirren. Beachten Sie auch, dass Cookies so geladen werden
werden wie andere Sitzungscookies behandelt, was bedeutet, dass Sie dies wünschen --save-cookies zu
Bewahren Sie sie wieder auf, Sie müssen sie verwenden --keep-session-cookies erneut.

--ignore-length
Leider versenden einige HTTP-Server (genauer gesagt CGI-Programme) gefälschte Nachrichten
„Content-Length“-Header, was Wget verrückt macht, da es nicht das gesamte Dokument berücksichtigt
wurde abgerufen. Sie können dieses Syndrom erkennen, wenn Wget erneut versucht, dasselbe Dokument abzurufen
immer wieder, jedes Mal mit der Behauptung, die (ansonsten normale) Verbindung sei geschlossen
auf demselben Byte.

Mit dieser Option ignoriert Wget den Header „Content-Length“ – als ob dies nie der Fall wäre
existierte

--header=Kopfzeile
Absenden Kopfzeile zusammen mit den restlichen Headern in jeder HTTP-Anfrage. Der
Der bereitgestellte Header wird unverändert gesendet, was bedeutet, dass er Name und Wert getrennt durch enthalten muss
Doppelpunkt und darf keine Zeilenumbrüche enthalten.

Sie können durch Angabe mehr als einen zusätzlichen Header definieren --Header mehr als einmal.

wget --header='Accept-Charset: iso-8859-2' \
--header='Accept-Language: hr' \
http://fly.srk.fer.hr/

Durch die Angabe einer leeren Zeichenfolge als Header-Wert werden alle vorherigen Benutzerdaten gelöscht.
definierte Header.

Ab Wget 1.10 kann diese Option verwendet werden, um ansonsten generierte Header zu überschreiben
automatisch. In diesem Beispiel wird Wget angewiesen, eine Verbindung zu localhost herzustellen, jedoch die Angabe
foo.bar im „Host“-Header:

wget --header="Host: foo.bar" http://localhost/

In Versionen von Wget vor 1.10 ist die Verwendung von --Header verursachte das Versenden eines Duplikats
Überschriften.

--max-redirect=Anzahl
Gibt die maximale Anzahl von Umleitungen an, denen eine Ressource folgen soll. Die Standardeinstellung ist
20, was normalerweise weit mehr als nötig ist. Allerdings bei den Gelegenheiten, bei denen Sie
Wenn Sie mehr (oder weniger) zulassen möchten, ist dies die zu verwendende Option.

--proxy-user=Benutzer
--proxy-password=Passwort
Geben Sie den Benutzernamen an Benutzer und das Passwort Passwort zur Authentifizierung auf einem Proxyserver.
Wget kodiert sie mithilfe des „einfachen“ Authentifizierungsschemas.

Sicherheitsüberlegungen ähnlich denen mit --http-Passwort gelten auch hier.

--referer=URL
Fügen Sie „Referer“ ein: URL' Header in HTTP-Anfrage. Nützlich zum Abrufen von Dokumenten mit
serverseitige Verarbeitung, bei der davon ausgegangen wird, dass sie immer vom interaktiven Web abgerufen werden
Browsern und werden nur dann ordnungsgemäß angezeigt, wenn der Referrer auf eine der Seiten eingestellt ist, auf die verwiesen wird
zu ihnen.

--save-headers
Speichern Sie die vom HTTP-Server gesendeten Header vor dem eigentlichen Inhalt in der Datei.
mit einer Leerzeile als Trennzeichen.

-U Agentenzeichenfolge
--user-agent=Agentenzeichenfolge
Identifizieren als Agentenzeichenfolge an den HTTP-Server.

Das HTTP-Protokoll ermöglicht es den Clients, sich über einen „User-Agent“ zu identifizieren.
Header-Feld. Dies ermöglicht die Unterscheidung der WWW-Software, normalerweise für statistische Zwecke
Zwecke oder zur Verfolgung von Protokollverstößen. Wget identifiziert sich normalerweise als
Wget/Version, Version Dabei handelt es sich um die aktuelle Versionsnummer von Wget.

Es ist jedoch bekannt, dass einige Websites die Richtlinie zur Anpassung der Ausgabe durchsetzen
gemäß den vom „User-Agent“ bereitgestellten Informationen. Das ist zwar keine so schlechte Idee
Theoretisch wurde es von Servern missbraucht, die anderen Clients Informationen verweigerten
(historisch) Netscape oder häufiger Microsoft Internet Explorer. Diese Option
ermöglicht es Ihnen, die von Wget ausgegebene „User-Agent“-Zeile zu ändern. Die Verwendung dieser Option ist
entmutigt, es sei denn, Sie wissen wirklich, was Sie tun.

Angabe eines leeren Benutzeragenten mit --user-agent="" weist Wget an, das nicht zu senden
„User-Agent“-Header in HTTP-Anfragen.

--post-data=Schnur
--post-file=Datei
Verwenden Sie POST als Methode für alle HTTP-Anfragen und senden Sie die angegebenen Daten im
Anfragetext. --Post-Daten sendet Schnur als Daten, wohingegen --post-Datei sendet die
Inhalt von Datei. Ansonsten funktionieren sie genauso. Insbesondere,
vom Nutzer definierten beide erwarten Sie Inhalte der Form „key1=value1&key2=value2“, mit Prozentkodierung
für Sonderzeichen; Der einzige Unterschied besteht darin, dass man seinen Inhalt als erwartet
Befehlszeilenparameter und der andere akzeptiert seinen Inhalt aus einer Datei. Insbesondere,
--post-Datei is nicht für die Übermittlung von Dateien als Formularanhänge: Diese müssen wie folgt aussehen
„Schlüssel=Wert“-Daten (mit entsprechender Prozentcodierung) wie alles andere auch. Wget
unterstützt derzeit nicht „multipart/form-data“ zur Übertragung von POST-Daten; nur
„application/x-www-form-urlencoded“. Nur einer von --Post-Daten und --post-Datei sollte sein
spezifiziert.

Bitte beachten Sie, dass wget nicht erfordert, dass der Inhalt der Form entspricht
„key1=value1&key2=value2“, und es wird auch nicht darauf getestet. Wget wird einfach übertragen
welche Daten ihm auch immer zur Verfügung gestellt werden. Die meisten Server erwarten jedoch, dass die POST-Daten vorhanden sind
Verwenden Sie bei der Verarbeitung von HTML-Formularen das obige Format.

Beim Senden einer POST-Anfrage mit dem --post-Datei Option behandelt Wget die Datei als
Binärdatei und sendet jedes Zeichen in der POST-Anfrage ohne Strippen
nachgestellte Newline- oder Formfeed-Zeichen. Alle anderen Steuerzeichen im Text werden
werden auch unverändert in der POST-Anfrage gesendet.

Bitte beachten Sie, dass Wget die Größe der POST-Daten im Voraus kennen muss.
Daher muss das Argument für „--post-file“ eine reguläre Datei sein; Angabe eines FIFO oder
etwas wie /dev/stdin wird nicht funktionieren. Es ist nicht ganz klar, wie man das umgehen kann
Einschränkung, die HTTP/1.0 innewohnt. Obwohl HTTP/1.1 eingeführt wird zerkleinert das übertragen
Es ist nicht erforderlich, die Länge der Anfrage im Voraus zu kennen. Ein Client kann Chunked nicht verwenden
es sei denn, es weiß, dass es mit einem HTTP/1.1-Server kommuniziert. Und das kann es erst wissen
erhält eine Antwort, die wiederum voraussetzt, dass die Anfrage abgeschlossen ist – a
Henne-Ei-Problem.

Hinweis: Ab Version 1.15 wird Wget umgeleitet, nachdem die POST-Anfrage abgeschlossen ist.
sein Verhalten hängt vom Antwortcode ab, der vom Server zurückgegeben wird. Im Falle eines
301 dauerhaft verschoben, 302 vorübergehend verschoben oder 307 vorübergehend umgeleitet, Wget wird in
Senden Sie gemäß RFC2616 weiterhin eine POST-Anfrage. Falls ein Server das möchte
Wenn der Client die Anforderungsmethode bei der Umleitung ändert, sollte er eine 303 „See Other“ senden
Antwortcode.

Dieses Beispiel zeigt, wie Sie sich per POST bei einem Server anmelden und dann mit dem Download fortfahren
die gewünschten Seiten, vermutlich nur für autorisierte Benutzer zugänglich:

# Melden Sie sich beim Server an. Dies ist nur einmal möglich.
wget --save-cookies Cookies.txt \
--post-data 'user=foo&password=bar' \
http://server.com/auth.php

# Schnappen Sie sich jetzt die Seite oder die Seiten, die uns wichtig sind.
wget --load-cookies Cookies.txt \
-p http://server.com/interesting/article.php

Wenn der Server Sitzungscookies verwendet, um die Benutzerauthentifizierung zu verfolgen, gilt das oben Genannte
funktioniert nicht, weil --save-cookies speichert sie nicht (und Browser auch nicht) und die
Cookies.txt Die Datei ist leer. In diesem Fall verwenden --keep-session-cookies zusammen mit
--save-cookies um das Speichern von Sitzungscookies zu erzwingen.

--methode=HTTP-Methode
Zum Zwecke der RESTful-Skripterstellung ermöglicht Wget das Senden anderer HTTP-Methoden
ohne dass sie explizit mithilfe von festgelegt werden müssen --header=Kopfzeile. Wget wird verwendet
welche Zeichenfolge danach übergeben wird --Methode als HTTP-Methode an den Server übertragen.

--body-data=Datenzeichenfolge
--body-file=Datendatei
Muss festgelegt werden, wenn zusammen mit der Methode zusätzliche Daten an den Server gesendet werden müssen
angegeben mit --Methode. --body-data sendet Schnur als Daten, wohingegen --body-file sendet
Die Inhalte von Datei. Ansonsten funktionieren sie genauso.

Derzeit --body-file is nicht zur Übertragung von Dateien als Ganzes. Wget nicht
unterstützt derzeit „multipart/form-data“ für die Datenübertragung; nur
„application/x-www-form-urlencoded“. In Zukunft kann dies geändert werden, sodass wget
sendet die --body-file als vollständige Datei, anstatt ihren Inhalt an die zu senden
Server. Bitte beachten Sie, dass Wget den Inhalt der BODY-Daten im Voraus kennen muss.
und daher das Argument zu --body-file sollte eine reguläre Datei sein. Sehen --post-Datei für eine
ausführlichere Erklärung. Nur einer von --body-data und --body-file sollte sein
spezifiziert.

Wenn Wget nach Abschluss der Anfrage umgeleitet wird, unterbricht Wget die aktuelle Anfrage
Methode und senden Sie eine GET-Anfrage, bis die Umleitung abgeschlossen ist. Das gilt für alle
Umleitungsantwortcodes mit Ausnahme von 307 Temporary Redirect, der explizit verwendet wird
Geben Sie an, was die Anforderungsmethode tun soll nicht ändern. Eine weitere Ausnahme ist, wenn die
Die Methode ist auf „POST“ eingestellt. In diesem Fall gelten die unter angegebenen Umleitungsregeln
--Post-Daten werden verfolgt.

--content-disposition
Wenn dies aktiviert ist, wird experimentelle (nicht voll funktionsfähige) Unterstützung für angeboten
„Content-Disposition“-Header sind aktiviert. Dies kann derzeit zu zusätzlichen Rundungen führen.
greift wegen einer „HEAD“-Anfrage an den Server und weist bekanntermaßen einige Fehler auf,
Aus diesem Grund ist es derzeit nicht standardmäßig aktiviert.

Diese Option ist für einige CGI-Programme zum Herunterladen von Dateien nützlich, die Folgendes verwenden
„Content-Disposition“-Header zur Beschreibung des Namens einer heruntergeladenen Datei
Sein.

--content-on-error
Wenn dies aktiviert ist, überspringt wget den Inhalt nicht, wenn der Server mit a antwortet
http-Statuscode, der auf einen Fehler hinweist.

--trust-server-names
Wenn dies aktiviert ist, wird bei einer Umleitung die letzte Komponente der Umleitungs-URL angezeigt
wird als lokaler Dateiname verwendet. Standardmäßig wird die letzte Komponente im Original verwendet
URL.

--auth-no-challenge
Wenn diese Option angegeben ist, sendet Wget grundlegende HTTP-Authentifizierungsinformationen
(Klartext-Benutzername und Passwort) für alle Anfragen, genau wie Wget 1.10.2 und früher
standardmäßig getan.

Die Verwendung dieser Option wird nicht empfohlen und dient lediglich der Unterstützung einiger weniger
obskure Server, die niemals HTTP-Authentifizierungsaufforderungen senden, aber akzeptieren
Unaufgeforderte Authentifizierungsinformationen, beispielsweise zusätzlich zur formularbasierten Authentifizierung.

HTTPS (SSL/TLS) Optionen
Um verschlüsselte HTTP-Downloads (HTTPS) zu unterstützen, muss Wget mit einem externen SSL kompiliert werden
Bibliothek. Der aktuelle Standard ist GnuTLS. Darüber hinaus unterstützt Wget auch HSTS (HTTP Strict
Transportsicherheit). Wenn Wget ohne SSL-Unterstützung kompiliert wird, ist keine dieser Optionen verfügbar
erhältlich.

--secure-protocol=Protokoll
Wählen Sie das zu verwendende sichere Protokoll. Gesetzliche Werte sind Auto, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 und PFS. Wenn Auto verwendet wird, wird der SSL-Bibliothek die Freiheit eingeräumt
Automatische Auswahl des geeigneten Protokolls, was durch Senden eines TLSv1 erreicht wird
Gruß. Dies ist die Standardeinstellung.

Angeben SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 erzwingt die Verwendung des entsprechenden
Protokoll. Dies ist nützlich, wenn es um alte und fehlerhafte SSL-Serverimplementierungen geht
Dies macht es für die zugrunde liegende SSL-Bibliothek schwierig, das richtige Protokoll auszuwählen
Ausführung. Glücklicherweise sind solche Server recht selten.

Angeben PFS erzwingt die Verwendung der sogenannten Perfect Forward Security-Verschlüsselung
Suiten. Kurz gesagt: PFS erhöht die Sicherheit, indem für jedes SSL ein einmaliger Schlüssel erstellt wird
Verbindung. Es hat etwas mehr CPU-Auswirkungen auf Client und Server. Wir verwenden bekanntermaßen
sichere Chiffren (z. B. kein MD4) und das TLS-Protokoll.

--https-only
Im rekursiven Modus werden nur HTTPS-Links verfolgt.

--kein-Scheck-Zertifikat
Vergleichen Sie das Serverzertifikat nicht mit den verfügbaren Zertifizierungsstellen.
Außerdem ist es nicht erforderlich, dass der URL-Hostname mit dem vom bereitgestellten allgemeinen Namen übereinstimmt
Zertifikat.

Ab Wget 1.10 wird standardmäßig das Zertifikat des Servers anhand des überprüft
anerkannten Zertifizierungsstellen, wodurch der SSL-Handshake unterbrochen und abgebrochen wird
herunterladen, wenn die Überprüfung fehlschlägt. Obwohl dies sicherere Downloads ermöglicht, ist es
unterbricht die Interoperabilität mit einigen Websites, die mit früheren Wget-Versionen funktionierten,
insbesondere diejenigen, die selbstsignierte, abgelaufene oder anderweitig ungültige Zertifikate verwenden.
Diese Option erzwingt einen „unsicheren“ Betriebsmodus, der das Zertifikat umwandelt
Verifizierungsfehler werden in Warnungen umgewandelt und Sie können fortfahren.

Wenn Sie auf Fehler bei der „Zertifikatüberprüfung“ stoßen oder auf Fehler mit dem Hinweis „allgemeiner Name“ stoßen
stimmt nicht mit dem angeforderten Hostnamen überein“, können Sie diese Option verwenden, um die Überprüfung zu umgehen
und fahren Sie mit dem Download fort. Nur - fehlen uns die Worte. zu erhalten if U sind Andernfalls überzeugt of
Website Authentizität, or if U wirklich nicht österreichische Unternehmen About Gültigkeit of seine
Zertifikat. Es ist fast immer eine schlechte Idee, die Zertifikate nicht zu überprüfen
Übermittlung vertraulicher oder wichtiger Daten. Für selbstsignierte/interne Zertifikate:
Sie sollten das Zertifikat herunterladen und anhand dessen überprüfen, anstatt dies zu erzwingen
unsicherer Modus. Wenn Sie wirklich sicher sind, dass Sie keine Zertifikatsüberprüfung wünschen,
Sie können --check-certificate=quiet angeben, um wget anzuweisen, keine Warnung darüber auszugeben
ungültige Zertifikate, obwohl dies in den meisten Fällen der falsche Weg ist.

--certificate=Datei
Verwenden Sie das in gespeicherte Client-Zertifikat Datei. Dies ist für Server erforderlich, die dies tun
so konfiguriert, dass Zertifikate von den Clients erforderlich sind, die eine Verbindung zu ihnen herstellen. Normalerweise a
Das Zertifikat ist nicht erforderlich und dieser Schalter ist optional.

--certificate-type=tippe
Geben Sie den Typ des Client-Zertifikats an. Gesetzliche Werte sind PEM (standardmäßig angenommen)
und DER, auch bekannt als ASN1.

--privater-schlüssel=Datei
Lesen Sie den privaten Schlüssel aus Datei. Dadurch können Sie den privaten Schlüssel in einer Datei bereitstellen
getrennt vom Zertifikat.

--private-key-type=tippe
Geben Sie den Typ des privaten Schlüssels an. Akzeptierte Werte sind PEM (die Standardeinstellung) und DER.

--ca-certificate=Datei
Verwenden Sie die Datei als Datei mit dem Bündel von Zertifizierungsstellen („CA“) zur Überprüfung der
Gleichaltrige. Die Zertifikate müssen im PEM-Format vorliegen.

Ohne diese Option sucht Wget an den vom System angegebenen Speicherorten nach CA-Zertifikaten.
Wird zum Zeitpunkt der OpenSSL-Installation ausgewählt.

--ca-directory=Verzeichnis
Gibt das Verzeichnis an, das CA-Zertifikate im PEM-Format enthält. Jede Datei enthält eine
CA-Zertifikat, und der Dateiname basiert auf einem daraus abgeleiteten Hash-Wert
Zertifikat. Dies wird durch die Verarbeitung eines Zertifikatverzeichnisses mit dem erreicht
„c_rehash“-Dienstprogramm, das mit OpenSSL geliefert wird. Benutzen --ca-Verzeichnis ist effizienter als
--ca-Zertifikat wenn viele Zertifikate installiert sind, weil es Wget das Abrufen ermöglicht
Zertifikate auf Anfrage.

Ohne diese Option sucht Wget an den vom System angegebenen Speicherorten nach CA-Zertifikaten.
Wird zum Zeitpunkt der OpenSSL-Installation ausgewählt.

--crl-file=Datei
Gibt eine CRL-Datei an Datei. Dies ist für Zertifikate erforderlich, die bereits ausgestellt wurden
von den CAs widerrufen.

--random-file=Datei
[Nur OpenSSL und LibreSSL] Verwendung Datei als Quelle zufälliger Daten für das Seeding
Pseudozufallszahlengenerator auf Systemen ohne / Dev / urandom.

Auf solchen Systemen benötigt die SSL-Bibliothek zur Initialisierung eine externe Zufallsquelle.
Zufälligkeit kann durch EGD bereitgestellt werden (siehe --egd-Datei unten) oder von einem externen Gerät lesen
vom Benutzer angegebene Quelle. Wenn diese Option nicht angegeben ist, sucht Wget nach Zufall
Daten in $RANDFILE oder, falls dies nicht festgelegt ist, in $HOME/.rnd.

Wenn Sie die Meldung „OpenSSL PRNG konnte nicht gesetzt werden; SSL wird deaktiviert.“ erhalten. Fehler, das sollten Sie tun
Bereitstellung von Zufallsdaten mithilfe einiger der oben beschriebenen Methoden.

--egd-file=Datei
[Nur OpenSSL] Verwenden Datei wie die EGD-Buchse. EGD steht für Entropie Sammlung Daemon, eine
User-Space-Programm, das Daten aus verschiedenen unvorhersehbaren Systemquellen sammelt und
stellt es anderen Programmen zur Verfügung, die es möglicherweise benötigen. Verschlüsselungssoftware, wie z
Die SSL-Bibliothek benötigt Quellen mit sich nicht wiederholender Zufälligkeit, um die Zufallszahl zu ermitteln
Generator zur Erzeugung kryptografisch starker Schlüssel.

OpenSSL ermöglicht es dem Benutzer, seine eigene Entropiequelle mithilfe der „RAND_FILE“ anzugeben.
Umgebungsvariable. Wenn diese Variable nicht gesetzt ist oder die angegebene Datei dies nicht tut
Genügend Zufälligkeit erzeugen, liest OpenSSL zufällige Daten aus dem angegebenen EGD-Socket
mit dieser Option.

Wenn diese Option nicht angegeben ist (und der entsprechende Startbefehl nicht verwendet wird), EGD
wird nie kontaktiert. EGD wird auf modernen Unix-Systemen, die dies unterstützen, nicht benötigt
/ Dev / urandom.

--no-hsts
Wget unterstützt standardmäßig HSTS (HTTP Strict Transport Security, RFC 6797). Verwenden
--no-hsts um Wget als nicht HSTS-kompatibles UA agieren zu lassen. Infolgedessen würde Wget
Ignorieren Sie alle „Strict-Transport-Security“-Header und erzwingen Sie keine vorhandenen
HSTS-Richtlinie.

--hsts-file=Datei
Standardmäßig speichert Wget seine HSTS-Datenbank in ~/.wget-hsts. Sie können --hsts-Datei zu
überschreiben Sie dies. Wget verwendet die bereitgestellte Datei als HSTS-Datenbank. Eine solche Datei muss
entsprechen dem korrekten HSTS-Datenbankformat, das von Wget verwendet wird. Wenn Wget das nicht analysieren kann
In der bereitgestellten Datei ist das Verhalten nicht spezifiziert.

Die HSTS-Datenbank des Wget ist eine reine Textdatei. Jede Zeile enthält einen HSTS-Eintrag (d. h. a
Site, die einen „Strict-Transport-Security“-Header ausgegeben hat und dies daher getan hat
spezifizierte eine konkrete HSTS-Richtlinie, die angewendet werden soll). Zeilen, die mit einem Bindestrich („#“) beginnen, sind
von Wget ignoriert. Bitte beachten Sie, dass trotz dieser bequemen, für Menschen gut lesbaren Handschrift
Das Hacken der HSTS-Datenbank ist im Allgemeinen keine gute Idee.

Eine HSTS-Eingabezeile besteht aus mehreren Feldern, die durch ein oder mehrere Leerzeichen getrennt sind:

" SP [ ] SP SP SP "

Das hostname und port Felder geben den Hostnamen und den Port an, zu dem das angegebene HSTS gehört
Es gilt die Richtlinie. Der port Feld kann Null sein und wird in den meisten Fällen auch Null sein. Das
bedeutet, dass die Portnummer bei der Entscheidung, ob dies der Fall ist, nicht berücksichtigt wird
Die HSTS-Richtlinie sollte auf eine bestimmte Anfrage angewendet werden (nur der Hostname wird angewendet).
ausgewertet). Wenn port von Null verschieden ist, gilt dies sowohl für den Ziel-Hostnamen als auch für den Port
ausgewertet und die HSTS-Richtlinie wird nur angewendet, wenn beide übereinstimmen. Das
Die Funktion wurde nur zu Test-/Entwicklungszwecken hinzugefügt. Die Wget-Testsuite
(in testenv/) erstellt HSTS-Datenbanken mit expliziten Ports, um dies sicherzustellen
Wgets korrektes Verhalten. Anwenden von HSTS-Richtlinien auf andere als die Standardports
wird durch RFC 6797 abgeraten (siehe Anhang B „Unterschiede zwischen HSTS-Richtlinie und
Origin Policy"). Daher sollte diese Funktionalität nicht in der Produktion verwendet werden
Umgebungen und port wird typischerweise Null sein. Die letzten drei Felder tun, was sie sollen
erwartet. Das Feld include_subdomains kann entweder 1 oder 0 sein und signalisiert, ob
Die Subdomains der Zieldomain sollten ebenfalls Teil der gegebenen HSTS-Richtlinie sein.
Das erstellt und Höchstalter Felder enthalten die Zeitstempelwerte des Zeitpunkts, zu dem ein solcher Eintrag erfolgte
erstellt (zuerst von Wget gesehen) und der HSTS-definierte Wert „max-age“, der angibt, wie
Lange sollte diese HSTS-Richtlinie aktiv bleiben, gemessen in Sekunden, die seit dem vergangen sind
Zeitstempel gespeichert in erstellt. Sobald diese Zeit verstrichen ist, gilt die HSTS-Richtlinie nicht mehr
nicht mehr gültig und werden schließlich aus der Datenbank entfernt.

Wenn Sie Ihre eigene HSTS-Datenbank über bereitstellen --hsts-DateiBeachten Sie, dass sich Wget ändern kann
die bereitgestellte Datei, wenn eine Änderung zwischen den von der angeforderten HSTS-Richtlinien auftritt
Remote-Server und diejenigen in der Datei. Wenn Wget vorhanden ist, wird es effektiv aktualisiert
HSTS-Datenbank durch Umschreiben der Datenbankdatei mit den neuen Einträgen.

Wenn die bereitgestellte Datei nicht vorhanden ist, erstellt Wget eine. Diese Datei enthält die
neue HSTS-Einträge. Wenn keine HSTS-Einträge generiert wurden (kein „Strict-Transport-Security“
Header von einem der Server gesendet wurden), wird keine Datei erstellt, nicht einmal eine
leer. Dieses Verhalten gilt für die Standarddatenbankdatei (~/.wget-hsts) auch:
Es wird erst erstellt, wenn ein Server eine HSTS-Richtlinie erzwingt.

Es wird darauf geachtet, mögliche Änderungen, die von anderen Wget-Prozessen vorgenommen werden, nicht zu überschreiben
gleichzeitig über die HSTS-Datenbank. Bevor Sie die aktualisierten HSTS-Einträge in der Datei speichern,
Wget liest es erneut und führt die Änderungen zusammen.

Von der Verwendung einer benutzerdefinierten HSTS-Datenbank und/oder der Änderung einer vorhandenen Datenbank wird abgeraten. Für
Weitere Informationen zu den potenziellen Sicherheitsbedrohungen, die sich aus dieser Praxis ergeben, finden Sie unter
Abschnitt 14 „Sicherheitsüberlegungen“ von RFC 6797, insbesondere Abschnitt 14.9 „Kreativ“.
Manipulation des HSTS-Richtlinienspeichers“.

--warc-file=Datei
Verwenden Sie die Datei als Ziel-WARC-Datei.

--warc-header=Schnur
Verwenden Sie die Schnur in den Warcinfo-Datensatz eingefügt.

--warc-max-size=Größe
Stellen Sie die maximale Größe der WARC-Dateien auf ein Größe.

--warc-cdx
Schreiben Sie CDX-Indexdateien.

--warc-dedup=Datei
Speichern Sie keine in dieser CDX-Datei aufgeführten Datensätze.

--no-warc-compression
Komprimieren Sie WARC-Dateien nicht mit GZIP.

--no-warc-digests
Berechnen Sie keine SHA1-Digests.

--no-warc-keep-log
Speichern Sie die Protokolldatei nicht in einem WARC-Datensatz.

--warc-tempdir=dir
Geben Sie den Speicherort für temporäre Dateien an, die vom WARC-Writer erstellt wurden.

fTP Optionen
--ftp-user=Benutzer
--ftp-password=Passwort
Geben Sie den Benutzernamen an Benutzer und das Passwort Passwort auf einem FTP-Server. Ohne dies, oder
Bei der entsprechenden Startoption wird standardmäßig das Passwort verwendet -wget@, normalerweise verwendet für
anonymes FTP.

Eine andere Möglichkeit, Benutzernamen und Passwort anzugeben, besteht in der URL selbst. Beide Methoden
verrät Ihr Passwort jedem, der sich die Mühe macht, „ps“ auszuführen. Um die Passwörter zu verhindern
Bewahren Sie sie auf, damit sie nicht gesehen werden .wgetrc or .netrc, und achten Sie darauf, diese Dateien zu schützen
von anderen Benutzern mit „chmod“. Wenn die Passwörter wirklich wichtig sind, gehen Sie nicht weg
Sie liegen entweder in diesen Dateien – bearbeiten Sie die Dateien und löschen Sie sie, nachdem Wget dies getan hat
den Download gestartet.

--no-remove-listing
Entfernen Sie das Provisorium nicht .Auflistung Dateien, die durch FTP-Abrufe generiert werden. Normalerweise,
Diese Dateien enthalten die von FTP-Servern empfangenen Rohverzeichnislisten. Nicht
Das Entfernen kann für Debugging-Zwecke nützlich sein oder wenn Sie dies möchten
Überprüfen Sie einfach den Inhalt von Remote-Serververzeichnissen (z. B. um sicherzustellen, dass a
der Spiegel, den Sie ausführen, ist abgeschlossen).

Beachten Sie, dass Wget zwar in einen bekannten Dateinamen für diese Datei schreibt, dies jedoch kein ist
Sicherheitslücke im Szenario eines Benutzers .Auflistung ein symbolischer Link zu / etc / passwd
oder so etwas und bittet „root“, Wget in seinem Verzeichnis auszuführen. Abhängig von
Wenn die Optionen verwendet werden, weigert sich Wget, darauf zu schreiben .Auflistungmachen die
Der Globbing-/Rekursions-/Zeitstempelvorgang schlägt fehl, oder der symbolische Link wird gelöscht
und durch das tatsächliche ersetzt .Auflistung Datei, oder die Auflistung wird in eine geschrieben
.Eintragsnummer Datei.

Auch wenn diese Situation kein Problem darstellt, sollte „root“ Wget niemals in einem ausführen
Verzeichnis eines nicht vertrauenswürdigen Benutzers. Ein Benutzer könnte etwas so Einfaches wie das Verknüpfen tun
index.html zu / etc / passwd und „root“ bitten, Wget damit auszuführen -N or -r so wird die Datei
überschrieben werden.

--no-glob
Deaktivieren Sie das FTP-Globbing. Unter Globbing versteht man die Verwendung schalenartiger Sonderzeichen
(Platzhalter), mögen *, ?, [ und ] um mehr als eine Datei aus demselben Verzeichnis abzurufen
auf einmal, wie:

wget ftp://gnjilux.srk.fer.hr/*.Nachricht

Standardmäßig ist Globbing aktiviert, wenn die URL ein Globbing-Zeichen enthält. Das
Mit dieser Option kann das Globbing dauerhaft ein- oder ausgeschaltet werden.

Möglicherweise müssen Sie die URL angeben, um zu verhindern, dass sie von Ihrer Shell erweitert wird.
Durch Globbing sucht Wget nach einer Verzeichnisliste, die systemspezifisch ist. Das ist
warum es derzeit nur mit Unix-FTP-Servern funktioniert (und denen, die Unix „ls“ emulieren)
Ausgang).

--no-passive-ftp
Deaktivieren Sie die Verwendung von Passiv FTP-Übertragungsmodus. Passives FTP erfordert, dass die
Der Client stellt eine Verbindung zum Server her, um die Datenverbindung herzustellen und nicht die andere
Weg drum herum.

Wenn die Maschine direkt mit dem Internet verbunden ist, sowohl passives als auch aktives FTP
sollte genauso gut funktionieren. Hinter den meisten Firewall- und NAT-Konfigurationen steckt passives FTP
eine bessere Chance auf Arbeit. In einigen seltenen Firewall-Konfigurationen ist jedoch aktives FTP verfügbar
funktioniert tatsächlich, wenn passives FTP dies nicht tut. Wenn Sie vermuten, dass dies der Fall ist, verwenden Sie dies
Option, oder setzen Sie „passive_ftp=off“ in Ihrer Init-Datei.

--Preserve-Berechtigungen
Behalten Sie Remote-Dateiberechtigungen anstelle der von umask festgelegten Berechtigungen bei.

--retr-symlinks
Standardmäßig wird beim rekursiven Abrufen von FTP-Verzeichnissen ein symbolischer Link verwendet
Wenn ein Fehler auftritt, wird der symbolische Link durchlaufen und die Dateien, auf die verwiesen wird, werden abgerufen.
Derzeit durchläuft Wget keine symbolischen Links zu Verzeichnissen, um diese herunterzuladen
rekursiv, obwohl diese Funktion möglicherweise in Zukunft hinzugefügt wird.

Wann --retr-symlinks=nein angegeben ist, wird die verlinkte Datei nicht heruntergeladen. Stattdessen,
Im lokalen Dateisystem wird ein passender symbolischer Link erstellt. Die Datei, auf die verwiesen wird, wird
nicht abgerufen werden, es sei denn, dieser rekursive Abruf wäre separat darauf gestoßen
und habe es trotzdem heruntergeladen. Diese Option stellt ein Sicherheitsrisiko dar, wenn ein böswilliges FTP verwendet wird
Der Server kann dazu führen, dass Wget über a in Dateien außerhalb der vorgesehenen Verzeichnisse schreibt
speziell gestaltete .LISTING-Datei.

Beachten Sie, dass beim Abrufen einer Datei (kein Verzeichnis) die Datei angegeben wurde
Diese Option hat keine Auswirkung, da sie nicht in der Befehlszeile ausgeführt wird, sondern weil darauf zurückgegriffen wurde.
In diesem Fall werden immer symbolische Links durchlaufen.

FTPS Optionen
--ftps-implicit
Diese Option weist Wget an, FTPS implizit zu verwenden. Implizites FTPS besteht aus der Initialisierung
SSL/TLS von Beginn der Kontrollverbindung an. Diese Option sendet nicht
ein „AUTH TLS“-Befehl: Er geht davon aus, dass der Server FTPS spricht und startet direkt einen
SSL/TLS-Verbindung. Wenn der Versuch erfolgreich ist, wird die Sitzung genauso fortgesetzt
reguläres FTPS („PBSZ“ und „PROT“ werden gesendet usw.). Implizites FTPS ist nicht länger ein
Dies ist eine Voraussetzung für FTPS-Implementierungen und wird daher von vielen Servern möglicherweise nicht unterstützt. Wenn
--ftps-implicit übergeben wird und keine explizite Portnummer angegeben ist, der Standardport für
Implizites FTPS, 990, wird anstelle des Standardports für den „normalen“ Port verwendet.
(explizites) FTPS, das mit dem von FTP identisch ist, 21.

--no-ftps-resume-ssl
Setzen Sie die SSL/TLS-Sitzung im Datenkanal nicht fort. Beim Starten einer Daten
Verbindung versucht Wget, die zuvor im Steuerelement gestartete SSL/TLS-Sitzung fortzusetzen
Verbindung. Durch die Wiederaufnahme der SSL/TLS-Sitzung wird die Durchführung eines völlig neuen Handshakes vermieden
Wiederverwendung der SSL/TLS-Parameter einer vorherigen Sitzung. Normalerweise wollen die FTPS-Server
es ist so, also macht Wget dies standardmäßig. In seltenen Fällen könnte dies jedoch der Fall sein
Sie möchten bei jeder Datenverbindung eine völlig neue SSL/TLS-Sitzung starten. Das ist was
--no-ftps-resume-ssl ist.

--ftps-clear-data-connection
Alle Datenverbindungen erfolgen im Klartext. Nur die Steuerverbindung wird sein
unter SSL/TLS. Um dies zu erreichen, sendet Wget einen „PROT C“-Befehl, was auch der Fall sein muss
vom Server genehmigt.

--ftps-fallback-to-ftp
Greifen Sie auf FTP zurück, wenn FTPS vom Zielserver nicht unterstützt wird. Aus Sicherheitsgründen,
Diese Option ist standardmäßig nicht aktiviert. Das Standardverhalten besteht darin, mit einem zu beenden
Fehler. Wenn ein Server nicht erfolgreich auf den anfänglichen „AUTH TLS“-Befehl antwortet, oder
bei implizitem FTPS, wenn der erste SSL/TLS-Verbindungsversuch abgelehnt wird,
Es wird davon ausgegangen, dass ein solcher Server FTPS nicht unterstützt.

Rekursive Abruf Optionen
-r
- rekursiv
Aktivieren Sie den rekursiven Abruf. Die standardmäßige maximale Tiefe beträgt 5.

-l Tiefe
--level=Tiefe
Geben Sie die maximale Rekursionstiefe an Tiefe.

--delete-after
Diese Option weist Wget an, jede einzelne heruntergeladene Datei zu löschen. nachdem dies getan zu haben.
Es ist nützlich, um beliebte Seiten über einen Proxy vorab abzurufen, z. B.:

wget -r -nd --delete-after http://whatever.com/~popular/page/

Das -r Die Option besteht darin, rekursiv abzurufen, und -nd keine Verzeichnisse erstellen.

Beachten Sie, dass --delete-after löscht Dateien auf dem lokalen Computer. Es gibt keine Ausgabe
DELE Befehl beispielsweise an entfernte FTP-Sites senden. Beachten Sie auch, wann --delete-after is
spezifizierten, --convert-links wird ignoriert, also .orig Dateien werden einfach nicht im erstellt
erster Platz.

-k
--convert-links
Nachdem der Download abgeschlossen ist, konvertieren Sie die Links im Dokument, um sie zu erstellen
Geeignet für die Besichtigung vor Ort. Dies betrifft nicht nur die sichtbaren Hyperlinks, sondern alle
Teil des Dokuments, der auf externe Inhalte, wie eingebettete Bilder, verlinkt
Stylesheets, Hyperlinks zu Nicht-HTML-Inhalten usw.

Jeder Link wird auf eine der beiden Arten geändert:

· Die Links zu Dateien, die von Wget heruntergeladen wurden, werden geändert, um darauf zu verweisen
die Datei, auf die sie verweisen, als relativen Link.

Beispiel: wenn die heruntergeladene Datei /foo/doc.html Links zu /bar/img.gifAuch
heruntergeladen, dann der Link rein doc.html wird so geändert, dass darauf verwiesen wird ../bar/img.gif.
Diese Art der Transformation funktioniert zuverlässig für beliebige Kombinationen von
Verzeichnisse.

· Die Links zu Dateien, die nicht von Wget heruntergeladen wurden, werden in geändert
Geben Sie den Hostnamen und den absoluten Pfad des Speicherorts an, auf den sie verweisen.

Beispiel: wenn die heruntergeladene Datei /foo/doc.html Links zu /bar/img.gif (oder zu
../bar/img.gif), dann der Link in doc.html wird so geändert, dass darauf verwiesen wird
http://hostname/bar/img.gif.

Aus diesem Grund funktioniert das lokale Browsen zuverlässig: Wenn eine verknüpfte Datei heruntergeladen wurde, wird die
Der Link verweist auf seinen lokalen Namen. Wenn es nicht heruntergeladen wurde, wird auf den Link verwiesen
seine vollständige Internetadresse, anstatt einen defekten Link anzuzeigen. Die Tatsache, dass die
Frühere Links werden in relative Links umgewandelt, um sicherzustellen, dass Sie die heruntergeladenen Links verschieben können
Hierarchie in ein anderes Verzeichnis verschieben.

Beachten Sie, dass Wget erst am Ende des Downloads erfahren kann, welche Links erstellt wurden
heruntergeladen. Aus diesem Grund ist die Arbeit von -k wird am Ende durchgeführt
die Downloads.

--convert-file-only
Diese Option konvertiert nur den Dateinamenteil der URLs und lässt den Rest der URLs übrig
unberührt. Dieser Teil des Dateinamens wird manchmal als „Basisname“ bezeichnet, obwohl wir
Vermeiden Sie diesen Begriff hier, um keine Verwirrung zu stiften.

Es funktioniert besonders gut in Verbindung mit --adjust-extension, obwohl dieses
Die Kopplung wird nicht erzwungen. Es erweist sich als nützlich, Internet-Caches mit Dateien zu füllen
von verschiedenen Hosts heruntergeladen werden.

Beispiel: Wenn ein Link darauf verweist //foo.com/bar.cgi?xyz mit --adjust-extension behauptet
und sein örtliches Ziel soll sein ./foo.com/bar.cgi?xyz.css, dann der link
würde umgewandelt werden in //foo.com/bar.cgi?xyz.css. Beachten Sie, dass nur der Teil des Dateinamens vorhanden ist
geändert worden. Der Rest der URL blieb unberührt, einschließlich des Netzpfads
(„//“), die andernfalls von Wget verarbeitet und in die effektive umgewandelt würden
Schema (z. B. „http://“).

-K
--backup-converted
Sichern Sie beim Konvertieren einer Datei die Originalversion mit einem .orig Suffix. Beeinflusst die
Verhalten von -N.

-m
--Spiegel
Aktivieren Sie für die Spiegelung geeignete Optionen. Diese Option aktiviert Rekursion und Zeit-
Stempeln, legt eine unendliche Rekursionstiefe fest und behält FTP-Verzeichnislisten bei. Es ist
derzeit gleichbedeutend mit -r -N -l inf --no-remove-listing.

-p
--page-requisites
Diese Option bewirkt, dass Wget alle Dateien herunterlädt, die für den ordnungsgemäßen Betrieb erforderlich sind
eine bestimmte HTML-Seite anzeigen. Dazu gehören Dinge wie eingebettete Bilder, Töne usw
referenzierte Stylesheets.

Normalerweise werden beim Herunterladen einer einzelnen HTML-Seite alle erforderlichen Dokumente mitgeliefert
die für die ordnungsgemäße Anzeige erforderlich sind, werden nicht heruntergeladen. Benutzen -r Zusammen mit -l kann helfen,
Da Wget jedoch normalerweise nicht zwischen externen und inline-Dokumenten unterscheidet,
Üblicherweise bleiben „Blattdokumente“ übrig, denen die erforderlichen Angaben fehlen.

Nehmen wir zum Beispiel ein Dokument 1.html enthält ein „ " Tag-Referenzierung 1.gif und ein
„ “-Tag, das auf ein externes Dokument verweist 2.html. Sag das 2.html ist ähnlich, aber das
sein Bild ist 2.gif und es verlinkt auf 3.html. Sagen wir, das geht bis zu einigen willkürlich weiter
hohe Zahl.

Wenn man den Befehl ausführt:

wget -r -l 2 http:// /1.html

dann 1.html, 1.gif, 2.html, 2.gif und 3.html wird heruntergeladen. Wie du sehen kannst,
3.html ist ohne seine Voraussetzung 3.gif weil Wget einfach die Anzahl zählt
Hopfen (bis zu 2) entfernt von 1.html um zu bestimmen, wo die Rekursion gestoppt werden soll.
Allerdings mit diesem Befehl:

wget -r -l 2 -p http:// /1.html

alle oben genannten Dateien und 3.htmlist erforderlich 3.gif wird heruntergeladen. Ähnlich,

wget -r -l 1 -p http:// /1.html

wird verursachen 1.html, 1.gif, 2.html und 2.gif heruntergeladen werden. Man könnte meinen:

wget -r -l 0 -p http:// /1.html

Würde einfach herunterladen 1.html und 1.gif, aber das ist leider nicht der Fall, denn
-l 0 entspricht -l inf---das heißt, unendliche Rekursion. Zum Herunterladen eines einzelnen HTML-Codes
Seite (oder eine Handvoll davon, alle in der Befehlszeile oder in einem angegeben). -i URL-Eingabe
Datei) und ihre (oder ihre) Voraussetzungen, lassen Sie einfach weg -r und -l:

wget -p http:// /1.html

Beachten Sie, dass sich Wget so verhält -r angegeben worden, aber nur diese einzelne Seite und
seine Voraussetzungen werden heruntergeladen. Links von dieser Seite zu externen Dokumenten werden angezeigt
nicht befolgt werden. Um tatsächlich eine einzelne Seite und alle dazugehörigen Elemente herunterzuladen (auch wenn
sie existieren auf separaten Websites) und stellen Sie sicher, dass das Los lokal richtig angezeigt wird,
Dieser Autor verwendet gerne zusätzlich einige Optionen -p:

wget -E -H -k -K -p http:// /

Um dieses Thema abzuschließen, ist es wichtig zu wissen, dass Wget ein externes Dokument vorstellt
Link ist eine beliebige URL, die in einem „ “-Tag, einem „ “-Tag oder einem anderen „ “-Tag angegeben ist
als " ".

--strict-comments
Aktivieren Sie die strikte Analyse von HTML-Kommentaren. Standardmäßig werden Kommentare am beendet
erstes Auftreten von ->.

Gemäß den Spezifikationen werden HTML-Kommentare als SGML ausgedrückt Erklärungen.
Die Deklaration ist ein spezielles Markup, das mit beginnt <! und endet mit >, sowie <!DOCTYPE
...>, das Kommentare zwischen einem Paar enthalten kann -- Trennzeichen. HTML-Kommentare sind
„Leere Deklarationen“, SGML-Deklarationen ohne Kommentartext. Deshalb,
ist ein gültiger Kommentar, und das ist er auch <!--eins-- --zwei-->, Aber ist nicht.

Andererseits betrachten die meisten HTML-Autoren Kommentare nicht als etwas anderes als
Text mit Trennzeichen <!-- und ->, was nicht ganz dasselbe ist. Zum Beispiel etwas
Gefällt mir funktioniert als gültiger Kommentar, solange die Anzahl der Bindestriche a beträgt
Vielfaches von vier (!). Wenn nicht, dauert der Kommentar technisch gesehen bis zum nächsten --, Die
befindet sich möglicherweise am anderen Ende des Dokuments. Aus diesem Grund viele beliebte Browser
Ignorieren Sie die Spezifikation vollständig und implementieren Sie, was Benutzer erwarten:
Kommentare werden durch getrennt <!-- und ->.

Bis Version 1.9 interpretierte Wget Kommentare streng, was zu fehlenden Links führte
in vielen Webseiten, die in Browsern gut angezeigt wurden, aber das Unglück hatten
enthält nicht konforme Kommentare. Ab Version 1.9 ist Wget dem beigetreten
Reihen von Kunden, die „naive“ Kommentare implementieren und jeden Kommentar am Ende beenden
erstes Auftreten von ->.

Wenn Sie aus irgendeinem Grund eine strikte Kommentaranalyse wünschen, können Sie diese Option mit dieser Option aktivieren
auf.

Rekursive Annehmen ablehnen Optionen
-A acclist --annehmen acclist
-R rejlist --ablehnen rejlist
Geben Sie durch Kommas getrennte Listen mit Dateinamensuffixen oder Mustern an, die akzeptiert oder abgelehnt werden sollen.
Beachten Sie, dass, wenn eines der Platzhalterzeichen *, ?, [ or ], erscheinen in einem Element von
acclist or rejlist, wird es als Muster und nicht als Suffix behandelt. In diesem
In diesem Fall müssen Sie das Muster in Anführungszeichen setzen, um zu verhindern, dass Ihre Shell erweitert wird
es, wie in -A „*.mp3“ or -A '*.mp3'.

--accept-regex URLregex
--reject-regex URLregex
Geben Sie einen regulären Ausdruck an, um die vollständige URL zu akzeptieren oder abzulehnen.

--regex-type Regextyp
Geben Sie den Typ des regulären Ausdrucks an. Mögliche Typen sind POSIX or PCRE. Beachten Sie das
in der Lage sein zu verwenden PCRE Typ, wget muss mit libpcre-Unterstützung kompiliert werden.

-D Domänenliste
--domains=Domänenliste
Legen Sie Domänen fest, denen gefolgt werden soll. Domänenliste ist eine durch Kommas getrennte Liste von Domänen. Notiz
dass es tut nicht anmachen -H.

--exclude-domains Domänenliste
Geben Sie die Domänen an nicht befolgt werden.

--follow-ftp
Folgen Sie FTP-Links von HTML-Dokumenten. Ohne diese Option ignoriert Wget alle
FTP-Links.

--follow-tags=Liste
Wget verfügt über eine interne Tabelle mit HTML-Tag-/Attributpaaren, die es berücksichtigt, wenn
Suche nach verknüpften Dokumenten während eines rekursiven Abrufs. Wenn ein Benutzer nur a
Er oder sie sollte jedoch eine Teilmenge dieser Tags angeben, die berücksichtigt werden soll
durch Komma getrennt Liste mit dieser Option.

--ignore-tags=Liste
Dies ist das Gegenteil von --follow-tags Möglichkeit. Um bestimmte HTML-Tags zu überspringen, wenn
Wenn Sie rekursiv nach herunterzuladenden Dokumenten suchen, geben Sie diese durch Kommas getrennt an Liste.

In der Vergangenheit war diese Option die beste Wahl, um eine einzelne Seite herunterzuladen
Anforderungen mithilfe einer Befehlszeile wie:

wget --ignore-tags=a,area -H -k -K -r http:// /

Der Autor dieser Option ist jedoch auf eine Seite mit Tags wie „
HREF="/">" und kam zu der Erkenntnis, dass die Angabe von zu ignorierenden Tags nicht ausreichte.
Man kann Wget nicht einfach sagen, dass er es ignorieren soll. ", denn dann wird es keine Stylesheets geben
heruntergeladen. Die beste Möglichkeit, eine einzelne Seite und ihre Anforderungen herunterzuladen, ist die
gewidmet --page-requisites .

--Fall ignorieren
Ignorieren Sie die Groß-/Kleinschreibung beim Abgleichen von Dateien und Verzeichnissen. Dies beeinflusst das Verhalten von -R,
-A-, -I- und -X-Optionen sowie Globbing beim Herunterladen von FTP implementiert
Websites. Mit dieser Option können Sie beispielsweise -A "*.txt" passt auf Datei1.txt, aber auch
Datei2.TXT, Datei3.TxT, usw. Die Anführungszeichen im Beispiel sollen die Shell verhindern
von der Erweiterung des Musters.

-H
--span-hosts
Aktivieren Sie beim rekursiven Abrufen das Spanning über Hosts hinweg.

-L
--relativ
Folgen Sie nur relativen Links. Nützlich zum Abrufen einer bestimmten Homepage ohne
Ablenkungen, nicht einmal die von denselben Gastgebern.

-I Liste
--include-directories=Liste
Geben Sie eine durch Kommas getrennte Liste der Verzeichnisse an, denen Sie beim Herunterladen folgen möchten.
Elemente von Liste kann Platzhalter enthalten.

-X Liste
--exclude-directories=Liste
Geben Sie eine durch Kommas getrennte Liste der Verzeichnisse an, die Sie vom Download ausschließen möchten.
Elemente von Liste kann Platzhalter enthalten.

-np
--keine-eltern
Steigen Sie beim rekursiven Abrufen niemals zum übergeordneten Verzeichnis auf. Das ist ein
nützliche Option, da sie garantiert, dass nur die Dateien unten Eine bestimmte Hierarchie wird es geben
heruntergeladen werden.


Wget unterstützt Proxys sowohl für HTTP- als auch für FTP-Abrufe. Die Standardmethode zur Angabe eines Proxys
location, das Wget erkennt, verwendet die folgenden Umgebungsvariablen:

HTTP-Proxy
https_proxy
Wenn eingestellt, wird die HTTP-Proxy und https_proxy Variablen sollten die URLs der enthalten
Proxys für HTTP- bzw. HTTPS-Verbindungen.

ftp_proxy
Diese Variable sollte die URL des Proxys für FTP-Verbindungen enthalten. Es ist ziemlich
üblich, dass HTTP-Proxy und ftp_proxy sind auf die gleiche URL eingestellt.

kein Vertreter
Diese Variable sollte eine durch Kommas getrennte Liste der Domänenerweiterungen enthalten, die der Proxy verwenden soll
nicht wird benutzt für. Wenn zum Beispiel der Wert von kein Vertreter is .mit.edu, Proxy wird nicht
zum Abrufen von Dokumenten vom MIT verwendet werden.

EXIT STATUS


Wget kann einen von mehreren Fehlercodes zurückgeben, wenn Probleme auftreten.

0 Es sind keine Probleme aufgetreten.

1 Allgemeiner Fehlercode.

2 Parse-Fehler – zum Beispiel beim Parsen von Befehlszeilenoptionen .wgetrc or
.netrc...

3 Datei-E/A-Fehler.

4 Netzwerkfehler.

5 SSL-Überprüfungsfehler.

6 Fehler bei der Authentifizierung von Benutzername/Passwort.

7 Protokollfehler.

8 Der Server hat eine Fehlerantwort ausgegeben.

Mit Ausnahme von 0 und 1 haben die Exit-Codes mit niedrigerer Nummer Vorrang vor Exit-Codes mit höherer Nummer.
nummerierte Fehler, wenn mehrere Arten von Fehlern auftreten.

In Versionen von Wget vor 1.12 war der Exit-Status von Wget in der Regel nicht hilfreich und
inkonsistent. Rekursive Downloads würden unabhängig davon praktisch immer 0 (Erfolg) zurückgeben
Alle aufgetretenen Probleme und nicht rekursive Abrufe gaben nur den entsprechenden Status zurück
zum zuletzt versuchten Download.

Verwenden Sie wget online über die Dienste von onworks.net


Kostenlose Server & Workstations

Laden Sie Windows- und Linux-Apps herunter

Linux-Befehle

Ad