EngelsFransSpaans

Ad


OnWorks-favicon

wget - Online in de cloud

Voer wget uit in de gratis hostingprovider van OnWorks via Ubuntu Online, Fedora Online, Windows online emulator of MAC OS online emulator

Dit is de opdracht wget die kan worden uitgevoerd in de gratis hostingprovider van OnWorks met behulp van een van onze meerdere gratis online werkstations zoals Ubuntu Online, Fedora Online, Windows online-emulator of MAC OS online-emulator

PROGRAMMA:

NAAM


Wget - De niet-interactieve netwerkdownloader.

KORTE INHOUD


wget [optie]... [URL] ...

PRODUCTBESCHRIJVING


GNU Wget is een gratis hulpprogramma voor het niet-interactief downloaden van bestanden van het web. Het
ondersteunt HTTP-, HTTPS- en FTP-protocollen, evenals ophalen via HTTP-proxy's.

Wget is niet-interactief, wat betekent dat het op de achtergrond kan werken, terwijl de gebruiker dat niet is
ingelogd. Hiermee kunt u een ophaal starten en loskoppelen van het systeem, verhuur
Maak het werk af. Daarentegen vereisen de meeste webbrowsers constante gebruikers
aanwezigheid, wat een grote belemmering kan zijn bij het overdragen van veel gegevens.

Wget kan links in HTML-, XHTML- en CSS-pagina's volgen om lokale versies van remote te maken
websites, waarbij de directorystructuur van de oorspronkelijke site volledig wordt nagebootst. Dit is
ook wel "recursief downloaden" genoemd. Terwijl hij dat doet, respecteert Wget de
Standaard voor robotuitsluiting (/robots.txt). Wget kan worden geïnstrueerd om de links om te zetten in
gedownloade bestanden om naar de lokale bestanden te wijzen, voor offline weergave.

Wget is ontworpen voor robuustheid bij langzame of onstabiele netwerkverbindingen; als een
het downloaden mislukt vanwege een netwerkprobleem, blijft het opnieuw proberen totdat het hele bestand is gedownload
opgehaald. Als de server het ophalen ondersteunt, zal deze de server instrueren om door te gaan
de download waar deze was gebleven.

Wget ondersteunt geen Client Revocation Lists (CRL's), dus het HTTPS-certificaat dat u bent
verbinding maken met kan worden ingetrokken door de site-eigenaar.

OPTIES


Keuze Syntaxis
Aangezien Wget GNU getopt gebruikt om opdrachtregelargumenten te verwerken, heeft elke optie een lange vorm
samen met de korte. Lange opties zijn handiger om te onthouden, maar het kost tijd
type. U kunt vrijelijk verschillende optiestijlen mixen, of opties specificeren na het commando-
lijnargumenten. Zo kun je schrijven:

wget -r --pogingen=10 http://fly.srk.fer.hr/ -o log

De spatie tussen de optie die een argument accepteert en het argument mag worden weggelaten.
In plaats van -o inloggen je kan schrijven -ologe.

U kunt verschillende opties die geen argumenten vereisen, samenvoegen, zoals:

wget -dr

Dit is volledig gelijk aan:

wget -d -r -c

Aangezien de opties achter de argumenten kunnen worden opgegeven, kunt u ze beëindigen met --.
Dus het volgende zal proberen de URL te downloaden -x, storing melden bij inloggen:

wget -o logboek -- -x

De opties die door komma's gescheiden lijsten accepteren, respecteren allemaal de conventie die specificeert
een lege lijst wist zijn waarde. Dit kan handig zijn om de .wgetrc instellingen. Voor
bijvoorbeeld als uw .wgetrc stelt "exclude_directories" in op /cgi-bin, het volgende voorbeeld
zal het eerst resetten en vervolgens instellen op uitsluiten /~niemand en /~iemand. Je kan ook
wis de lijsten in .wgetrc.

wget -X " -X /~niemand,/~iemand

De meeste opties die geen argumenten accepteren, zijn dat wel boolean opties, zo genoemd omdat hun
status kan worden vastgelegd met een ja-of-nee ("booleaanse") variabele. Bijvoorbeeld, --volg-ftp
vertelt Wget om FTP-links van HTML-bestanden te volgen en, aan de andere kant, --geen-glob vertelt het
om geen bestandsglobbing uit te voeren op FTP-URL's. Een booleaanse optie is ofwel bevestigend or
negatief (beginnend met --Nee). Al dergelijke opties delen verschillende eigenschappen.

Tenzij anders vermeld, wordt aangenomen dat het standaardgedrag het tegenovergestelde is van wat
de optie volbrengt. Bijvoorbeeld het gedocumenteerde bestaan ​​van --volg-ftp gaat uit van
dat is standaard niet volg FTP-links van HTML-pagina's.

Bevestigende opties kunnen worden ontkend door de --Nee- naar de optienaam; negatief
opties kunnen teniet worden gedaan door de --Nee- voorvoegsel. Dit lijkt misschien overbodig --- als de
standaard voor een bevestigende optie is om iets niet te doen, waarom zou je dan een manier bieden om het wel te doen?
expliciet uitzetten? Maar het opstartbestand kan in feite de standaard wijzigen. Voor
bijvoorbeeld door "follow_ftp = on" te gebruiken in .wgetrc maakt Wget volgen FTP-links standaard, en
gebruik --no-follow-ftp is de enige manier om de fabrieksinstellingen van de opdracht te herstellen
lijn.

Basic Startup Opties
-V
--versie
Geef de versie van Wget weer.

-h
--help
Druk een helpbericht af waarin alle opdrachtregelopties van Wget worden beschreven.

-b
--achtergrond
Ga direct na het opstarten naar de achtergrond. Als er geen uitvoerbestand is opgegeven via de
-o, wordt de uitvoer omgeleid naar wget-log.

-e commando
--uitvoeren commando
Uitvoeren commando alsof het er een onderdeel van is .wgetrc. Een aldus ingeroepen commando zal zijn
uitgevoerd na de commando's erin .wgetrc, dus voorrang hebben op hen. Als je nodig hebt
om meer dan één wgetrc-opdracht op te geven, gebruikt u meerdere instanties van -e.

Logging en Invoer Dien in Opties
-o logfile
--output-bestand=logfile
Log alle berichten in logfile. De berichten worden normaal gerapporteerd aan de standaardfout.

-a logfile
--toevoegen-uitvoer=logfile
Toevoegen aan logfile. Dit is hetzelfde als -o, alleen het voegt toe aan logfile in plaats van
het oude logbestand overschrijven. Als logfile niet bestaat, wordt een nieuw bestand aangemaakt.

-d
--debuggen
Schakel debug-uitvoer in, wat betekent dat verschillende informatie belangrijk is voor de ontwikkelaars van Wget
als het niet goed werkt. Uw systeembeheerder heeft er mogelijk voor gekozen om te compileren
Wget zonder ondersteuning voor foutopsporing, in welk geval -d zal niet werken. Houd er rekening mee dat
compileren met debug-ondersteuning is altijd veilig---Wget gecompileerd met debug-ondersteuning
wil niet druk eventuele foutopsporingsinformatie af, tenzij gevraagd met -d.

-q
--stil
Schakel de uitvoer van Wget uit.

-v
--uitgebreid
Schakel uitgebreide uitvoer in, met alle beschikbare gegevens. De standaarduitvoer is uitgebreid.

-nv
--niet-uitgebreid
Schakel breedsprakig uit zonder helemaal stil te zijn (gebruik -q daarvoor), wat dat betekent
foutmeldingen en basisinformatie worden nog steeds afgedrukt.

--rapportagesnelheid= type dan:
Uitvoerbandbreedte als type dan: . De enige geaccepteerde waarde is stukjes.

-i filet
--invoerbestand=filet
Lees URL's van een lokaal of extern filet. Indien - is gespecificeerd als filet, URL's worden gelezen
van de standaard invoer. (Gebruik ./- om te lezen uit een bestand met de letterlijke naam -.)

Als deze functie wordt gebruikt, hoeven er geen URL's aanwezig te zijn op de opdrachtregel. Als er zijn
URL's die zowel op de opdrachtregel als in een invoerbestand staan, zullen die op de opdrachtregel zijn
de eersten die worden opgehaald. Als --force-html is niet gespecificeerd, dan filet moet
bestaan ​​uit een reeks URL's, één per regel.

Als u echter opgeeft --force-html, wordt het document beschouwd als html. In dat
geval dat u problemen heeft met relatieve links, die u kunt oplossen door toe te voegen
"url">" naar de documenten of door te specificeren --basis=url op de opdrachtregel.

Indien de filet een externe is, wordt het document automatisch behandeld als html if
het inhoudstype komt overeen text / html. Bovendien is de filetde locatie zal zijn
impliciet gebruikt als basis href als er geen is opgegeven.

--invoer-metalink=filet
Downloadt bestanden bedekt met lokale Metalink filet. Metalink versie 3 en 4 zijn
ondersteund.

--metalink-over-http
Geeft een HTTP HEAD-verzoek af in plaats van GET en haalt Metalink-metadata uit het antwoord
koppen. Daarna schakelt het over naar Metalink-download. Als er geen geldige Metalink-metadata zijn
gevonden, valt het terug op gewone HTTP-download.

--voorkeurslocatie
Stel de voorkeurslocatie in voor Metalink-resources. Dit heeft effect als er meerdere bronnen zijn
met dezelfde prioriteit zijn beschikbaar.

-F
--force-html
Wanneer invoer uit een bestand wordt gelezen, moet u ervoor zorgen dat het wordt behandeld als een HTML-bestand. Dit maakt het mogelijk
u kunt relatieve koppelingen ophalen uit bestaande HTML-bestanden op uw lokale schijf door toe te voegen
"url">" naar HTML, of met behulp van de --baseren opdrachtregeloptie.

-B URL
--basis=URL
Lost relatieve koppelingen op met behulp van URL als referentiepunt bij het lezen van links van
een HTML-bestand gespecificeerd via de -i/--Invoer bestand optie (samen met --force-htmlof
wanneer het invoerbestand op afstand werd opgehaald van een server die het beschrijft als HTML). Dit is
gelijk aan de aanwezigheid van een "BASE"-tag in het HTML-invoerbestand, met URL de
waarde voor het kenmerk "href".

Als u bijvoorbeeld opgeeft http://foo/bar/a.html For URL, en Wget leest
../baz/b.html uit het invoerbestand, zou het worden omgezet naar http://foo/baz/b.html.

--config=FILE
Geef de locatie op van een opstartbestand dat u wilt gebruiken.

--afgewezen-log=logfile
Registreert alle URL-afwijzingen in logfile als door komma's gescheiden waarden. De waarden zijn inclusief de
reden van afwijzing, de URL en de bovenliggende URL waarin het is gevonden.

Downloaden Opties
--bind-adres=ADRES
Bij het maken van client-TCP/IP-verbindingen, bindt u aan ADRES op de lokale machine. ADRES
kan worden opgegeven als hostnaam of IP-adres. Deze optie kan handig zijn als uw
machine is gebonden aan meerdere IP's.

-t aantal
--probeert=aantal
Stel het aantal pogingen in aantal. Specificeer 0 of inf voor oneindig opnieuw proberen. De standaardwaarde is
om het 20 keer opnieuw te proberen, met uitzondering van fatale fouten zoals "verbinding geweigerd" of
"niet gevonden" (404), die niet opnieuw worden geprobeerd.

-O filet
--output-document=filet
De documenten worden niet naar de juiste bestanden geschreven, maar allemaal wel
samengevoegd en geschreven naar filet. Indien - wordt gebruikt als filet, documenten zullen zijn
afgedrukt naar standaarduitvoer, linkconversie uitgeschakeld. (Gebruik ./- om af te drukken naar een bestand
letterlijk genoemd -.)

gebruik van -O is niet bedoeld om simpelweg te betekenen "gebruik de naam filet in plaats van die in de
URL;" het is eerder analoog aan shell-omleiding: wget -O filet http://foo is
bedoeld om te werken zoals wget -O - http://foo > filet; filet wordt onmiddellijk afgekapt,
en allen gedownloade inhoud zal daar worden geschreven.

Om deze reden, -N (voor tijdstempelcontrole) wordt niet ondersteund in combinatie met -O:
sinds filet altijd nieuw is gemaakt, zal het altijd een heel nieuw tijdstempel hebben. A
waarschuwing zal worden gegeven als deze combinatie wordt gebruikt.

Op dezelfde manier, met behulp van -r or -p Met -O werkt mogelijk niet zoals u verwacht: Wget zal niet zomaar downloaden
het eerste bestand naar filet en download vervolgens de rest naar hun normale namen: allen
gedownloade inhoud wordt erin geplaatst filet. Dit was uitgeschakeld in versie 1.11, maar heeft
is hersteld (met een waarschuwing) in 1.11.2, aangezien er enkele gevallen zijn waarin dit
gedrag kan eigenlijk enig nut hebben.

Een combinatie met -nc wordt alleen geaccepteerd als het opgegeven uitvoerbestand niet bestaat.

Merk op dat een combinatie met -k is alleen toegestaan ​​bij het downloaden van een enkel document,
omdat het in dat geval alle relatieve URI's naar externe zal converteren; -k maakt nee
gevoel voor meerdere URI's wanneer ze allemaal worden gedownload naar een enkel bestand; -k kan zijn
alleen gebruikt als de uitvoer een normaal bestand is.

-nc
--geen geklets
Als een bestand meer dan eens in dezelfde map wordt gedownload, hangt het gedrag van Wget ervan af
op een paar opties, waaronder -nc. In bepaalde gevallen zal het lokale bestand dat zijn omvergeworpen,
of overschreven, bij herhaald downloaden. In andere gevallen blijft het behouden.

Bij het uitvoeren van Wget zonder -N, -nc, -rof -p, hetzelfde bestand downloaden in hetzelfde
directory resulteert in de originele kopie van filet wordt bewaard en het tweede exemplaar
genoemd worden filet.1. Als dat bestand nog een keer wordt gedownload, is de derde kopie dat wel
genoemd filet.2, enzovoort. (Dit is ook het gedrag met -nd, zelfs indien -r or -p zijn in
effect.) Wanneer -nc is opgegeven, wordt dit gedrag onderdrukt en zal Wget weigeren
download nieuwere exemplaren van filet. Daarom is "no-clobber" eigenlijk een verkeerde benaming
deze modus --- het is niet het gerommel dat wordt voorkomen (zoals de numerieke achtervoegsels al waren
het voorkomen van geknoei), maar eerder het opslaan van meerdere versies dat wordt voorkomen.

Bij het uitvoeren van Wget met -r or -p, Maar zonder -N, -ndof -nc, een bestand opnieuw downloaden
zal ertoe leiden dat de nieuwe kopie de oude simpelweg overschrijft. toevoegen -nc zal dit voorkomen
gedrag, waardoor in plaats daarvan de originele versie behouden blijft en eventuele nieuwere kopieën erop
de server te negeren.

Bij het uitvoeren van Wget met -N, met of zonder -r or -p, de beslissing al dan niet
het downloaden van een nieuwere kopie van een bestand is afhankelijk van de lokale en externe tijdstempel en grootte
van het bestand. -nc mag niet tegelijk met worden opgegeven -N.

Een combinatie met -O/--uitvoerdocument wordt alleen geaccepteerd als het opgegeven uitvoerbestand dat doet
bestaat niet.

Merk op dat wanneer -nc is opgegeven, bestanden met de achtervoegsels . Html or . Htm wordt geladen
van de lokale schijf en geparseerd alsof ze van het web zijn gehaald.

--back-ups=backups
Voordat u een bestand (over)schrijft, maakt u een back-up van een bestaand bestand door een .1 achtervoegsel (_1 on
VMS) toe aan de bestandsnaam. Dergelijke back-upbestanden worden geroteerd naar .2, .3, enzovoort, tot
backups (en verder verloren).

-c
--doorgaan met
Ga door met het ophalen van een gedeeltelijk gedownload bestand. Dit is handig wanneer u wilt afronden
een download starten die is gestart door een eerder exemplaar van Wget of door een ander programma. Voor
voorbeeld:

wget-c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Als er een bestand is met de naam ls-lR.Z in de huidige directory zal Wget aannemen dat dit zo is
het eerste deel van het externe bestand en zal de server vragen om door te gaan met het
ophalen van een offset die gelijk is aan de lengte van het lokale bestand.

Merk op dat u deze optie niet hoeft op te geven als u alleen de stroom wilt
aanroepen van Wget om opnieuw te proberen een bestand te downloaden als de verbinding halverwege wordt verbroken
door. Dit is het standaardgedrag. -c heeft alleen invloed op het hervatten van downloads
gestart voorafgaand aan deze aanroep van Wget, en wiens lokale bestanden nog steeds staan
in de omgeving van.

Zonder -c, zou het vorige voorbeeld gewoon het externe bestand downloaden naar ls-lR.Z.1,
het afgeknotte verlaten ls-lR.Z bestand alleen.

Te beginnen met Wget 1.7, als je gebruikt -c op een niet-leeg bestand, en het blijkt dat de
server geen ondersteuning biedt voor doorgaan met downloaden, zal Wget weigeren de download te starten
vanuit het niets, wat de bestaande inhoud effectief zou ruïneren. Als je echt wilt dat de
download om helemaal opnieuw te beginnen, verwijder het bestand.

Begint ook met Wget 1.7, als je gebruikt -c op een bestand dat even groot is als het
één op de server, zal Wget weigeren het bestand te downloaden en een toelichting afdrukken
bericht. Hetzelfde gebeurt wanneer het bestand op de server kleiner is dan lokaal
(vermoedelijk omdat het op de server is gewijzigd sinds uw laatste download
poging) --- omdat "doorgaan" geen betekenis heeft, vindt er geen download plaats.

Aan de andere kant van de medaille, tijdens het gebruik -c, elk bestand dat groter is op de server
dan lokaal wordt beschouwd als een onvolledige download en alleen "(length(remote) -
length(local))" bytes worden gedownload en aan het einde van het lokale bestand geplakt.
Dit gedrag kan in bepaalde gevallen wenselijk zijn --- u kunt bijvoorbeeld gebruiken wget -c naar
download alleen het nieuwe gedeelte dat is toegevoegd aan een gegevensverzameling of logbestand.

Als het bestand echter groter is op de server omdat het is geweest veranderd, in tegenstelling tot
voor slechts toegevoegd naar, zul je eindigen met een onleesbaar bestand. Wget kan dit op geen enkele manier verifiëren
dat het lokale bestand echt een geldig voorvoegsel is van het bestand op afstand. Je moet zijn
let hier vooral op bij gebruik -c in combinatie met -r, aangezien elk bestand dat zal doen
worden beschouwd als een "onvolledige download"-kandidaat.

Nog een geval waarin u een onleesbaar bestand krijgt als u het probeert te gebruiken -c is als je een hebt
lame HTTP-proxy die een tekenreeks "overdracht onderbroken" invoegt in het lokale bestand. In
in de toekomst kan een "rollback" -optie worden toegevoegd om deze zaak af te handelen.

Merk op dat -c werkt alleen met FTP-servers en met HTTP-servers die de
Koptekst "Bereik".

--start-pos=OFFSET
Begin met downloaden op een op nul gebaseerde positie OFFSET. Offset kan worden uitgedrukt in bytes,
kilobytes met het achtervoegsel `k', of megabytes met het achtervoegsel `m', enz.

--start-pos heeft een hogere prioriteit dan --doorgaan met. Wanneer --start-pos en --doorgaan met
zijn beide gespecificeerd, zal wget een waarschuwing uitzenden en vervolgens doorgaan alsof --doorgaan met was absent.

Serverondersteuning voor doorgaan met downloaden is vereist, anders --start-pos kan niet helpen.
Bekijk -c voor meer info.

--voortgang= type dan:
Selecteer het type voortgangsindicator dat u wilt gebruiken. Juridische indicatoren zijn "punt"
en "bar".

Standaard wordt de "bar"-indicator gebruikt. Het tekent een ASCII-voortgangsbalkgrafiek
(ook wel "thermometer" -display genoemd) die de status van het ophalen aangeeft. Als de uitvoer is
geen TTY, de "punt"-balk wordt standaard gebruikt.

Te gebruiken --voortgang=punt om over te schakelen naar de "dot"-weergave. Het traceert het ophalen door
stippen op het scherm afdrukken, waarbij elke stip een vaste hoeveelheid gedownloade gegevens vertegenwoordigt.

De voortgang type dan: kan ook een of meer parameters aannemen. De parameters variëren op basis van
de type dan: geselecteerd. Parameters naar type dan: worden doorgegeven door ze aan het type toe te voegen
gescheiden door een dubbele punt (:) zoals deze: --voortgang= type dan: :parameter1:parameter2.

Wanneer u de gestippelde ophaalfunctie gebruikt, kunt u de stijl door het type op te geven als
punt:stijl. Verschillende stijlen kennen een verschillende betekenis toe aan één punt. Met de "standaard"
stijl elke stip staat voor 1K, er zijn tien stippen in een cluster en 50 stippen in een lijn.
De "binaire" stijl heeft een meer "computer"-achtige oriëntatie --- 8K dots, 16-dots clusters
en 48 dots per regel (wat zorgt voor 384K lijnen). De "mega" stijl is geschikt voor
het downloaden van grote bestanden --- elke stip staat voor 64K opgehaald, er zijn acht stippen in een
cluster, en 48 stippen op elke lijn (dus elke lijn bevat 3M). Als "mega" niet genoeg is
dan kun je de "giga"-stijl gebruiken --- elke stip staat voor 1M opgehaald, er zijn er acht
stippen in een cluster, en 32 stippen op elke lijn (dus elke lijn bevat 32M).

met --voortgang=balk, zijn er momenteel twee mogelijke parameters, dwingen en geen rol.

Wanneer de uitvoer geen TTY is, valt de voortgangsbalk altijd terug naar "punt", zelfs als
--voortgang=balk werd doorgegeven aan Wget tijdens het aanroepen. Dit gedrag kan worden overschreven
en de "bar"-uitvoer geforceerd door de parameter "force" te gebruiken als --progress=bar:kracht.

Standaard is de bars stijl voortgangsbalk scrol de naam van het bestand van links naar rechts
voor het bestand dat wordt gedownload als de bestandsnaam de toegestane maximale lengte overschrijdt
zijn weergave. In bepaalde gevallen, zoals met --progress=bar:kracht, men wil misschien niet
de scrollende bestandsnaam in de voortgangsbalk. Door de parameter "noscroll" door te geven, wordt Wget
kan worden gedwongen om zoveel mogelijk van de bestandsnaam weer te geven zonder er doorheen te scrollen
het.

Merk op dat u de standaardstijl kunt instellen met de opdracht "progress" in .wgetrc. Dat
instelling kan worden overschreven vanaf de opdrachtregel. Bijvoorbeeld om de balkuitvoer te forceren
zonder te scrollen, gebruiken --progress=bar:force:noscroll.

--show-voortgang
Forceer wget om de voortgangsbalk in elke breedsprakigheid weer te geven.

Wget geeft standaard alleen de voortgangsbalk weer in de uitgebreide modus. Men mag echter
wil dat wget de voortgangsbalk op het scherm weergeeft in combinatie met andere
breedsprakigheidsmodi zoals --niet-uitgebreid or --stil. Dit is vaak een gewenste eigenschap wanneer
wget aanroepen om verschillende kleine/grote bestanden te downloaden. In dat geval zou wget dat kunnen
eenvoudig worden aangeroepen met deze parameter om een ​​veel schonere uitvoer op het scherm te krijgen.

Deze optie zorgt er ook voor dat de voortgangsbalk wordt afgedrukt stderr bij gebruik
naast de --logbestand optie.

-N
--tijdstempel
Schakel tijdstempels in.

--nee-indien-gewijzigd-sinds
Stuur geen If-Modified-Since-header in -N modus. Stuur voorlopig HEAD-verzoek
in plaats van. Dit heeft alleen effect in -N modus.

--geen-gebruik-server-tijdstempels
Stel de tijdstempel van het lokale bestand niet in op die op de server.

Wanneer een bestand wordt gedownload, worden de tijdstempels standaard ingesteld op die van de
extern bestand. Hierdoor is het gebruik van --tijdstempel op daaropvolgende aanroepen van wget.
Het is echter soms handig om de tijdstempel van het lokale bestand te baseren op wanneer het was
daadwerkelijk gedownload; daartoe de --geen-gebruik-server-tijdstempels optie is geweest
verstrekt.

-S
--server-antwoord
Druk de headers af die zijn verzonden door HTTP-servers en antwoorden die zijn verzonden door FTP-servers.

--spin
Wanneer deze optie wordt aangeroepen, zal Wget zich gedragen als een web spin, wat betekent dat het
zal de pagina's niet downloaden, controleer gewoon of ze er zijn. U kunt bijvoorbeeld gebruiken
Wget om uw bladwijzers te controleren:

wget --spider --force-html -i bladwijzers.html

Deze functie heeft veel meer werk nodig voor Wget om dicht bij de functionaliteit van real te komen
web spinnen.

-T seconden
--time-out=seconden
Stel de netwerktime-out in op seconden seconden. Dit staat gelijk aan specificeren
--dns-time-out, --connect-time-out en --lees-time-out, alles tegelijkertijd.

Bij interactie met het netwerk kan Wget controleren op time-out en de bewerking afbreken
als het te lang duurt. Dit voorkomt anomalieën zoals hangende reads en oneindig
verbindt. De enige time-out die standaard is ingeschakeld, is een leestime-out van 900 seconden. Instelling
een time-out naar 0 schakelt het helemaal uit. Tenzij je weet wat je doet, is het het beste
om de standaard time-outinstellingen niet te wijzigen.

Alle time-out-gerelateerde opties accepteren decimale waarden, evenals subseconde-waarden. Voor
voorbeeld, 0.1 seconden is een legale (hoewel onverstandige) time-outkeuze. Subseconde time-outs
zijn handig voor het controleren van serverresponstijden of voor het testen van netwerklatentie.

--dns-time-out=seconden
Stel de time-out voor DNS-lookup in op seconden seconden. DNS-lookups die binnen niet worden voltooid
de opgegeven tijd zal mislukken. Standaard is er geen time-out bij DNS-lookups, andere
dan die geïmplementeerd door systeembibliotheken.

--connect-timeout=seconden
Stel de verbindingstime-out in op seconden seconden. TCP-verbindingen die langer duren
tot stand brengen wordt afgebroken. Standaard is er geen verbindingstime-out, behalve dat
geïmplementeerd door systeembibliotheken.

--lees-time-out=seconden
Stel de lees- (en schrijf) time-out in op seconden seconden. De "tijd" van deze time-out
verwijst naar stationair niet de tijd of: als er op enig moment tijdens de download geen gegevens meer worden ontvangen
dan het opgegeven aantal seconden, mislukt het lezen en wordt de download opnieuw gestart.
Deze optie heeft geen directe invloed op de duur van de volledige download.

Natuurlijk kan de externe server ervoor kiezen om de verbinding eerder te verbreken
optie vereist. De standaard leestime-out is 900 seconden.

--limiettarief=bedragen
Beperk de downloadsnelheid tot bedragen bytes per seconde. Bedrag kan worden uitgedrukt in
bytes, kilobytes met de k achtervoegsel, of megabytes met de m achtervoegsel. Bijvoorbeeld,
--limiet-snelheid=20k beperkt de ophaalsnelheid tot 20 KB/s. Dit is handig wanneer, voor
welke reden dan ook, u wilt niet dat Wget de volledige beschikbare bandbreedte verbruikt.

Deze optie maakt het gebruik van decimale getallen mogelijk, meestal in combinatie met macht
achtervoegsels; Bijvoorbeeld, --limiet-snelheid=2.5k is een juridische waarde.

Merk op dat Wget de beperking implementeert door de juiste hoeveelheid tijd te slapen
na een netwerklezing die minder tijd kostte dan gespecificeerd door de snelheid. Uiteindelijk dit
strategie zorgt ervoor dat de TCP-overdracht vertraagt ​​tot ongeveer de opgegeven snelheid.
Het kan echter enige tijd duren voordat dit evenwicht is bereikt, dus wees niet verrast
als het beperken van de snelheid niet goed werkt met zeer kleine bestanden.

-w seconden
--wacht=seconden
Wacht het opgegeven aantal seconden tussen de ophaalacties. Gebruik van deze optie is
aanbevolen, omdat het de serverbelasting verlicht door de verzoeken minder frequent te maken.
In plaats van in seconden kan de tijd worden opgegeven in minuten met het achtervoegsel "m", in
uren met het achtervoegsel "h", of in dagen met het achtervoegsel "d".

Het opgeven van een grote waarde voor deze optie is handig als het netwerk of de bestemming
host is down, zodat Wget lang genoeg kan wachten om de netwerkfout redelijkerwijs te verwachten
moet worden opgelost voordat u het opnieuw probeert. Het door deze functie gespecificeerde wachtinterval is
beïnvloed door "--random-wait", die zie.

--wachtpoging=seconden
Als u niet wilt dat Wget wacht tussen elk ophalen, maar alleen tussen het ophalen van
mislukte downloads, kunt u deze optie gebruiken. Wget zal gebruiken lineair Donder op, wachten 1
tweede na de eerste fout op een bepaald bestand, dan 2 seconden wachten na de
tweede fout op dat bestand, tot het maximale aantal seconden u specificeert.

Wget neemt standaard een waarde van 10 seconden aan.

--willekeurig wachten
Sommige websites kunnen loganalyses uitvoeren om ophaalprogramma's zoals Wget by te identificeren
op zoek naar statistisch significante overeenkomsten in de tijd tussen verzoeken. Dit
optie zorgt ervoor dat de tijd tussen verzoeken varieert tussen 0.5 en 1.5 * wachten seconden,
WAAR wachten werd gespecificeerd met behulp van de --wacht optie, om de aanwezigheid van Wget te maskeren
uit zo'n analyse.

Een artikel uit 2001 in een publicatie gewijd aan ontwikkeling op een populair consumentenplatform
verstrekte code om deze analyse on the fly uit te voeren. De auteur stelde voor om te blokkeren op
het klasse C-adresniveau om ervoor te zorgen dat geautomatiseerde ophaalprogramma's desondanks werden geblokkeerd
wijzigen van door DHCP geleverde adressen.

De --willekeurig wachten option werd geïnspireerd door deze onverstandige aanbeveling om velen te blokkeren
niet-verwante gebruikers van een website vanwege de acties van een.

--geen-proxy
Gebruik geen proxy's, zelfs niet als de juiste omgevingsvariabele *_proxy is gedefinieerd.

-Q quotum
--quotum=quotum
Specificeer downloadquotum voor automatisch ophalen. De waarde kan worden opgegeven in bytes
(standaard), kilobytes (met k achtervoegsel), of megabytes (met m achtervoegsel).

Houd er rekening mee dat quota nooit van invloed zijn op het downloaden van een enkel bestand. Dus als je aangeeft wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, alle ls-lR.gz zal worden gedownload. De
hetzelfde geldt zelfs wanneer er meerdere URL's op de opdrachtregel zijn opgegeven. Het quotum is echter
gerespecteerd bij het recursief ophalen of uit een invoerbestand. Zo mag je
veilig typen wget -Q2m -i locaties---download wordt afgebroken wanneer het quotum wordt overschreden.

Quotum instellen op 0 of op inf onbeperkt het downloadquotum.

--geen-dns-cache
Schakel caching van DNS-lookups uit. Normaal onthoudt Wget de IP-adressen waarnaar het keek
up van DNS, zodat het niet herhaaldelijk contact hoeft op te nemen met de DNS-server voor hetzelfde
(meestal kleine) set hosts waarvan het gegevens ophaalt. Deze cache bestaat alleen in het geheugen; A
nieuwe Wget-run zal opnieuw contact opnemen met DNS.

Er is echter gemeld dat het in sommige situaties niet wenselijk is om te cachen
hostnamen, zelfs voor de duur van een kortlopende applicatie zoals Wget. Hiermee
optie Wget voert een nieuwe DNS-lookup uit (preciezer, een nieuwe aanroep naar "gethostbyname" of
"getaddrinfo") elke keer dat er een nieuwe verbinding wordt gemaakt. Houd er rekening mee dat deze optie zal
niet caching beïnvloeden die kan worden uitgevoerd door de oplossende bibliotheek of door een externe
cachelaag, zoals NSCD.

Als u niet precies begrijpt wat deze optie doet, heeft u deze waarschijnlijk niet nodig.

--restrict-bestandsnamen=modi
Wijzig welke tekens gevonden in externe URL's moeten worden geëscaped tijdens het genereren van
lokale bestandsnamen. Karakters die zijn begrensd door deze optie worden ontsnapt, dwz
vervangen door %HH, Waar HH is het hexadecimale getal dat overeenkomt met de
beperkt karakter. Deze optie kan ook worden gebruikt om alle alfabetische hoofdletters te forceren
hoofdletters of kleine letters zijn.

Wget ontsnapt standaard aan de tekens die niet geldig of veilig zijn als onderdeel van het bestand
namen op uw besturingssysteem, evenals besturingstekens die typisch zijn
onbedrukbaar. Deze optie is handig om deze standaardinstellingen te wijzigen, misschien omdat u
aan het downloaden bent naar een niet-native partitie, of omdat u escapen van
de controletekens, of u wilt tekens verder beperken tot alleen die in
het ASCII-waardenbereik.

De modi zijn een door komma's gescheiden set tekstwaarden. De aanvaardbare waarden zijn unix,
ruiten, geen controle, ascii, kleine letters en hoofdletters​ De waarden unix en ruiten zijn
elkaar uitsluiten (de ene zal de andere overschrijven), zoals ze zijn kleine letters en hoofdletters.
Die laatste zijn speciale gevallen, omdat ze de reeks tekens die dat wel doen niet veranderen
worden ontsnapt, maar forceren eerder dat lokale bestandspaden worden geconverteerd naar lagere- of
hoofdletters.

Wanneer "unix" is opgegeven, ontsnapt Wget aan het teken / en de controletekens erin
de reeksen 0--31 en 128--159. Dit is de standaardinstelling op Unix-achtige besturingssystemen.

Wanneer "windows" wordt gegeven, ontsnapt Wget aan de karakters \, |, /, :, ?, ", *, <, > en
de besturingstekens in het bereik 0--31 en 128--159. Daarnaast, Wget in
Windows-modus gebruikt + in plaats van : om host en poort te scheiden in lokale bestandsnamen, en
toepassingen @ in plaats van ? om het querygedeelte van de bestandsnaam van de rest te scheiden.
Daarom zou een URL die zou worden opgeslagen als www.xemacs.org:4300/search.pl?input=bla in
Unix-modus zou worden opgeslagen als www.xemacs.org+4300/search.pl@input=bla in Windows-modus.
Deze modus is de standaard in Windows.

Als u opgeeft geen controle, dan wordt ook het escapen van de besturingstekens geschakeld
uit. Deze optie kan zinvol zijn wanneer u URL's downloadt waarvan de naam bevat
UTF-8-tekens, op een systeem dat bestandsnamen kan opslaan en weergeven in UTF-8 (sommige
mogelijke bytewaarden die worden gebruikt in UTF-8 bytereeksen vallen binnen het waardenbereik
door Wget aangeduid als "controls").

De ascii mode wordt gebruikt om aan te geven dat alle bytes waarvan de waarden buiten het bereik van
ASCII-tekens (d.w.z. groter dan 127) moeten worden ontsnapt. Dit kan handig zijn wanneer
het opslaan van bestandsnamen waarvan de codering niet overeenkomt met de lokaal gebruikte.

-4
--inet4-alleen
-6
--inet6-alleen
Forceer verbinding met IPv4- of IPv6-adressen. Met --inet4-alleen or -4, Wget zal alleen
verbinding maken met IPv4-hosts, AAAA-records in DNS negeren en weigeren verbinding te maken met IPv6
adressen gespecificeerd in URL's. Omgekeerd, met --inet6-alleen or -6, Wget zal alleen
maak verbinding met IPv6-hosts en negeer A-records en IPv4-adressen.

Geen van beide opties zou normaal gesproken nodig moeten zijn. Standaard wordt een IPv6-bewuste Wget gebruikt
de adresfamilie gespecificeerd door het DNS-record van de host. Als de DNS met beide reageert
IPv4- en IPv6-adressen, Wget zal ze achtereenvolgens proberen totdat het er een vindt die het kan
verbinden aan. (Zie ook de hieronder beschreven optie "--prefer-family".)

Deze opties kunnen worden gebruikt om opzettelijk het gebruik van IPv4- of IPv6-adressen af ​​te dwingen
families op systemen met twee families, meestal om te helpen bij het debuggen of om kapotte problemen op te lossen
Netwerk configuratie. Slechts een van --inet6-alleen en --inet4-alleen kan worden opgegeven bij
dezelfde tijd. Geen van beide opties is beschikbaar in Wget gecompileerd zonder IPv6-ondersteuning.

--prefer-family=geen/IPv4/IPv6
Wanneer u de keuze krijgt uit meerdere adressen, maakt u verbinding met de opgegeven adressen
eerst familie aanspreken. De door DNS geretourneerde adresvolgorde wordt ongewijzigd gebruikt door
standaard.

Dit voorkomt valse fouten en verbindingspogingen bij toegang tot hosts die naar
zowel IPv6- als IPv4-adressen van IPv4-netwerken. Bijvoorbeeld, www.kame.net lost
naar 2001:200:0:8002:203:47ff:fea5:3085 Samen 203.178.141.194. Wanneer de voorkeur
familie is "IPv4", het IPv4-adres wordt eerst gebruikt; wanneer de voorkeursfamilie "IPv6" is,
het IPv6-adres wordt eerst gebruikt; als de opgegeven waarde "geen" is, de adresvolgorde
geretourneerd door DNS wordt ongewijzigd gebruikt.

Anders -4 en -6, blokkeert deze optie de toegang tot geen enkele adresfamilie, alleen
verandert de bestellen waarin de adressen worden benaderd. Merk ook op dat de nabestelling
uitgevoerd door deze optie is stabiel---het heeft geen invloed op de volgorde van adressen daarvan
familie. Dat wil zeggen, de relatieve volgorde van alle IPv4-adressen en van alle IPv6-adressen
blijft in alle gevallen intact.

--retry-verward
Beschouw "verbinding geweigerd" als een tijdelijke fout en probeer het opnieuw. Normaal gesproken geeft Wget het op
op een URL wanneer deze geen verbinding kan maken met de site omdat er geen verbinding kan worden gemaakt
als teken dat de server helemaal niet draait en dat nieuwe pogingen niet zouden helpen. Dit
optie is voor het spiegelen van onbetrouwbare sites waarvan de servers de neiging hebben om voor korte tijd te verdwijnen
tijds perioden.

--gebruiker=gebruiker
--wachtwoord=wachtwoord
Geef de gebruikersnaam op gebruiker en wachtwoord wachtwoord voor zowel het ophalen van FTP- als HTTP-bestanden.
Deze parameters kunnen worden overschreven met behulp van de --ftp-gebruiker en --ftp-wachtwoord opties voor
FTP-verbindingen en de --http-gebruiker en --http-wachtwoord opties voor HTTP-verbindingen.

--vraag-wachtwoord
Vragen om een ​​wachtwoord voor elke tot stand gebrachte verbinding. Wanneer kan niet worden opgegeven
--wachtwoord gebruikt, omdat ze elkaar uitsluiten.

--nee-iri
Schakel ondersteuning voor geïnternationaliseerde URI (IRI) uit. Gebruik --iri om het aan te zetten. IRI-ondersteuning is
standaard geactiveerd.

U kunt de standaardstatus van IRI-ondersteuning instellen met de opdracht "iri" in .wgetrc. Dat
instelling kan worden overschreven vanaf de opdrachtregel.

--lokale-codering=codering
Forceer Wget om te gebruiken codering als de standaard systeemcodering. Dat beïnvloedt hoe Wget
converteert URL's gespecificeerd als argumenten van locale naar UTF-8 voor IRI-ondersteuning.

Gebruik hiervoor de functie "nl_langinfo()" en vervolgens de omgevingsvariabele "CHARSET".
krijg de locatie. Als het niet lukt, wordt ASCII gebruikt.

U kunt de standaard lokale codering instellen met de opdracht "local_encoding" in .wgetrc.
Die instelling kan worden overschreven vanaf de opdrachtregel.

--remote-encoding=codering
Forceer Wget om te gebruiken codering als de standaard externe servercodering. Dat beïnvloedt hoe
Wget converteert URI's gevonden in bestanden van codering op afstand naar UTF-8 tijdens een recursief
ophalen. Deze optie is alleen nuttig voor IRI-ondersteuning, voor de interpretatie van niet-
ASCII-tekens.

Voor HTTP is codering op afstand te vinden in de HTTP-header "Content-Type" en in HTML
"Content-Type http-equiv"-metatag.

U kunt de standaardcodering instellen met de opdracht "remoteencoding" in .wgetrc. Dat
instelling kan worden overschreven vanaf de opdrachtregel.

--ontkoppelen
Forceer Wget om het bestand te ontkoppelen in plaats van het bestaande bestand te vernielen. Deze optie is handig
om te downloaden naar de directory met hardlinks.

Directory Opties
-nd
--geen-mappen
Maak geen hiërarchie van mappen wanneer u recursief ophaalt. Hiermee
optie ingeschakeld, worden alle bestanden opgeslagen in de huidige map, zonder
clobbering (als een naam meer dan één keer voorkomt, krijgen de bestandsnamen de extensie .n).

-x
--force-mappen
Het tegenovergestelde van -nd---maak een hiërarchie van mappen, zelfs als die er niet zou zijn
anders zijn ontstaan. Bijv wget -x http://fly.srk.fer.hr/robots.txt zal de redden
gedownload bestand naar fly.srk.fer.hr/robots.txt.

-nH
--geen-host-directories
Schakel het genereren van door de host vooraf ingestelde mappen uit. Standaard wordt Wget aangeroepen met -r
http://fly.srk.fer.hr/ zal een structuur van mappen creëren die beginnen met
fly.srk.fer.hr/. Deze optie schakelt dergelijk gedrag uit.

--protocol-mappen
Gebruik de protocolnaam als een directorycomponent van lokale bestandsnamen. Bijvoorbeeld met
deze optie, wget -r http://gastheer zal opslaan naar http /gastheer/ ... in plaats van alleen naar
gastheer/ ....

--cut-directory=aantal
negeren aantal directory-componenten. Dit is handig voor het verkrijgen van een fijnmazige controle
over de map waar het recursief ophalen zal worden opgeslagen.

Neem bijvoorbeeld de directory op ftp://ftp.xemacs.org/pub/xemacs/. Als je ophaalt
het met -r, wordt het lokaal opgeslagen onder ftp.xemacs.org/pub/xemacs/. Terwijl de -nH
optie kan de verwijderen ftp.xemacs.org/ deel, waar je nog steeds aan vast zit pub/xemacs. Deze
is waar --cut-directors komt goed van pas; het zorgt ervoor dat Wget niet "ziet" aantal externe map
componenten. Hier zijn verschillende voorbeelden van hoe --cut-directors optie werkt.

Geen opties -> ftp.xemacs.org/pub/xemacs/
-nH -> pub/xemacs/
-nH --cut-dirs=1 -> xemacs/
-nH --cut-dirs=2 -> .

--cut-dirs=1 -> ftp.xemacs.org/xemacs/
...

Als u alleen de mappenstructuur wilt verwijderen, is deze optie vergelijkbaar met een
combinatie van -nd en -P. Echter, in tegenstelling tot -nd, --cut-directors verliest niet met
submappen --- bijvoorbeeld met -nH --cut-dirs=1, een bèta/ submap zal zijn
geplaatst om xemacs/bèta, zoals men zou verwachten.

-P voorvoegsel
--directory-voorvoegsel=voorvoegsel
Stel directoryvoorvoegsel in op voorvoegsel. De directory voorvoegsel is de map waar alle andere
bestanden en submappen worden opgeslagen in, dwz de bovenkant van de ophaalboom. De
standaard is . (de huidige map).

HTTP Opties
--standaard-pagina=naam
Te gebruiken naam als de standaard bestandsnaam wanneer deze niet bekend is (d.w.z. voor URL's die eindigen op een
schuine streep), in plaats van index.html.

-E
--aanpassen-extensie
Als een bestand van het type application / xhtml + xml or text / html wordt gedownload en de URL doet dat
niet eindigen met de regexp \.[Hh][Tt][Mm][Ll]?, zal deze optie het achtervoegsel veroorzaken . Html
toe te voegen aan de lokale bestandsnaam. Dit is bijvoorbeeld handig als je
mirroring van een externe site die gebruikt . Asp pagina's, maar u wilt dat de gespiegelde pagina's zijn
zichtbaar op uw standaard Apache-server. Een ander goed gebruik hiervoor is wanneer je bent
CGI-gegenereerde materialen downloaden. Een URL zoals http://site.com/article.cgi? 25 wil
worden opgeslagen als artikel.cgi?25.html.

Houd er rekening mee dat bestandsnamen die op deze manier zijn gewijzigd, elke keer dat u opnieuw spiegelt, opnieuw worden gedownload
een site, omdat Wget niet kan zeggen dat de local X.html bestand komt overeen met externe URL X
(omdat het nog niet weet dat de URL uitvoer van het type text / html or
application / xhtml + xml.

Vanaf versie 1.12 zorgt Wget er ook voor dat alle gedownloade bestanden van het type tekst/css
eindigen op het achtervoegsel . Css, en de optie is hernoemd van --html-extensie, verbeteren
weerspiegelt zijn nieuwe gedrag. De oude optienaam is nog steeds acceptabel, maar zou dat nu moeten zijn
als afgekeurd beschouwd.

Op een bepaald moment in de toekomst kan deze optie worden uitgebreid met achtervoegsels voor
andere soorten inhoud, inclusief inhoudstypen die niet door Wget worden geparseerd.

--http-gebruiker=gebruiker
--http-wachtwoord=wachtwoord
Geef de gebruikersnaam op gebruiker en wachtwoord wachtwoord op een HTTP-server. Volgens de
type van de uitdaging, zal Wget ze coderen met behulp van ofwel de "basic" (onveilige), de
"digest", of het Windows "NTLM" authenticatieschema.

Een andere manier om de gebruikersnaam en het wachtwoord op te geven, is in de URL zelf. Welke methode dan ook
onthult uw wachtwoord aan iedereen die de moeite neemt om "ps" uit te voeren. Om de wachtwoorden te voorkomen
zodat ze niet gezien worden, berg ze op .wgetrc or .netrc, en zorg ervoor dat u die bestanden beschermt
van andere gebruikers met "chmod". Als de wachtwoorden echt belangrijk zijn, ga dan niet weg
ze liggen ook in die bestanden --- bewerk de bestanden en verwijder ze nadat Wget het heeft gedaan
begon met downloaden.

--geen-http-keep-alive
Schakel de "keep-alive"-functie voor HTTP-downloads uit. Normaal gesproken vraagt ​​Wget de server
om de verbinding open te houden zodat, wanneer u meer dan één document downloadt van de
dezelfde server, worden ze overgedragen via dezelfde TCP-verbinding. Dit bespaart tijd en
vermindert tegelijkertijd de belasting van de server.

Deze optie is handig wanneer om de een of andere reden persistente (keep-alive) verbindingen dat niet doen
voor u werken, bijvoorbeeld vanwege een serverbug of vanwege het onvermogen van server-side
scripts om met de verbindingen om te gaan.

--geen cache
Schakel server-side cache uit. In dit geval zal Wget de externe server een
toepasselijke richtlijn (Pragma: no-cache) om het bestand van de externe service op te halen,
in plaats van de gecachte versie terug te sturen. Dit is vooral handig bij het ophalen
en het verwijderen van verouderde documenten op proxyservers.

Caching is standaard toegestaan.

--geen koekjes
Schakel het gebruik van cookies uit. Cookies zijn een mechanisme voor het onderhoud aan de serverzijde
staat. De server stuurt de client een cookie met behulp van de "Set-Cookie"-header, en de
klant reageert met dezelfde cookie op verdere verzoeken. Aangezien cookies de
servereigenaren om bezoekers bij te houden en voor sites om deze informatie uit te wisselen,
sommigen beschouwen ze als een inbreuk op de privacy. Standaard wordt gebruik gemaakt van cookies; Echter,
bewaartemperatuur cookies staat standaard niet aan.

--laad-cookies filet
Laad cookies van filet vóór de eerste HTTP-ophaalactie. filet is een tekstbestand in de
formaat oorspronkelijk gebruikt door Netscape's cookies.txt bestand.

U zult deze optie meestal gebruiken bij het mirroren van sites waarvoor u moet zijn
ingelogd om toegang te krijgen tot een deel of al hun inhoud. Het inlogproces werkt meestal
door de webserver die een HTTP-cookie uitgeeft bij ontvangst en verificatie van uw
referenties. De cookie wordt dan opnieuw verzonden door de browser bij toegang tot dat deel van de
site, en bewijst zo uw identiteit.

Het spiegelen van een dergelijke site vereist dat Wget dezelfde cookies verzendt als uw browser verzendt
communiceren met de site. Dit wordt bereikt door --laad-cookies---wijs gewoon Wget aan
naar de locatie van de cookies.txt bestand, en het zal dezelfde cookies uw
browser in dezelfde situatie zou verzenden. Verschillende browsers houden tekstuele cookies bij
bestanden op verschillende locaties:

"Netscape 4.x."
De koekjes zijn binnen ~/.netscape/cookies.txt.

"Mozilla en Netscape 6.x."
Het cookiebestand van Mozilla wordt ook genoemd cookies.txt, ergens onder
~/.mozilla, in de directory van uw profiel. Het volledige pad eindigt meestal
een beetje lijken op ~/.mozilla/default/some-rare-string/cookies.txt.

"Internet Explorer."
U kunt een cookiebestand maken dat Wget kan gebruiken door het menu Bestand, Importeren en
Exporteer, exporteer cookies. Dit is getest met Internet Explorer 5; Het is niet
werkt gegarandeerd met eerdere versies.

"Andere browsers."
Als u een andere browser gebruikt om uw cookies aan te maken, --laad-cookies wil
werken alleen als u een cookiebestand in het Netscape-formaat kunt vinden of produceren dat
Wget verwacht.

Als u niet kunt gebruiken --laad-cookies, misschien is er nog een alternatief. Als jouw
browser ondersteunt een "cookiemanager", u kunt deze gebruiken om de gebruikte cookies te bekijken wanneer
toegang tot de site die u spiegelt. Noteer de naam en waarde van de cookie, en
handmatig Wget instrueren om die cookies te verzenden, waarbij de "officiële" cookie-ondersteuning wordt omzeild:

wget --no-cookies --header "Cookie: = "

--bewaar-cookies filet
Bewaar cookies op filet voor het verlaten. Hiermee worden geen cookies opgeslagen die zijn verlopen of
die geen vervaltijd hebben (zogenaamde "sessiecookies"), maar ook zien
--bewaar-sessie-cookies.

--bewaar-sessie-cookies
Indien gespecificeerd, oorzaken --bewaar-cookies om ook sessiecookies op te slaan. Sessie cookies
worden normaal gesproken niet opgeslagen omdat ze bedoeld zijn om in het geheugen te worden bewaard en wanneer te worden vergeten
je verlaat de browser. Het opslaan ervan is handig op sites waarvoor u zich moet aanmelden of aanmelden
bezoek de startpagina voordat u toegang krijgt tot sommige pagina's. Met deze optie kunnen meerdere Wget
runs worden wat de site betreft beschouwd als een enkele browsersessie.

Aangezien het cookiebestandsformaat normaal gesproken geen sessiecookies bevat, markeert Wget ze
met een vervaltijdstempel van 0. Wget's --laad-cookies herkent deze als sessie
cookies, maar het kan andere browsers verwarren. Houd er ook rekening mee dat cookies die zo worden geladen, dat wel zullen doen
worden behandeld als andere sessiecookies, wat betekent dat als u dat wilt --bewaar-cookies naar
bewaar ze opnieuw, je moet gebruiken --bewaar-sessie-cookies weer.

--negeer-lengte
Helaas zenden sommige HTTP-servers (om precies te zijn CGI-programma's) nep uit
"Content-Length" headers, waardoor Wget wild wordt, omdat het niet het hele document denkt
werd opgehaald. U kunt dit syndroom herkennen als Wget opnieuw probeert hetzelfde document op te halen
keer op keer, telkens bewerend dat de (verder normale) verbinding verbroken is
op dezelfde byte.

Met deze optie negeert Wget de header "Content-Length" --- alsof dat nooit het geval is
bestonden.

--koptekst=kopregel
Verzenden kopregel samen met de rest van de headers in elk HTTP-verzoek. De
geleverde header wordt verzonden zoals het is, wat betekent dat het naam en waarde moet bevatten, gescheiden door
dubbele punt en mag geen nieuwe regels bevatten.

U kunt meer dan één extra koptekst definiëren door op te geven --koptekst meerdere keren.

wget --header='Accepteer tekenset: iso-8859-2' \
--header='Accepteer-Taal: hr' \
http://fly.srk.fer.hr/

Specificatie van een lege tekenreeks als de koptekstwaarde wist alle vorige gebruikers-
gedefinieerde koppen.

Vanaf Wget 1.10 kan deze optie worden gebruikt om anders gegenereerde headers te overschrijven
automatisch. Dit voorbeeld instrueert Wget om verbinding te maken met localhost, maar om op te geven
foo.bar in de kop "Host":

wget --header="Host: foo.bar" http://localhost/

In versies van Wget ouder dan 1.10 is dergelijk gebruik van --koptekst veroorzaakte het verzenden van een duplicaat
koppen.

--max-omleiding=aantal
Specificeert het maximum aantal omleidingen dat moet worden gevolgd voor een resource. De standaardwaarde is
20, wat meestal veel meer is dan nodig is. Echter, bij die gelegenheden waar u
meer (of minder) wilt toestaan, is dit de optie om te gebruiken.

--proxy-gebruiker=gebruiker
--proxy-wachtwoord=wachtwoord
Geef de gebruikersnaam op gebruiker en wachtwoord wachtwoord voor authenticatie op een proxyserver.
Wget zal ze coderen met behulp van het "basis" authenticatieschema.

Beveiligingsoverwegingen vergelijkbaar met die met --http-wachtwoord horen hier ook bij.

--verwijzer=url
Voeg `Verwijzer: url' header in HTTP-verzoek. Handig om documenten mee op te halen
server-side verwerking die ervan uitgaat dat ze altijd worden opgehaald door interactief web
browsers en komen alleen goed uit als Referer is ingesteld op een van de pagina's die verwijzen
naar hen.

--save-headers
Sla de headers op die door de HTTP-server naar het bestand zijn verzonden, voorafgaand aan de daadwerkelijke inhoud,
met een lege regel als scheidingsteken.

-U agent-tekenreeks
--user-agent=agent-tekenreeks
Identificeren als agent-tekenreeks naar de HTTP-server.

Het HTTP-protocol stelt de klanten in staat zich te identificeren met behulp van een "User-Agent"
koptekst veld. Dit maakt het mogelijk om de WWW-software te onderscheiden, meestal voor statistische doeleinden
doeleinden of voor het opsporen van protocolschendingen. Wget identificeert normaal gesproken als
Wget/versie, versie zijnde het huidige versienummer van Wget.

Van sommige sites is echter bekend dat ze het beleid opleggen om de output aan te passen
volgens de door de "User-Agent" verstrekte informatie. Terwijl dit nog niet zo'n gek idee is
in theorie is het misbruikt door servers die informatie weigeren aan andere klanten dan
(historisch) Netscape of, vaker, Microsoft Internet Explorer. Deze optie
stelt u in staat om de regel "User-Agent" van Wget te wijzigen. Gebruik van deze optie is
ontmoedigd, tenzij je echt weet wat je doet.

Lege user-agent specificeren met --user-agent="" instrueert Wget om het
"User-Agent"-header in HTTP-verzoeken.

--post-gegevens=snaar
--post-bestand=filet
Gebruik POST als methode voor alle HTTP-verzoeken en verzend de gespecificeerde gegevens in de
lichaam aanvragen. --post-gegevens verzendt snaar als gegevens, terwijl --post-bestand stuurt de
inhoud van filet. Verder werken ze op precies dezelfde manier. In het bijzonder,
ze zowel verwacht inhoud van de vorm "sleutel1=waarde1&sleutel2=waarde2", met procentcodering
voor speciale tekens; het enige verschil is dat men de inhoud verwacht als een
opdrachtregelparameter en de andere accepteert de inhoud van een bestand. In het bijzonder,
--post-bestand is niet voor het verzenden van bestanden als formulierbijlagen: deze moeten verschijnen als
"sleutel=waarde"-gegevens (met de juiste percentagecodering) net als al het andere. Wget
ondersteunt momenteel geen "multipart/form-data" voor het verzenden van POST-gegevens; alleen
"application/x-www-form-urlencoded". Slechts een van --post-gegevens en --post-bestand moet
gespecificeerd.

Houd er rekening mee dat wget niet vereist dat de inhoud van het formulier is
"key1=value1&key2=value2", en er wordt ook niet op getest. Wget zal gewoon verzenden
welke gegevens er ook aan worden verstrekt. De meeste servers verwachten echter dat de POST-gegevens binnen zijn
het bovenstaande formaat bij het verwerken van HTML-formulieren.

Bij het verzenden van een POST-verzoek met behulp van de --post-bestand optie behandelt Wget het bestand als een
binair bestand en zal elk teken in het POST-verzoek verzenden zonder te strippen
achterliggende nieuwe regel- of formfeed-tekens. Alle andere controletekens in de tekst zullen dat wel doen
ook worden verzonden zoals het is in het POST-verzoek.

Houd er rekening mee dat Wget van tevoren de grootte van de POST-gegevens moet weten.
Daarom moet het argument voor "--post-file" een regulier bestand zijn; specificeren van een FIFO of
zoiets als /dev/stdin zal niet werken. Het is niet helemaal duidelijk hoe hier omheen te werken
beperking inherent aan HTTP/1.0. Hoewel HTTP/1.1 introduceert in stukken gesneden dat overdragen
vereist niet dat de lengte van het verzoek vooraf bekend is, een client kan chunked niet gebruiken
tenzij het weet dat het met een HTTP/1.1-server praat. En het kan dat niet weten totdat het
ontvangt een antwoord, wat op zijn beurt vereist dat het verzoek is voltooid -- a
kip-en-ei probleem.

Opmerking: vanaf versie 1.15 als Wget wordt omgeleid nadat het POST-verzoek is voltooid,
het gedrag ervan hangt af van de responscode die door de server wordt geretourneerd. In het geval van een
301 Permanent verplaatst, 302 Tijdelijk verplaatst of 307 Tijdelijk omgeleid, Wget zal, in
in overeenstemming met RFC2616, doorgaan met het verzenden van een POST-verzoek. In het geval dat een server de
client om de Request-methode bij omleiding te wijzigen, moet deze een 303 See Other verzenden
Reactiecode.

Dit voorbeeld laat zien hoe u met POST inlogt op een server en vervolgens doorgaat met downloaden
de gewenste pagina's, vermoedelijk alleen toegankelijk voor geautoriseerde gebruikers:

# Log in op de server. Dit kan maar één keer.
wget --save-cookies cookies.txt \
--post-data 'user=foo&password=bar' \
http://server.com/auth.php

# Pak nu de pagina of pagina's waar we om geven.
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php

Als de server sessiecookies gebruikt om gebruikersauthenticatie bij te houden, zal het bovenstaande dat doen
niet werken omdat --bewaar-cookies zal ze niet opslaan (en browsers ook niet) en de
cookies.txt bestand zal leeg zijn. Gebruik in dat geval --bewaar-sessie-cookies met
--bewaar-cookies om het opslaan van sessiecookies te forceren.

--methode=HTTP-methode
Voor RESTful-scripting staat Wget het verzenden van andere HTTP-methoden toe
zonder de noodzaak om ze expliciet in te stellen met behulp van --header=Kopregel. Wget zal gebruiken
welke string er daarna aan wordt doorgegeven --methode als de HTTP-methode naar de server.

--lichaamsgegevens=Gegevensreeks
--body-bestand=Data bestand
Moet worden ingesteld wanneer aanvullende gegevens samen met de methode naar de server moeten worden verzonden
gespecificeerd gebruiken --methode. --lichaamsgegevens verzendt snaar als gegevens, terwijl --body-bestand verzendt
de inhoud van filet. Verder werken ze op precies dezelfde manier.

Momenteel --body-bestand is niet voor het verzenden van bestanden als geheel. Wget niet
ondersteunt momenteel "multipart/form-data" voor het verzenden van gegevens; alleen
"application/x-www-form-urlencoded". In de toekomst kan dit worden gewijzigd zodat wget
stuurt de --body-bestand als een compleet bestand in plaats van de inhoud naar het
server. Houd er rekening mee dat Wget de inhoud van BODY-gegevens van tevoren moet weten,
en vandaar het argument om --body-bestand zou een regulier bestand moeten zijn. Zien --post-bestand voor een
uitgebreidere uitleg. Slechts een van --lichaamsgegevens en --body-bestand moet
gespecificeerd.

Als Wget wordt omgeleid nadat het verzoek is voltooid, zal Wget de huidige opschorten
methode en stuur een GET-verzoek totdat de omleiding is voltooid. Dit geldt voor iedereen
omleidingsantwoordcodes behalve 307 Tijdelijke omleiding die expliciet wordt gebruikt
specificeer dat de aanvraagmethode moet niet wijziging. Een andere uitzondering is wanneer de
methode is ingesteld op "POST", in welk geval de omleidingsregels gespecificeerd onder
--post-gegevens worden gevolgd.

--content-dispositie
Als dit is ingeschakeld, wordt experimentele (niet volledig functionele) ondersteuning voor
"Content-Disposition"-headers zijn ingeschakeld. Dit kan op dit moment resulteren in extra rond-
gaat naar de server voor een "HEAD"-verzoek, en het is bekend dat het last heeft van een paar bugs,
daarom is het momenteel niet standaard ingeschakeld.

Deze optie is handig voor sommige CGI-programma's voor het downloaden van bestanden die gebruikmaken van
"Content-Disposition"-headers om te beschrijven wat de naam van een gedownload bestand zou moeten zijn
worden.

--inhoud-op-fout
Als dit is ingeschakeld, zal wget de inhoud niet overslaan wanneer de server reageert met een
http-statuscode die een fout aangeeft.

--trust-servernamen
Als dit is ingeschakeld, wordt bij een omleiding het laatste onderdeel van de omleidings-URL weergegeven
gebruikt als de lokale bestandsnaam. Standaard wordt het laatste onderdeel in het origineel gebruikt
URL.

--auth-geen-uitdaging
Als deze optie wordt gegeven, zal Wget Basic HTTP-authenticatie-informatie verzenden
(plaintext gebruikersnaam en wachtwoord) voor alle verzoeken, net als Wget 1.10.2 en ouder
deed het standaard.

Het gebruik van deze optie wordt niet aanbevolen en is alleen bedoeld om enkele te ondersteunen
obscure servers, die nooit HTTP-authenticatie-uitdagingen verzenden, maar accepteren
ongevraagde authenticatie-informatie, bijvoorbeeld, naast op formulieren gebaseerde authenticatie.

HTTPS (SSL/TLS) Opties
Om versleutelde HTTP (HTTPS)-downloads te ondersteunen, moet Wget worden gecompileerd met een externe SSL
bibliotheek. De huidige standaard is GnuTLS. Daarnaast ondersteunt Wget ook HSTS (HTTP Strict
Transportbeveiliging). Als Wget is gecompileerd zonder SSL-ondersteuning, is geen van deze opties dat
beschikbaar.

--beveiligd-protocol=protocol
Kies het te gebruiken beveiligde protocol. Wettelijke waarden zijn auto, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 en PFS. Indien auto wordt gebruikt, krijgt de SSL-bibliotheek de vrijheid van
automatisch het juiste protocol kiezen, wat wordt bereikt door een TLSv1
groet. Dit is de standaardinstelling.

opgeven SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 dwingt het gebruik van de corresponderende
protocol. Dit is handig wanneer u praat met oude en foutieve SSL-serverimplementaties
die het voor de onderliggende SSL-bibliotheek moeilijk maken om het juiste protocol te kiezen
versie. Gelukkig zijn dergelijke servers vrij zeldzaam.

opgeven PFS dwingt het gebruik van het zogenaamde Perfect Forward Security-cijfer af
suites. Kortom, PFS voegt beveiliging toe door voor elke SSL een eenmalige sleutel te maken
verbinding. Het heeft een beetje meer CPU-impact op client en server. We gebruiken bekend te zijn
veilige cijfers (bijv. geen MD4) en het TLS-protocol.

--Alleen https
In de recursieve modus worden alleen HTTPS-links gevolgd.

- no-check-certificaat
Vergelijk het servercertificaat niet met de beschikbare certificeringsinstanties.
Vereist ook niet dat de URL-hostnaam overeenkomt met de algemene naam die wordt gepresenteerd door de
certificaat.

Vanaf Wget 1.10 is de standaardinstelling om het certificaat van de server te verifiëren aan de hand van de
erkende certificaatautoriteiten, het verbreken van de SSL-handshake en het afbreken van de
downloaden als de verificatie mislukt. Hoewel dit zorgt voor veiligere downloads, is het
verbreekt de interoperabiliteit met sommige sites die werkten met eerdere Wget-versies,
met name degenen die zelfondertekende, verlopen of anderszins ongeldige certificaten gebruiken.
Deze optie dwingt een "onveilige" werkingsmodus af die het certificaat verandert
verificatiefouten in waarschuwingen en stelt u in staat om verder te gaan.

Als u 'certificaatverificatie'-fouten tegenkomt of fouten die zeggen dat 'algemene naam
komt niet overeen met aangevraagde hostnaam", kunt u deze optie gebruiken om de verificatie te omzeilen
en ga verder met downloaden. Alleen . dit optie if u zijn anders- overtuigd of
de site's authenticiteit, or if u werkelijk niet verzorging over ons de deugdelijkheid of haar
certificaat. Het is bijna altijd een slecht idee om de certificaten wanneer niet te controleren
het verzenden van vertrouwelijke of belangrijke gegevens. Voor zelfondertekende/interne certificaten,
u moet het certificaat downloaden en daarmee verifiëren in plaats van dit te forceren
onveilige modus. Als u er echt zeker van bent dat u geen certificaatverificatie wenst,
u kunt --check-certificate=quiet specificeren om wget te vertellen geen waarschuwing af te drukken
ongeldige certificaten, hoewel dit in de meeste gevallen verkeerd is om te doen.

--certificaat=filet
Gebruik het clientcertificaat dat is opgeslagen in filet. Dit is nodig voor servers die dat wel zijn
geconfigureerd om certificaten te vereisen van de clients die er verbinding mee maken. Normaal gesproken een
certificaat is niet vereist en deze switch is optioneel.

--certificaattype= type dan:
Geef het type van het clientcertificaat op. Wettelijke waarden zijn PEM (standaard verondersteld)
en DER, ook gekend als ASN1.

--private-sleutel=filet
Lees de privésleutel van filet. Hiermee kunt u de privésleutel in een bestand opgeven
gescheiden van het certificaat.

--privé-sleuteltype= type dan:
Geef het type van de persoonlijke sleutel op. Geaccepteerde waarden zijn PEM (de standaard) en DER.

--ca-certificaat=filet
Te gebruiken filet als het bestand met de bundel certificeringsinstanties ("CA") om de
leeftijdsgenoten. De certificaten moeten in PEM-formaat zijn.

Zonder deze optie zoekt Wget naar CA-certificaten op de door het systeem gespecificeerde locaties,
gekozen tijdens de installatie van OpenSSL.

--ca-map=directory
Specificeert de map met CA-certificaten in PEM-indeling. Elk bestand bevat er een
CA-certificaat en de bestandsnaam is gebaseerd op een hash-waarde die is afgeleid van de
certificaat. Dit wordt bereikt door een certificaatdirectory te verwerken met de
Hulpprogramma "c_rehash" geleverd bij OpenSSL. Gebruik makend van --ca-map is efficiënter dan
--ca-certificaat wanneer er veel certificaten zijn geïnstalleerd omdat Wget hiermee kan ophalen
certificaten op aanvraag.

Zonder deze optie zoekt Wget naar CA-certificaten op de door het systeem gespecificeerde locaties,
gekozen tijdens de installatie van OpenSSL.

--crl-bestand=filet
Specificeert een CRL-bestand in filet. Dit is nodig voor certificaten die zijn geweest
ingetrokken door de CA's.

--willekeurig-bestand=filet
[Alleen OpenSSL en LibreSSL] Gebruiken filet als de bron van willekeurige gegevens voor het zaaien van de
pseudo-random number generator op systemen zonder / Dev / urandom.

Op dergelijke systemen heeft de SSL-bibliotheek een externe bron van willekeur nodig om te initialiseren.
Willekeurigheid kan worden geleverd door EGD (zie --egd-bestand hieronder) of lezen van een externe
bron opgegeven door de gebruiker. Als deze optie niet is opgegeven, zoekt Wget naar willekeurig
gegevens in $RANDFILE of, als dat niet is ingesteld, in $HOME/.rnd.

Als u de melding "Could not seed OpenSSL PRNG; SSL uitschakelen" krijgt. fout, dat zou je moeten doen
willekeurige gegevens verstrekken met behulp van enkele van de hierboven beschreven methoden.

--egd-bestand=filet
[Alleen OpenSSL] Gebruiken filet als de EGD-aansluiting. EGD staat voor Entropy Verzameling Demon, een
user-space programma dat gegevens verzamelt van verschillende onvoorspelbare systeembronnen en
maakt het beschikbaar voor andere programma's die het mogelijk nodig hebben. Versleutelingssoftware, zoals
de SSL-bibliotheek heeft bronnen van niet-herhalende willekeur nodig om het willekeurige nummer te zaaien
generator die wordt gebruikt om cryptografisch sterke sleutels te produceren.

Met OpenSSL kan de gebruiker zijn eigen bron van entropie specificeren met behulp van de "RAND_FILE"
omgevingsvariabele. Als deze variabele niet is ingesteld, of als het opgegeven bestand dat niet doet
voldoende willekeur produceert, zal OpenSSL willekeurige gegevens uit de opgegeven EGD-socket lezen
deze optie gebruiken.

Als deze optie niet is opgegeven (en de equivalente opstartopdracht niet wordt gebruikt), wordt EGD
wordt nooit gecontacteerd. EGD is niet nodig op moderne Unix-systemen die ondersteuning bieden
/ Dev / urandom.

--geen-hsts
Wget ondersteunt standaard HSTS (HTTP Strict Transport Security, RFC 6797). Gebruik
--geen-hsts om Wget te laten fungeren als een niet-HSTS-compatibele UA. Als gevolg daarvan zou Wget
negeer alle "Strict-Transport-Security"-headers en dwing bestaande niet af
HSTS-beleid.

--hsts-bestand=filet
Standaard slaat Wget zijn HSTS-database op in ~/.wget-hsts. U kunt gebruik maken van --hsts-bestand naar
overschrijf dit. Wget zal het aangeleverde bestand gebruiken als de HSTS-database. Zo'n bestand moet
voldoen aan het juiste HSTS-databaseformaat dat wordt gebruikt door Wget. Als Wget het
verstrekt bestand, is het gedrag niet gespecificeerd.

De HSTS-database van Wget is een gewoon tekstbestand. Elke regel bevat een HSTS-invoer (d.w.z. een
site die een "Strict-Transport-Security"-header heeft uitgegeven en die daarom heeft
specificeerde een concreet toe te passen HSTS-beleid). Regels die beginnen met een streepje ("#") zijn
genegeerd door Wget. Houd er rekening mee dat ondanks deze handige menselijke leesbaarheid hand-
het hacken van de HSTS-database is over het algemeen geen goed idee.

Een HSTS-invoerregel bestaat uit meerdere velden gescheiden door een of meer spaties:

" SP [ ] SP SP SP "

De hostname en port velden geven de hostnaam en poort aan waarnaar de gegeven HSTS
beleid van toepassing is. De port veld kan nul zijn, en dat zal in de meeste gevallen ook zo zijn. Dat
betekent dat het poortnummer niet in aanmerking wordt genomen bij de beslissing of dit wel of niet het geval is
HSTS-beleid moet worden toegepast op een bepaald verzoek (alleen de hostnaam is
geëvalueerd). Wanneer port verschilt van nul, zullen zowel de doelhostnaam als de poort dat doen
worden geëvalueerd en het HSTS-beleid wordt alleen toegepast als beide overeenkomen. Dit
functie is alleen opgenomen voor test-/ontwikkelingsdoeleinden. De Wget-testsuite
(In testenv/) creëert HSTS-databases met expliciete poorten met als doel ervoor te zorgen
Het juiste gedrag van Wget. HSTS-beleid toepassen op andere poorten dan de standaardpoorten
wordt afgeraden door RFC 6797 (zie appendix B "Verschillen tussen HSTS-beleid en Same-
Origin Policy"). Deze functionaliteit mag dus niet in productie worden gebruikt
omgevingen en port zal doorgaans nul zijn. De laatste drie velden doen wat ze zijn
naar verwachting. Het veld include_subdomeinen kan 1 of 0 zijn en geeft aan of
de subdomeinen van het doeldomein moeten ook deel uitmaken van het gegeven HSTS-beleid.
De aangemaakt en max-leeftijd velden bevatten de tijdstempelwaarden van wanneer een dergelijke invoer was
gemaakt (voor het eerst gezien door Wget) en de HSTS-gedefinieerde waarde 'max-age', waarin staat hoe
lang moet dat HSTS-beleid actief blijven, gemeten in seconden die zijn verstreken sinds de
tijdstempel opgeslagen aangemaakt. Als die tijd eenmaal is verstreken, zal dat HSTS-beleid nee zijn
langer geldig en zullen uiteindelijk uit de database worden verwijderd.

Als u uw eigen HSTS-database aanlevert via --hsts-bestand, houd er rekening mee dat Wget kan wijzigen
het verstrekte bestand als er een wijziging optreedt tussen de HSTS-beleidsregels die zijn aangevraagd door de
externe servers en die in het bestand. Wanneer Wget bestaat, wordt het
HSTS-database door het databasebestand te herschrijven met de nieuwe items.

Als het geleverde bestand niet bestaat, zal Wget er een maken. Dit bestand zal de
nieuwe HSTS-items. Als er geen HSTS-vermeldingen zijn gegenereerd (geen "Strict-Transport-Security"
headers zijn verzonden door een van de servers), dan wordt er geen bestand gemaakt, zelfs geen
lege. Dit gedrag is van toepassing op het standaarddatabasebestand (~/.wget-hsts) ook:
het wordt pas gemaakt als een server een HSTS-beleid afdwingt.

Er wordt voor gezorgd dat eventuele wijzigingen die zijn aangebracht door andere Wget-processen op de
tegelijkertijd via de HSTS-database. Voordat u de bijgewerkte HSTS-vermeldingen in het bestand dumpt,
Wget zal het opnieuw lezen en de wijzigingen samenvoegen.

Het gebruik van een aangepaste HSTS-database en/of het wijzigen van een bestaande wordt afgeraden. Voor
meer informatie over de potentiële beveiligingsbedreigingen die uit dergelijke praktijken voortvloeien, zie
sectie 14 "Beveiligingsoverwegingen" van RFC 6797, in het bijzonder sectie 14.9 "Creatieve
Manipulatie van HSTS Policy Store".

--warc-bestand=filet
Te gebruiken filet als het bestemmings-WARC-bestand.

--warc-header=snaar
Te gebruiken snaar in als het warcinfo-record.

--warc-max-grootte=grootte
Stel de maximale grootte van de WARC-bestanden in op grootte.

--warc-cdx
Schrijf CDX-indexbestanden.

--warc-gedup=filet
Sla geen records op die in dit CDX-bestand worden vermeld.

--geen-warc-compressie
Comprimeer geen WARC-bestanden met GZIP.

--geen-warc-samenvattingen
Bereken geen SHA1-samenvattingen.

--no-warc-keep-logboek
Sla het logbestand niet op in een WARC-record.

--warc-tempdir=dir
Geef de locatie op voor tijdelijke bestanden die zijn gemaakt door de WARC-schrijver.

FTP Opties
--ftp-gebruiker=gebruiker
--ftp-wachtwoord=wachtwoord
Geef de gebruikersnaam op gebruiker en wachtwoord wachtwoord op een FTP-server. Zonder dit, of
de overeenkomstige opstartoptie, wordt het wachtwoord standaard ingesteld op -wget@, normaal gebruikt voor
anonieme ftp.

Een andere manier om de gebruikersnaam en het wachtwoord op te geven, is in de URL zelf. Welke methode dan ook
onthult uw wachtwoord aan iedereen die de moeite neemt om "ps" uit te voeren. Om de wachtwoorden te voorkomen
zodat ze niet gezien worden, berg ze op .wgetrc or .netrc, en zorg ervoor dat u die bestanden beschermt
van andere gebruikers met "chmod". Als de wachtwoorden echt belangrijk zijn, ga dan niet weg
ze liggen ook in die bestanden --- bewerk de bestanden en verwijder ze nadat Wget het heeft gedaan
begon met downloaden.

--geen-verwijder-lijst
Verwijder de tijdelijke niet .vermelding bestanden gegenereerd door FTP-ophaalacties. Normaal gesproken,
deze bestanden bevatten de onbewerkte directoryvermeldingen die zijn ontvangen van FTP-servers. Niet
het verwijderen ervan kan handig zijn voor foutopsporingsdoeleinden, of wanneer u dat wilt
controleer eenvoudig de inhoud van externe servermappen (bijvoorbeeld om te verifiëren dat een
mirror die u uitvoert is voltooid).

Merk op dat hoewel Wget naar een bekende bestandsnaam voor dit bestand schrijft, dit geen
beveiligingslek in het scenario van een gebruiker .vermelding een symbolische link naar / Etc / passwd
of zoiets en vraagt ​​"root" om Wget in zijn of haar map uit te voeren. Afhankelijk van
opties gebruikt, zal Wget weigeren om naar te schrijven .vermelding, Het maken van
globbing/recursie/tijdstempelbewerking mislukt of de symbolische koppeling wordt verwijderd
en vervangen door de werkelijke .vermelding -bestand, of de lijst wordt naar een
.listingnummer bestand.

Ook al is deze situatie geen probleem, "root" zou Wget nooit in een
directory van niet-vertrouwde gebruikers. Een gebruiker kan zoiets eenvoudigs doen als linken
index.html naar / Etc / passwd en "root" vragen om Wget mee uit te voeren -N or -r dus het bestand zal
overschreven worden.

--geen-glob
Schakel FTP-globbing uit. Globbing verwijst naar het gebruik van shell-achtige speciale tekens
(wildcards), Leuk vinden *, ?, [ en ] om meer dan één bestand uit dezelfde map op te halen
ineens, zoals:

wget ftp://gnjilux.srk.fer.hr/*.bericht

Globbing is standaard ingeschakeld als de URL een globbing-teken bevat. Dit
optie kan worden gebruikt om globbing permanent in of uit te schakelen.

Mogelijk moet u de URL citeren om te voorkomen dat deze wordt uitgebreid door uw shell.
Globbing zorgt ervoor dat Wget zoekt naar een directorylijst, die systeemspecifiek is. Dit is
waarom het momenteel alleen werkt met Unix FTP-servers (en degenen die Unix "ls" emuleren
uitgang).

--geen-passieve-ftp
Schakel het gebruik van de passief FTP-overdrachtsmodus. Passieve FTP schrijft voor dat de
client verbinding maken met de server om de gegevensverbinding tot stand te brengen in plaats van de andere
manier rond.

Als de machine rechtstreeks met internet is verbonden, zowel passieve als actieve FTP
zou even goed moeten werken. Achter de meeste firewall- en NAT-configuraties zit passieve FTP
meer kans op werk. In sommige zeldzame firewallconfiguraties is actieve FTP echter actief
werkt eigenlijk als passieve FTP dat niet doet. Als u vermoedt dat dit het geval is, gebruik dit dan
optie, of zet "passive_ftp=off" in je init-bestand.

--behoud-machtigingen
Behoud externe bestandsmachtigingen in plaats van machtigingen ingesteld door umask.

--retr-symlinks
Standaard wordt bij het recursief ophalen van FTP-mappen een symbolische link gebruikt
aangetroffen, wordt de symbolische link doorlopen en worden de gerichte bestanden opgehaald.
Momenteel doorkruist Wget geen symbolische koppelingen naar mappen om ze te downloaden
recursief, hoewel deze functie in de toekomst kan worden toegevoegd.

. --retr-symlinks=nee is opgegeven, wordt het gekoppelde bestand niet gedownload. In plaats van,
er wordt een bijpassende symbolische link gemaakt op het lokale bestandssysteem. Het gerichte bestand zal
niet worden opgehaald, tenzij dit recursieve ophalen het afzonderlijk zou zijn tegengekomen
en toch gedownload. Deze optie vormt een beveiligingsrisico wanneer een kwaadwillende FTP
De server kan ervoor zorgen dat Wget schrijft naar bestanden buiten de beoogde mappen via een
speciaal vervaardigd .LISTING-bestand.

Houd er rekening mee dat bij het ophalen van een bestand (geen map) omdat het is opgegeven op de
opdrachtregel, in plaats van omdat er naar is teruggekeerd, heeft deze optie geen effect.
Hierbij worden altijd symbolische links doorlopen.

FTPS Opties
--ftps-impliciet
Deze optie vertelt Wget impliciet FTPS te gebruiken. Impliciete FTPS bestaat uit initialisatie
SSL/TLS vanaf het allereerste begin van de besturingsverbinding. Deze optie verzendt niet
een "AUTH TLS"-commando: het gaat ervan uit dat de server FTPS spreekt en start direct een
SSL/TLS-verbinding. Als de poging slaagt, gaat de sessie gewoon door
gewone FTPS ("PBSZ" en "PROT" worden verzonden, enz.). Impliciete FTPS is niet langer een
vereiste voor FTPS-implementaties, en daarom ondersteunen veel servers dit mogelijk niet. Als
--ftps-impliciet wordt doorgegeven en er geen expliciet poortnummer is opgegeven, de standaardpoort voor
impliciete FTPS, 990, zal worden gebruikt in plaats van de standaardpoort voor de "normale"
(expliciet) FTPS wat hetzelfde is als dat van FTP, 21.

--no-ftps-cv-ssl
Hervat de SSL/TLS-sessie in het datakanaal niet. Bij het starten van een data
verbinding probeert Wget de SSL/TLS-sessie te hervatten die eerder in het besturingselement is gestart
verbinding. Hervatting van de SSL/TLS-sessie vermijdt het uitvoeren van een geheel nieuwe handshake door
hergebruik van de SSL/TLS-parameters van een vorige sessie. Meestal willen de FTPS-servers
het op die manier, dus Wget doet dit standaard. Onder zeldzame omstandigheden kan dat echter wel
in elke dataverbinding een geheel nieuwe SSL/TLS-sessie wilt starten. Dit is wat
--no-ftps-cv-ssl is voor.

--ftps-clear-data-verbinding
Alle gegevensverbindingen zijn in platte tekst. Alleen de besturingsverbinding zal zijn
onder SSL/TLS. Wget zal een "PROT C"-opdracht sturen om dit te bereiken, wat moet zijn
goedgekeurd door de server.

--ftps-terugval-naar-ftp
Terugvallen op FTP als FTPS niet wordt ondersteund door de doelserver. Om veiligheidsredenen,
deze optie wordt niet standaard geactiveerd. Het standaardgedrag is om af te sluiten met een
fout. Als een server niet met succes antwoordt op de initiële "AUTH TLS"-opdracht, of
in het geval van impliciete FTPS, als de initiële SSL/TLS-verbindingspoging wordt afgewezen,
er wordt aangenomen dat een dergelijke server FTPS niet ondersteunt.

Recursieve Ophalen Opties
-r
--recursief
Schakel recursief ophalen in. De standaard maximale diepte is 5.

-l diepte
--niveau=diepte
Specificeer het maximale diepteniveau van de recursie diepte.

--verwijderen-na
Deze optie vertelt Wget om elk bestand dat het downloadt te verwijderen, na dat hebben gedaan.
Het is handig voor het vooraf ophalen van populaire pagina's via een proxy, bijvoorbeeld:

wget -r -nd --verwijderen-na http://whatever.com/~popular/page/

De -r optie is om recursief op te halen, en -nd om geen mappen te maken.

Merk op dat --verwijderen-na verwijdert bestanden op de lokale computer. Het geeft de
DELE opdracht naar bijvoorbeeld externe FTP-sites. Let er ook op wanneer --verwijderen-na is
gespecificeerd, --links converteren wordt genegeerd, dus .oorsprong bestanden worden gewoon niet gemaakt in de
eerste plaats.

-k
--links converteren
Nadat de download is voltooid, converteert u de koppelingen in het document om ze te maken
geschikt voor lokale bezichtiging. Dit heeft niet alleen invloed op de zichtbare hyperlinks, maar op alle
deel van het document dat linkt naar externe inhoud, zoals ingesloten afbeeldingen, links naar
stijlbladen, hyperlinks naar niet-HTML-inhoud, enz.

Elke link wordt op een van de volgende twee manieren gewijzigd:

· De links naar bestanden die zijn gedownload door Wget zullen worden gewijzigd om naar te verwijzen
het bestand waarnaar ze verwijzen als een relatieve link.

Voorbeeld: als het gedownloade bestand /foo/doc.html links naar /bar/img.gif, So
gedownload, dan de link erin doc.html zal worden gewijzigd om naar te verwijzen ../bar/img.gif.
Dit soort transformatie werkt betrouwbaar voor willekeurige combinaties van
directories.

· De links naar bestanden die niet door Wget zijn gedownload, worden gewijzigd in
inclusief hostnaam en absoluut pad van de locatie waarnaar ze verwijzen.

Voorbeeld: als het gedownloade bestand /foo/doc.html links naar /bar/img.gif (of te
../bar/img.gif), dan de link erin doc.html zal worden gewijzigd om naar te verwijzen
http://hostname/bar/img.gif.

Hierdoor werkt lokaal browsen betrouwbaar: als een gekoppeld bestand is gedownload, wordt het
link verwijst naar de lokale naam; als het niet is gedownload, verwijst de link naar
het volledige internetadres in plaats van een verbroken link te presenteren. Het feit dat de
voormalige links worden geconverteerd naar relatieve links zorgt ervoor dat u de gedownloade kunt verplaatsen
hiërarchie naar een andere map.

Merk op dat Wget pas aan het einde van de download kan weten welke links zijn geweest
gedownload. Daarom is het werk gedaan door -k zal aan het einde van alles worden uitgevoerd
de downloads.

--converteer-alleen-bestand
Deze optie converteert alleen het bestandsnaamgedeelte van de URL's en laat de rest van de URL's achter
onaangeroerd. Dit bestandsnaamgedeelte wordt soms de "basisnaam" genoemd, hoewel we
vermijd die term hier om geen verwarring te veroorzaken.

Het werkt bijzonder goed in combinatie met --aanpassen-extensie, Hoewel dit
koppeling wordt niet afgedwongen. Het blijkt handig om internetcaches te vullen met bestanden
gedownload van verschillende hosts.

Voorbeeld: als een link verwijst naar //foo.com/bar.cgi?xyz Met --aanpassen-extensie beweerde
en de lokale bestemming is bedoeld ./foo.com/bar.cgi?xyz.css, dan de link
zou worden omgezet in //foo.com/bar.cgi?xyz.css. Merk op dat alleen het bestandsnaamgedeelte
gewijzigd. De rest van de URL is ongemoeid gelaten, inclusief het netpad
("//") die anders door Wget zouden worden verwerkt en omgezet in het effectieve
schema (d.w.z. "http://").

-K
--back-up-geconverteerd
Maak bij het converteren van een bestand een back-up van de originele versie met een .oorsprong achtervoegsel. Heeft invloed op de
gedrag van -N.

-m
--spiegel
Schakel opties in die geschikt zijn voor spiegeling. Deze optie schakelt recursie en tijd-
stempelen, stelt oneindige recursiediepte in en houdt FTP-directorylijsten bij. Het is
momenteel gelijk aan -r -N -l inf --geen-verwijder-lijst.

-p
--pagina-vereisten
Deze optie zorgt ervoor dat Wget alle bestanden downloadt die nodig zijn om correct te werken
een bepaalde HTML-pagina weergeven. Dit omvat zaken als inline afbeeldingen, geluiden en
verwezen stylesheets.

Gewoonlijk worden bij het downloaden van een enkele HTML-pagina alle vereiste documenten die mogelijk zijn
die nodig zijn om het correct weer te geven, worden niet gedownload. Gebruik makend van -r met -l kan helpen,
maar aangezien Wget gewoonlijk geen onderscheid maakt tussen externe en inline documenten,
men blijft over het algemeen achter met "bladdocumenten" die hun benodigdheden missen.

Zeg bijvoorbeeld document 1.html bevat een " " tagverwijzing 1.gif en een
" " tag wijst naar extern document 2.html. Zeg dat 2.html is vergelijkbaar maar dat
zijn imago is 2.gif en het linkt naar 3.html. Stel dat dit tot op zekere hoogte willekeurig doorgaat
hoog nummer.

Als men het commando uitvoert:

wget -r -l 2 http:// /1.html

harte 1.html, 1.gif, 2.html, 2.gif en 3.html zal worden gedownload. Zoals je kan zien,
3.html is zonder de vereiste 3.gif omdat Wget gewoon het aantal telt
springt (maximaal 2) weg van 1.html om te bepalen waar de recursie moet stoppen.
Echter met dit commando:

wget -r -l 2 -p http:// /1.html

alle bovenstaande bestanden en 3.htmlis vereist 3.gif zal worden gedownload. Evenzo,

wget -r -l 1 -p http:// /1.html

zal veroorzaken 1.html, 1.gif, 2.html en 2.gif te downloaden. Men zou kunnen denken dat:

wget -r -l 0 -p http:// /1.html

zou gewoon downloaden 1.html en 1.gif, maar helaas is dit niet het geval, omdat
-l 0 is gelijk aan -l inf---dat wil zeggen, oneindige recursie. Om een ​​enkele HTML te downloaden
pagina (of een handvol daarvan, allemaal opgegeven op de opdrachtregel of in een -i URL-invoer
bestand) en zijn (of hun) benodigdheden, gewoon laten staan -r en -l:

wget-p http:// /1.html

Merk op dat Wget zich zal gedragen alsof -r was opgegeven, maar alleen die ene pagina en
de benodigdheden zullen worden gedownload. Links van die pagina naar externe documenten zullen dat wel doen
niet gevolgd worden. Eigenlijk, om een ​​enkele pagina en al zijn benodigdheden te downloaden (zelfs als
ze staan ​​op aparte websites), en zorg ervoor dat de kavel lokaal correct wordt weergegeven,
deze auteur gebruikt graag een paar opties naast -p:

wget -E -H -k -K -p http:// /

Om dit onderwerp af te sluiten, is het de moeite waard om te weten dat Wget's idee van een extern document
link is elke URL gespecificeerd in een " " tag, een " " tag, of een " " tag anders
dan " ".

--strikte-opmerkingen
Schakel strikte parsering van HTML-opmerkingen in. De standaard is om opmerkingen te beëindigen op de
eerste optreden van ->.

Volgens de specificaties worden HTML-opmerkingen uitgedrukt als SGML verklaringen.
Declaratie is een speciale opmaak die begint met <! en eindigt met >, zoals <!DOCTYPE
...>, die opmerkingen kan bevatten tussen een paar -- scheidingstekens. HTML-opmerkingen zijn
"lege declaraties", SGML declaraties zonder enige non-commentaar tekst. Daarom,
is een geldige opmerking, en dat is het ook <!--een-- --twee-->, Maar is niet.

Aan de andere kant zien de meeste HTML-schrijvers opmerkingen niet als iets anders dan
tekst afgebakend met <!-- en ->, wat niet helemaal hetzelfde is. Iets bijvoorbeeld
als werkt als een geldige opmerking zolang het aantal streepjes a is
veelvoud van vier (!). Zo niet, dan duurt de opmerking technisch tot de volgende --, welke
mogelijk aan de andere kant van het document. Hierdoor zijn veel populaire browsers
negeer de specificatie volledig en implementeer wat gebruikers gewend zijn:
opmerkingen afgebakend met <!-- en ->.

Tot versie 1.9 interpreteerde Wget opmerkingen strikt, wat resulteerde in ontbrekende links
in veel webpagina's die prima werden weergegeven in browsers, maar de pech hadden
met niet-conforme opmerkingen. Vanaf versie 1.9 heeft Wget zich aangesloten bij de
gelederen van klanten die "naïeve" opmerkingen implementeren en elke opmerking beëindigen bij de
eerste optreden van ->.

Als u om wat voor reden dan ook een strikte parsering van opmerkingen wilt, gebruikt u deze optie om dit om te zetten
op.

Recursieve Accepteren/weigeren Opties
-A toetreden --aanvaarden toetreden
-R opnieuw lijst --afwijzen opnieuw lijst
Specificeer door komma's gescheiden lijsten met achtervoegsels of patronen voor bestandsnamen die u wilt accepteren of weigeren.
Merk op dat als een van de jokertekens, *, ?, [ or ], verschijnen in een element van
toetreden or opnieuw lijst, wordt het behandeld als een patroon in plaats van als een achtervoegsel. In deze
In dat geval moet u het patroon tussen aanhalingstekens plaatsen om te voorkomen dat uw shell uitbreidt
het, zoals in -A "*.mp3" or -A '*.mp3'.

--accepteer-regex urlregex
--reject-regex urlregex
Geef een reguliere expressie op om de volledige URL te accepteren of te weigeren.

--regex-type regextype
Geef het type reguliere expressie op. Mogelijke soorten zijn posix or pcre. Merk op dat naar
kunnen gebruiken pcre type, moet wget worden gecompileerd met libpcre-ondersteuning.

-D domeinlijst
--domeinen=domeinlijst
Stel te volgen domeinen in. domeinlijst is een door komma's gescheiden lijst van domeinen. Opmerking
dat doet het niet aanzetten -H.

--uitsluiten-domeinen domeinlijst
Specificeer de domeinen die dat zijn niet gevolgd worden.

--volg-ftp
Volg FTP-links van HTML-documenten. Zonder deze optie zal Wget alle
FTP-koppelingen.

--volg-tags=lijst
Wget heeft een interne tabel met HTML-tag / attribuutparen die wordt overwogen wanneer
op zoek naar gekoppelde documenten tijdens een recursieve retrieval. Als een gebruiker alleen een
subset van die tags die in overweging moeten worden genomen, maar hij of zij moet dergelijke tags specificeren
in een door komma's gescheiden lijst met deze optie.

--negeer-tags=lijst
Dit is het tegenovergestelde van de --volg-tags keuze. Om bepaalde HTML-tags wanneer over te slaan
recursief op zoek naar documenten om te downloaden, specificeer ze in een door komma's gescheiden lijst.

In het verleden was deze optie de beste keuze voor het downloaden van een enkele pagina en zijn
vereisten, met behulp van een opdrachtregel zoals:

wget --ignore-tags=a,gebied -H -k -K -r http:// /

De auteur van deze optie kwam echter een pagina tegen met tags als "
HREF="/">" en kwam tot het besef dat het specificeren van te negeren tags niet voldoende was.
Je kunt Wget niet gewoon vertellen om te negeren " ", want dan zijn stylesheets dat niet
gedownload. Nu is de beste gok voor het downloaden van een enkele pagina en de bijbehorende vereisten de
toegewijd aan --pagina-vereisten optie.

--negeer zaak
Negeer hoofdletters en kleine letters bij het matchen van bestanden en mappen. Dit beïnvloedt het gedrag van -R,
-A, -I en -X opties, evenals globbing geïmplementeerd bij het downloaden van FTP
sites. Met deze optie kunt u bijv. -A "*.tekst" zal matchen bestand1.txt, maar ook
bestand2.TXT, bestand3.TxT, enzovoort. De aanhalingstekens in het voorbeeld zijn om de shell te voorkomen
van het uitbreiden van het patroon.

-H
--span-hosts
Schakel spanning over hosts in bij recursief ophalen.

-L
--familielid
Volg alleen relatieve links. Handig voor het ophalen van een specifieke startpagina zonder enige
afleidingen, zelfs niet die van dezelfde gastheren.

-I lijst
--include-directories=lijst
Geef een door komma's gescheiden lijst op van mappen die u wilt volgen bij het downloaden.
Elementen van lijst kan jokertekens bevatten.

-X lijst
--exclude-directories=lijst
Geef een door komma's gescheiden lijst op van mappen die u wilt uitsluiten van downloaden.
Elementen van lijst kan jokertekens bevatten.

-bijv
--geen-ouder
Ga nooit naar de bovenliggende directory wanneer u recursief ophaalt. Dit is een
handige optie, omdat het garandeert dat alleen de bestanden onder een bepaalde hiërarchie zal
worden gedownload.

MILIEU


Wget ondersteunt proxy's voor zowel HTTP- als FTP-ophaalacties. De standaardmanier om proxy op te geven
locatie, die Wget herkent, gebruikt de volgende omgevingsvariabelen:

http-proxy
https_proxy
Indien ingesteld, de http-proxy en https_proxy variabelen moeten de URL's van de
proxy's voor respectievelijk HTTP- en HTTPS-verbindingen.

ftp_proxy
Deze variabele moet de URL van de proxy voor FTP-verbindingen bevatten. Het is nogal
gebruikelijk dat http-proxy en ftp_proxy zijn ingesteld op dezelfde URL.

geen_proxy
Deze variabele moet een door komma's gescheiden lijst van domeinextensies bevatten die proxy zou moeten
niet wordt gebruikt voor. Als de waarde van bijv geen_proxy is .mit.edu, proxy niet
worden gebruikt om documenten van MIT op te halen.

EXIT STATUS


Wget kan een van de verschillende foutcodes retourneren als het problemen tegenkomt.

0 Er zijn geen problemen opgetreden.

1 Algemene foutcode.

2 Parse-fout --- bijvoorbeeld bij het parseren van opdrachtregelopties, de .wgetrc or
.netrc...

3 Bestand I/O-fout.

4 Netwerkstoring.

5 SSL-verificatie mislukt.

6 Verificatie van gebruikersnaam/wachtwoord mislukt.

7 Protocolfouten.

8 Server heeft een foutbericht gegeven.

Met uitzondering van 0 en 1 hebben de lager genummerde exitcodes voorrang op de hogere
genummerde, wanneer meerdere soorten fouten worden aangetroffen.

In versies van Wget ouder dan 1.12 was de afsluitstatus van Wget meestal niet nuttig en
inconsequent. Recursieve downloads zouden vrijwel altijd 0 (geslaagd) retourneren, ongeacht
eventuele problemen die zijn opgetreden, en niet-recursieve ophaalacties hebben alleen de overeenkomstige status geretourneerd
naar de meest recentelijk gepoogde download.

Gebruik wget online met behulp van onworks.net-services


Gratis servers en werkstations

Windows- en Linux-apps downloaden

Linux-commando's

Ad