IngleseFranceseSpagnolo

Ad


Favicon di OnWorks

wget - Online nel cloud

Esegui wget nel provider di hosting gratuito OnWorks su Ubuntu Online, Fedora Online, emulatore online Windows o emulatore online MAC OS

Questo è il comando wget che può essere eseguito nel provider di hosting gratuito OnWorks utilizzando una delle nostre molteplici postazioni di lavoro online gratuite come Ubuntu Online, Fedora Online, emulatore online Windows o emulatore online MAC OS

PROGRAMMA:

NOME


Wget - Il downloader di rete non interattivo.

SINOSSI


wget [opzione]... [URL] ...

DESCRIZIONE


GNU Wget è un'utilità gratuita per il download non interattivo di file dal Web. Esso
supporta i protocolli HTTP, HTTPS e FTP, nonché il recupero tramite proxy HTTP.

Wget non è interattivo, il che significa che può funzionare in background, mentre l'utente no
autenticato. Ciò consente di avviare un recupero e disconnettersi dal sistema, lasciando
Finisci il lavoro. Al contrario, la maggior parte dei browser Web richiede un utente costante
presenza, che può essere un grande ostacolo durante il trasferimento di molti dati.

Wget può seguire i collegamenti nelle pagine HTML, XHTML e CSS, per creare versioni locali di remote
siti web, ricreando completamente la struttura di directory del sito originale. Questo è
a volte indicato come "download ricorsivo". Mentre lo fa, Wget rispetta il
Norma di esclusione robot (/robot.txt). Wget può essere istruito a convertire i collegamenti in
file scaricati per puntare ai file locali, per la visualizzazione offline.

Wget è stato progettato per essere robusto su connessioni di rete lente o instabili; se un
il download non riesce a causa di un problema di rete, continuerà a riprovare fino a quando l'intero file non sarà completo
stato recuperato. Se il server supporta la reimpostazione, indicherà al server di continuare
il download da dove era stato interrotto.

Wget non supporta gli elenchi di revoche client (CRL), quindi il certificato HTTPS che sei
la connessione a potrebbe essere revocata dal proprietario del sito.

VERSIONI


Opzione Sintassi
Poiché Wget utilizza GNU getopt per elaborare gli argomenti della riga di comando, ogni opzione ha una forma lunga
insieme a quello corto. Le opzioni lunghe sono più comode da ricordare, ma prenditi del tempo per
genere. Puoi liberamente mescolare diversi stili di opzioni o specificare le opzioni dopo il comando-
argomenti di linea. Quindi potresti scrivere:

wget -r --try=10 http://fly.srk.fer.hr/ -o registro

Lo spazio tra l'opzione che accetta un argomento e l'argomento può essere omesso.
Invece di -o ceppo tu puoi scrivere -ologo.

Puoi mettere insieme diverse opzioni che non richiedono argomenti, come:

wget -drc

Questo è completamente equivalente a:

wget -d -r -c

Poiché le opzioni possono essere specificate dopo gli argomenti, puoi terminarle con --.
Quindi quanto segue proverà a scaricare l'URL -x, segnalando la mancata ceppo:

wget -o log -- -x

Le opzioni che accettano elenchi separati da virgole rispettano tutte la convenzione che specificando
una lista vuota ne cancella il valore. Questo può essere utile per cancellare il .wgetrc impostazioni. Per
esempio, se il tuo .wgetrc imposta "exclude_directory" su /cgi-bin, il seguente esempio
prima lo ripristinerà, quindi lo imposterà su esclude /~nessuno ed /~qualcuno. È anche possibile
cancella le liste in .wgetrc.

wget -X " -X /~nessuno,/~qualcuno

La maggior parte delle opzioni che non accettano argomenti sono booleano opzioni, così chiamate perché loro
lo stato può essere catturato con una variabile sì o no ("booleana"). Per esempio, --follow-ftp
dice a Wget di seguire i collegamenti FTP dai file HTML e, d'altra parte, --no-glob lo dice
non eseguire il globbing dei file sugli URL FTP. Un'opzione booleana è o affermativa or
negativo. (iniziando con --No). Tutte queste opzioni condividono diverse proprietà.

Salvo diversa indicazione, si presume che il comportamento predefinito sia l'opposto di quello che
l'opzione si realizza. Ad esempio, l'esistenza documentata di --follow-ftp assume
che l'impostazione predefinita è non seguire i collegamenti FTP dalle pagine HTML.

Le opzioni affermative possono essere negate anteponendo il --No- al nome dell'opzione; negativo
le opzioni possono essere negate omettendo --No- prefisso. Questo potrebbe sembrare superfluo --- se il
l'impostazione predefinita per un'opzione affermativa è non fare qualcosa, quindi perché fornire un modo per?
disattivarlo esplicitamente? Ma il file di avvio potrebbe in effetti cambiare l'impostazione predefinita. Per
esempio, usando "follow_ftp = on" in .wgetrc fa Wget seguire Collegamenti FTP per impostazione predefinita e
utilizzando --no-follow-ftp è l'unico modo per ripristinare le impostazioni di fabbrica dal comando
linea.

Standard Startup Opzioni
-V
--versione
Visualizza la versione di Wget.

-h
--Aiuto
Stampa un messaggio di aiuto che descrive tutte le opzioni della riga di comando di Wget.

-b
--sfondo
Vai in background subito dopo l'avvio. Se non viene specificato alcun file di output tramite il
-o, l'output viene reindirizzato a wget-log.

-e command
--eseguire command
Eseguire command come se fosse una parte di .wgetrc. Un comando così invocato sarà
eseguito dopo i comandi in .wgetrc, prevalendo così su di essi. Se hai bisogno
per specificare più di un comando wgetrc, usa più istanze di -e.

Registrazione ed Ingresso Compila il Opzioni
-o file di log
--file-output=file di log
Registra tutti i messaggi su file di log. I messaggi sono normalmente riportati all'errore standard.

-a file di log
--append-output=file di log
Aggiungi a file di log. Questo è lo stesso di -o, solo si aggiunge a file di log invece di
sovrascrivendo il vecchio file di registro. Se file di log non esiste, viene creato un nuovo file.

-d
- debug
Attiva l'output di debug, ovvero varie informazioni importanti per gli sviluppatori di Wget
se non funziona correttamente. Il tuo amministratore di sistema potrebbe aver scelto di compilare
Wget senza supporto per il debug, nel qual caso -d non funzionerà. Si prega di notare che
la compilazione con il supporto per il debug è sempre sicura --- Wget compilato con il supporto per il debug
volere non stampa qualsiasi informazione di debug se non richiesto con -d.

-q
--silenzioso
Disattiva l'output di Wget.

-v
--verboso
Attiva l'output dettagliato, con tutti i dati disponibili. L'output predefinito è dettagliato.

-nv
--non dettagliato
Disattiva verbose senza essere completamente silenzioso (usa -q per questo), il che significa che
i messaggi di errore e le informazioni di base vengono comunque stampati.

--report-velocità=Digitare
Larghezza di banda di uscita come Digitare. L'unico valore accettato è bit.

-i filetto
--file-input=filetto
Leggi gli URL da un locale o esterno filetto. Se - è specificato come filetto, gli URL vengono letti
dall'ingresso standard. (Utilizzo ./- leggere da un file letteralmente chiamato -.)

Se viene utilizzata questa funzione, non è necessario che siano presenti URL sulla riga di comando. Se ci sono
URL sia sulla riga di comando che in un file di input, quelli sulla riga di comando saranno
i primi ad essere recuperati. Se --force-html non è specificato, allora filetto dovrebbero
sono costituiti da una serie di URL, uno per riga.

Tuttavia, se specifichi --force-html, il documento sarà considerato come html. In ciò
caso potresti avere problemi con i relativi link, che puoi risolvere sia aggiungendo
"url">" ai documenti o specificando --base=URL sulla riga di comando.

Se l' filetto è esterno, il documento verrà automaticamente trattato come html if
le corrispondenze del tipo di contenuto text / html. Inoltre, la filettola posizione sarà
utilizzato implicitamente come base href se non ne è stato specificato nessuno.

--input-metallink=filetto
Scarica file coperti in Metalink locale filetto. Metalink versione 3 e 4 sono
supportato.

--metallink-su-http
Emette la richiesta HTTP HEAD invece di GET ed estrae i metadati Metalink dalla risposta
intestazioni. Quindi passa al download di Metalink. Se non sono presenti metadati Metalink validi
trovato, ritorna al normale download HTTP.

--Posizione preferita
Imposta la posizione preferita per le risorse Metalink. Questo ha effetto se più risorse
con la stessa priorità sono disponibili.

-F
--force-html
Quando l'input viene letto da un file, forzalo a essere trattato come un file HTML. Ciò consente
per recuperare i collegamenti relativi dai file HTML esistenti sul disco locale, aggiungendo
"url">" in HTML, o usando il --base opzione della riga di comando.

-B URL
--base=URL
Risolve i collegamenti relativi utilizzando URL come punto di riferimento, quando si leggono i link da
un file HTML specificato tramite -i/--file di input opzione (insieme a --force-html, o
quando il file di input è stato recuperato in remoto da un server che lo descrive come HTML). Questo è
equivalente alla presenza di un tag "BASE" nel file di input HTML, con URL la
valore per l'attributo "href".

Ad esempio, se specifichi http://foo/bar/a.html per URLe Wget legge
../baz/b.html dal file di input, sarebbe stato risolto in http://foo/baz/b.html.

--config=RISORSE
Specificare la posizione di un file di avvio che si desidera utilizzare.

--rejected-log=file di log
Registra tutti gli URL rifiutati in file di log come valori separati da virgole. I valori includono il
motivo del rifiuto, l'URL e l'URL padre in cui è stato trovato.

Scaricare Opzioni
--bind-indirizzo=INDIRIZZO
Quando si effettuano connessioni TCP/IP client, associare a INDIRIZZO sulla macchina locale. INDIRIZZO
può essere specificato come nome host o indirizzo IP. Questa opzione può essere utile se il tuo
la macchina è associata a più IP.

-t numero
--prove=numero
Imposta il numero di tentativi su numero. Specificare 0 o inf per tentativi infiniti. L'impostazione predefinita è
riprovare 20 volte, ad eccezione di errori fatali come "connessione rifiutata" o
"non trovato" (404), che non vengono ritenuti.

-O filetto
--documento-output=filetto
I documenti non verranno scritti nei file appropriati, ma tutto sarà
concatenati insieme e scritti in filetto. Se - è usato come filetto, i documenti saranno
stampato sullo standard output, disabilitando la conversione del collegamento. (Utilizzo ./- stampare su un file
letteralmente chiamato -.)

L'uso di -O is non intendeva significare semplicemente "usare il nome filetto invece di quello in
URL;" piuttosto, è analogo al reindirizzamento della shell: wget -O filetto http://foo is
destinato a funzionare come wget -O - http://foo > filetto; filetto verrà troncato immediatamente,
ed contro tutti i il contenuto scaricato verrà scritto lì.

Per questo motivo, -N (per il controllo del timestamp) non è supportato in combinazione con -O:
da filetto è sempre di nuova creazione, avrà sempre un nuovo timestamp. UN
verrà emesso un avviso se viene utilizzata questa combinazione.

Allo stesso modo, usando -r or -p con -O potrebbe non funzionare come previsto: Wget non si limita a scaricare
il primo file per filetto e quindi scarica il resto con i loro nomi normali: contro tutti i
il contenuto scaricato verrà inserito in filetto. Questo è stato disabilitato nella versione 1.11, ma ha
è stato ripristinato (con un avvertimento) in 1.11.2, poiché ci sono alcuni casi in cui questo
comportamento può effettivamente avere qualche utilità.

Una combinazione con -nc viene accettato solo se il file di output specificato non esiste.

Nota che una combinazione con -k è consentito solo quando si scarica un singolo documento,
come in quel caso convertirà solo tutti gli URI relativi a quelli esterni; -k non fa
senso per più URI quando vengono scaricati tutti in un singolo file; -k può essere
utilizzato solo quando l'output è un file normale.

-nc
--no-clobber
Se un file viene scaricato più di una volta nella stessa directory, il comportamento di Wget dipende
su alcune opzioni, tra cui -nc. In alcuni casi, il file locale sarà clobbered,
o sovrascritto, in caso di download ripetuto. In altri casi sarà conservata.

Quando si esegue Wget senza -N, -nc, -r, o -p, scaricando lo stesso file nello stesso
directory risulterà nella copia originale di filetto in corso di conservazione e la seconda copia
essere nominato filetto.1. Se il file viene scaricato di nuovo, la terza copia sarà
detto filetto.2, e così via. (Questo è anche il comportamento con -ns, anche se -r or -p ha
effetto.) Quando -nc è specificato, questo comportamento è soppresso e Wget si rifiuterà di farlo
scarica le copie più recenti di filetto. Pertanto, ""no-clobber"" è in realtà un termine improprio in
questa modalità --- non è il clobbeing che è impedito (dato che i suffissi numerici erano già
prevenire il clobbeing), ma piuttosto il salvataggio di più versioni che viene impedito.

Quando si esegue Wget con -r or -p, Ma senza -N, -ns, o -nc, riscaricare un file
risulterà nella nuova copia semplicemente sovrascrivendo la vecchia. Aggiunta -nc impedirà questo
comportamento, causando invece la conservazione della versione originale e l'attivazione di eventuali copie più recenti
il server da ignorare.

Quando si esegue Wget con -N, con o senza -r or -p, la decisione se o meno
il download di una copia più recente di un file dipende dal timestamp e dalle dimensioni locali e remoti
del file. -nc non può essere specificato contemporaneamente a -N.

Una combinazione con -O/--documento-output è accettato solo se il file di output specificato lo fa
non esiste.

Si noti che quando -nc è specificato, i file con i suffissi .html or htm sarà caricato
dal disco locale e analizzati come se fossero stati recuperati dal Web.

--backup=backup
Prima di (sovra)scrivere un file, eseguire il backup di un file esistente aggiungendo a .1 suffisso (_1 on
VMS) al nome del file. Tali file di backup vengono ruotati in .2, .3, e così via, fino a
backup (e perso oltre).

-c
--Continua
Continua a ricevere un file parzialmente scaricato. Questo è utile quando vuoi finire
un download avviato da un'istanza precedente di Wget o da un altro programma. Per
esempio:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Se c'è un file chiamato ls-lR.Z nella directory corrente, Wget assumerà che lo sia
la prima parte del file remoto e chiederà al server di continuare il
recupero da un offset pari alla lunghezza del file locale.

Nota che non è necessario specificare questa opzione se vuoi solo la corrente
invocazione di Wget per riprovare a scaricare un file in caso di perdita della connessione a metà strada
attraverso. Questo è il comportamento predefinito. -c influisce solo sulla ripresa dei download
iniziato precedente a questa invocazione di Wget, e i cui file locali sono ancora seduti
in giro.

Senza -c, l'esempio precedente scarica semplicemente il file remoto in ls-lR.Z.1,
lasciando il troncato ls-lR.Z file da solo.

A partire da Wget 1.7, se usi -c su un file non vuoto, e si scopre che il
il server non supporta il download continuato, Wget si rifiuterà di avviare il download
da zero, che rovinerebbe di fatto i contenuti esistenti. Se vuoi davvero il
scarica per ricominciare da zero, rimuovi il file.

A partire anche da Wget 1.7, se usi -c su un file della stessa dimensione del
uno sul server, Wget rifiuterà di scaricare il file e stamperà una spiegazione
Messaggio. Lo stesso accade quando il file è più piccolo sul server che localmente
(presumibilmente perché è stato modificato sul server dall'ultimo download
tentativo)---poiché "continuare" non è significativo, non si verifica alcun download.

Dall'altro lato della medaglia, durante l'utilizzo -c, qualsiasi file di dimensioni maggiori sul server
che localmente sarà considerato un download incompleto e solo "(length(remote) -
length(local))" verranno scaricati e aggiunti alla fine del file locale.
Questo comportamento può essere desiderabile in alcuni casi --- per esempio, puoi usare wget -c a
scarica solo la nuova porzione che è stata aggiunta a una raccolta di dati o a un file di registro.

Tuttavia, se il file è più grande sul server perché è stato cambiato, al contrario di
ad appena aggiunto a, ti ritroverai con un file confuso. Wget non ha modo di verificare
che il file locale è davvero un prefisso valido del file remoto. Devi essere
prestare particolare attenzione a questo quando si utilizza -c insieme a -r, poiché ogni file lo farà
essere considerato un candidato "download incompleto".

Un'altra istanza in cui otterrai un file confuso se provi a utilizzare -c è se hai un
proxy HTTP scadente che inserisce una stringa "trasferimento interrotto" nel file locale. In
in futuro potrebbe essere aggiunta un'opzione di "ripristino" per affrontare questo caso.

Si noti che -c funziona solo con server FTP e con server HTTP che supportano il
Intestazione "Range".

--start-pos=COMPENSARE
Inizia a scaricare in posizione in base zero COMPENSARE. L'offset può essere espresso in byte,
kilobyte con il suffisso "k", o megabyte con il suffisso "m", ecc.

--start-pos ha una precedenza maggiore su --Continua. Quando --start-pos ed --Continua
sono entrambi specificati, wget emetterà un avviso quindi procederà come se --Continua era assente.

È necessario il supporto del server per il download continuato, altrimenti --start-pos non può aiutare.
See -c per i dettagli.

--progresso=Digitare
Seleziona il tipo di indicatore di avanzamento che desideri utilizzare. Gli indicatori legali sono "punto"
e "bar".

L'indicatore "bar" viene utilizzato per impostazione predefinita. Disegna una barra di avanzamento grafica ASCII
(noto anche come display "termometro") che indica lo stato del recupero. Se l'uscita è
non è un TTY, per impostazione predefinita verrà utilizzata la barra "punto".

Usa il --progress = punto per passare alla visualizzazione "punto". Traccia il recupero da
stampa di punti sullo schermo, ogni punto rappresenta una quantità fissa di dati scaricati.

Il progresso Digitare può assumere anche uno o più parametri. I parametri variano in base a
, il Digitare selezionato. Parametri per Digitare vengono passati aggiungendoli al tipo
sperated da due punti (:) in questo modo: --progresso=Digitare:parameter1:parameter2.

Quando si utilizza il recupero punteggiato, è possibile impostare il style specificando il tipo come
punto:style. Stili diversi assegnano un significato diverso a un punto. Con il "predefinito"
stile ogni punto rappresenta 1K, ci sono dieci punti in un cluster e 50 punti in una linea.
Lo stile "binario" ha un orientamento più simile al "computer" --- 8K punti, cluster da 16 punti
e 48 punti per riga (che rende 384K linee). Lo stile "mega" è adatto per
download di file di grandi dimensioni --- ogni punto rappresenta 64K recuperati, ci sono otto punti in a
cluster e 48 punti su ciascuna riga (quindi ogni riga contiene 3M). Se "mega" non è abbastanza
quindi puoi usare lo stile "giga" --- ogni punto rappresenta 1M recuperato, ce ne sono otto
punti in un cluster e 32 punti su ogni riga (quindi ogni riga contiene 32 M).

Con --progress=barra, ci sono attualmente due possibili parametri, forza ed scorrere.

Quando l'output non è un TTY, la barra di avanzamento torna sempre a "punto", anche se
--progress=barra è stato passato a Wget durante l'invocazione. Questo comportamento può essere ignorato
e l'uscita "bar" forzata utilizzando il parametro "force" come --progress=barra:forza.

Per impostazione predefinita, il bar barra di avanzamento dello stile scorrere il nome del file da sinistra a destra
per il file scaricato se il nome del file supera la lunghezza massima assegnata per
la sua visualizzazione. In alcuni casi, come con --progress=barra:forza, uno potrebbe non volere
il nome del file scorrevole nella barra di avanzamento. Passando il parametro "noscroll", Wget
può essere forzato a visualizzare la maggior parte del nome del file possibile senza scorrere
esso.

Nota che puoi impostare lo stile predefinito usando il comando "progress" in .wgetrc. Che
l'impostazione può essere sovrascritta dalla riga di comando. Ad esempio, per forzare l'uscita della barra
senza scorrere, usa --progress=barra:force:noscroll.

--mostra-progresso
Forza wget a visualizzare la barra di avanzamento in qualsiasi verbosità.

Per impostazione predefinita, wget visualizza solo la barra di avanzamento in modalità dettagliata. Si può tuttavia,
vuoi che wget mostri la barra di avanzamento sullo schermo insieme a qualsiasi altra
modalità di verbosità come --non dettagliato or --silenzioso. Questa è spesso una proprietà desiderata quando
invocando wget per scaricare diversi file piccoli/grandi. In tal caso, wget potrebbe
essere semplicemente invocato con questo parametro per ottenere un output molto più pulito sullo schermo.

Questa opzione forzerà anche la stampa della barra di avanzamento su stderr quando usato
a fianco del --file di log opzione.

-N
--timestamp
Attiva il timestamp.

--no-se-modificato-da
Non inviare l'intestazione If-Modified-Since in -N modalità. Invia richiesta HEAD preliminare
Invece. Questo ha effetto solo in -N modalità.

--no-use-server-timestamp
Non impostare il timestamp del file locale con quello sul server.

Per impostazione predefinita, quando un file viene scaricato, i suoi timestamp sono impostati in modo da corrispondere a quelli del
file remoto. Ciò consente l'uso di --timestamp alle successive invocazioni di wget.
Tuttavia, a volte è utile basare il timestamp del file locale su quando era
effettivamente scaricato; a tale scopo, il --no-use-server-timestamp l'opzione è stata
fornito.

-S
--risposta-server
Stampa le intestazioni inviate dai server HTTP e le risposte inviate dai server FTP.

--ragno
Quando invocato con questa opzione, Wget si comporterà come un Web ragno, il che significa che
non scaricherà le pagine, basta controllare che ci siano. Ad esempio, puoi usare
Wget per controllare i tuoi segnalibri:

wget --spider --force-html -i segnalibri.html

Questa funzione richiede molto più lavoro per Wget per avvicinarsi alla funzionalità di real
ragni web.

-T secondo
--timeout=secondo
Imposta il timeout di rete su secondo secondi. Ciò equivale a specificare
--dns-timeout, --timeout connessionee --timeout di lettura, tutto allo stesso tempo.

Quando si interagisce con la rete, Wget può controllare il timeout e interrompere l'operazione
se ci vuole troppo tempo. Ciò impedisce anomalie come letture sospese e infinite
si connette. L'unico timeout abilitato per impostazione predefinita è un timeout di lettura di 900 secondi. Collocamento
un timeout a 0 lo disabilita del tutto. A meno che tu non sappia cosa stai facendo, è meglio
per non modificare le impostazioni di timeout predefinite.

Tutte le opzioni relative al timeout accettano valori decimali, nonché valori inferiori al secondo. Per
esempio, 0.1 secondi è una scelta legale (anche se poco saggia) di timeout. Timeout di meno di un secondo
sono utili per controllare i tempi di risposta del server o per testare la latenza di rete.

--dns-timeout=secondo
Imposta il timeout di ricerca DNS su secondo secondi. Ricerche DNS che non vengono completate entro
il tempo specificato avrà esito negativo. Per impostazione predefinita, non c'è timeout per le ricerche DNS, altro
rispetto a quello implementato dalle librerie di sistema.

--connessione-timeout=secondo
Imposta il timeout di connessione su secondo secondi. Connessioni TCP che richiedono più tempo per
stabilire sarà interrotto. Per impostazione predefinita, non è previsto alcun timeout di connessione, a parte questo
implementato dalle librerie di sistema.

--read-timeout=secondo
Imposta il timeout di lettura (e scrittura) su secondo secondi. Il "tempo" di questo timeout
si riferisce inattivo tempo: se, in qualsiasi momento del download, non vengono ricevuti dati per ulteriori
rispetto al numero di secondi specificato, la lettura non riesce e il download viene riavviato.
Questa opzione non influisce direttamente sulla durata dell'intero download.

Naturalmente, il server remoto può scegliere di terminare la connessione prima di questo
l'opzione richiede. Il timeout di lettura predefinito è 900 secondi.

--limite-tasso=quantità
Limita la velocità di download a quantità byte al secondo. L'importo può essere espresso in
byte, kilobyte con il k suffisso, o megabyte con il m suffisso. Per esempio,
--limite-rate=20k limiterà la velocità di recupero a 20 KB/s. Questo è utile quando, per
qualunque sia la ragione, non vuoi che Wget consumi l'intera larghezza di banda disponibile.

Questa opzione consente l'uso di numeri decimali, solitamente in combinazione con potenza
suffissi; Per esempio, --limite-rate=2.5k è un valore legale.

Nota che Wget implementa la limitazione dormendo per la quantità di tempo appropriata
dopo una lettura di rete che ha richiesto meno tempo di quanto specificato dalla velocità. Alla fine questo
La strategia fa sì che il trasferimento TCP rallenti approssimativamente alla velocità specificata.
Tuttavia, potrebbe essere necessario del tempo per raggiungere questo equilibrio, quindi non sorprenderti
se la limitazione della velocità non funziona bene con file molto piccoli.

-w secondo
--aspetta=secondo
Attendi il numero specificato di secondi tra i recuperi. L'uso di questa opzione è
consigliato, in quanto alleggerisce il carico del server rendendo le richieste meno frequenti.
Invece che in secondi, il tempo può essere specificato in minuti usando il suffisso "m", in
ore utilizzando il suffisso "h" o in giorni utilizzando il suffisso "d".

Specificare un valore grande per questa opzione è utile se la rete o la destinazione
host è inattivo, in modo che Wget possa attendere abbastanza a lungo da aspettarsi ragionevolmente l'errore di rete
da correggere prima di riprovare. L'intervallo di attesa specificato da questa funzione è
influenzato da "--random-wait", che vedi.

--cameriere=secondo
Se non vuoi che Wget aspetti in mezzo ogni recupero, ma solo tra i tentativi di
download non riusciti, puoi utilizzare questa opzione. Wget userà lineare retrocedere, in attesa 1
secondo dopo il primo errore su un dato file, quindi in attesa di 2 secondi dopo il
secondo errore su quel file, fino al numero massimo di secondo si specifica.

Per impostazione predefinita, Wget assumerà un valore di 10 secondi.

--attesa-casuale
Alcuni siti Web possono eseguire analisi dei log per identificare programmi di recupero come Wget by
ricerca di somiglianze statisticamente significative nel tempo tra le richieste. Questo
opzione fa sì che il tempo tra le richieste vari tra 0.5 e 1.5 * aspettare secondi,
where aspettare è stato specificato utilizzando il --aspettare opzione, per mascherare la presenza di Wget
da tale analisi.

Un articolo del 2001 in una pubblicazione dedicata allo sviluppo su una popolare piattaforma di consumo
codice fornito per eseguire questa analisi al volo. Il suo autore ha suggerito di bloccare a
il livello di indirizzo di classe C per garantire che i programmi di recupero automatico fossero bloccati nonostante
modifica degli indirizzi forniti da DHCP.

I --attesa-casuale l'opzione è stata ispirata da questa raccomandazione sconsiderata di bloccarne molti
utenti non correlati da un sito Web a causa delle azioni di uno.

--nessun proxy
Non utilizzare i proxy, anche se è definita la variabile di ambiente *_proxy appropriata.

-Q quota
--quota=quota
Specificare la quota di download per i recuperi automatici. Il valore può essere specificato in byte
(predefinito), kilobyte (con k suffisso), o megabyte (con m suffisso).

Tieni presente che la quota non influirà mai sul download di un singolo file. Quindi se specifichi wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, tutti di ls-lR.gz verrà scaricato. Il
lo stesso vale anche quando vengono specificati diversi URL sulla riga di comando. Tuttavia, la quota è
rispettato durante il recupero ricorsivo o da un file di input. Così potresti
digita in modo sicuro wget -Q2m -i siti---il download verrà interrotto al superamento della quota.

Impostare la quota su 0 o su inf illimita la quota di download.

--no-dns-cache
Disattiva la memorizzazione nella cache delle ricerche DNS. Normalmente, Wget ricorda gli indirizzi IP che ha cercato
dal DNS in modo che non debba contattare ripetutamente il server DNS per lo stesso
(tipicamente piccolo) set di host da cui recupera. Questa cache esiste solo in memoria; un
la nuova esecuzione di Wget contatterà nuovamente il DNS.

Tuttavia, è stato segnalato che in alcune situazioni non è desiderabile memorizzare nella cache
nomi host, anche per la durata di un'applicazione di breve durata come Wget. Con questo
opzione Wget emette una nuova ricerca DNS (più precisamente, una nuova chiamata a "gethostbyname" o
"getaddrinfo") ogni volta che effettua una nuova connessione. Si prega di notare che questa opzione sarà
non influenzare la memorizzazione nella cache che potrebbe essere eseguita dalla libreria di risoluzione o da un esterno
strato di memorizzazione nella cache, come NSCD.

Se non capisci esattamente cosa fa questa opzione, probabilmente non ne avrai bisogno.

--restrict-nome-file=modalità di
Modificare quali caratteri trovati negli URL remoti devono essere sottoposti a escape durante la generazione di
nomi di file locali. Personaggi che sono limitato con questa opzione sono sfuggiti, cioè
sostituito con %HH, Dove HH è il numero esadecimale che corrisponde al
carattere ristretto. Questa opzione può essere utilizzata anche per forzare tutti i casi alfabetici a
essere minuscolo o maiuscolo.

Per impostazione predefinita, Wget esegue l'escape dei caratteri che non sono validi o sicuri come parte del file
nomi sul tuo sistema operativo, così come i caratteri di controllo che sono tipicamente
non stampabile. Questa opzione è utile per modificare queste impostazioni predefinite, forse perché tu
stanno scaricando su una partizione non nativa o perché si desidera disabilitare l'escape di
i caratteri di controllo o si desidera limitare ulteriormente i caratteri solo a quelli in
l'intervallo di valori ASCII.

I modalità di sono un insieme di valori di testo separati da virgole. I valori accettabili sono unix,
finestre, NoControl, ascii, minuscoloe lettere maiuscole. I valori unix ed finestre sono
si escludono a vicenda (uno sovrascriverà l'altro), così come lo sono minuscolo ed lettere maiuscole.
Questi ultimi sono casi speciali, in quanto non modificano l'insieme di caratteri che sarebbe
essere sfuggito, ma piuttosto forzare la conversione dei percorsi dei file locali in inferiori o
maiuscolo.

Quando viene specificato "unix", Wget esegue l'escape del carattere / e i caratteri di controllo in
gli intervalli 0--31 e 128--159. Questa è l'impostazione predefinita sui sistemi operativi simili a Unix.

Quando viene fornito "windows", Wget esegue l'escape dei caratteri \, |, /, :, ?, ", *, <, >e
i caratteri di controllo negli intervalli 0--31 e 128--159. Oltre a questo, Wget in
La modalità Windows utilizza + invece di : separare host e porta nei nomi dei file locali e
usa @ invece di ? per separare la parte di query del nome del file dal resto.
Pertanto, un URL che verrebbe salvato come www.xemacs.org:4300/search.pl?input=blah in
La modalità Unix verrebbe salvata come www.xemacs.org+4300/search.pl@input=blah in modalità Windows.
Questa modalità è l'impostazione predefinita su Windows.

Se specifichi NoControl, viene commutata anche l'escape dei caratteri di controllo
spento. Questa opzione può avere senso quando scarichi URL i cui nomi contengono
Caratteri UTF-8, su un sistema in grado di salvare e visualizzare i nomi di file in UTF-8 (alcuni
i possibili valori di byte utilizzati nelle sequenze di byte UTF-8 rientrano nell'intervallo di valori
designati da Wget come "controlli").

I ascii mode viene utilizzato per specificare che tutti i byte i cui valori sono al di fuori dell'intervallo di
I caratteri ASCII (ovvero maggiori di 127) devono essere sfuggiti. Questo può essere utile quando
salvare nomi di file la cui codifica non corrisponde a quella utilizzata localmente.

-4
--inet4-solo
-6
--inet6-solo
Forza la connessione agli indirizzi IPv4 o IPv6. Insieme a --inet4-solo or -4, Wget sarà solo
connettersi a host IPv4, ignorando i record AAAA in DNS e rifiutandosi di connettersi a IPv6
indirizzi specificati negli URL. Al contrario, con --inet6-solo or -6, Wget sarà solo
connettersi agli host IPv6 e ignorare i record A e gli indirizzi IPv4.

Nessuna delle due opzioni dovrebbe essere necessaria normalmente. Per impostazione predefinita, utilizzerà un Wget compatibile con IPv6
la famiglia di indirizzi specificata dal record DNS dell'host. Se il DNS risponde con entrambi
Indirizzi IPv4 e IPv6, Wget li proverà in sequenza finché non ne trova uno possibile
connettersi a. (Vedi anche l'opzione "--prefer-family" descritta di seguito.)

Queste opzioni possono essere utilizzate per forzare deliberatamente l'uso dell'indirizzo IPv4 o IPv6
famiglie su sistemi a doppia famiglia, di solito per aiutare il debug o per far fronte a guasti
configurazione di rete. solo uno di --inet6-solo ed --inet4-solo può essere specificato a
lo stesso tempo. Nessuna delle due opzioni è disponibile in Wget compilato senza supporto IPv6.

--prefer-family=nessuno/IPv4/IPv6
Quando viene data la possibilità di scegliere tra diversi indirizzi, connettersi agli indirizzi con specificato
rivolgersi prima alla famiglia. L'ordine degli indirizzi restituito dal DNS viene utilizzato senza modifiche da
predefinito.

Ciò evita errori spuri e tentativi di connessione durante l'accesso a host che si risolvono in
indirizzi IPv6 e IPv4 da reti IPv4. Per esempio, www.kame.net risolve
a 2001:200:0:8002:203:47ff:fea5:3085 e 203.178.141.194. Quando il preferito
famiglia è "IPv4", l'indirizzo IPv4 viene utilizzato per primo; quando la famiglia preferita è "IPv6",
l'indirizzo IPv6 viene utilizzato per primo; se il valore specificato è "nessuno", l'ordine dell'indirizzo
restituito dal DNS viene utilizzato senza modifiche.

a differenza di -4 ed -6, questa opzione non inibisce l'accesso a nessuna famiglia di indirizzi, ma solo
cambia il file minimo in cui si accede agli indirizzi. Si noti inoltre che il riordino
eseguita da questa opzione è stabile---non influisce sull'ordine degli indirizzi degli stessi
famiglia. Cioè, l'ordine relativo di tutti gli indirizzi IPv4 e di tutti gli indirizzi IPv6
rimane intatto in tutti i casi.

--retry-connrefused
Considera "connessione rifiutata" un errore temporaneo e riprova. Normalmente Wget si arrende
su un URL quando non è in grado di connettersi al sito perché viene presa la mancata connessione
come segno che il server non è affatto in esecuzione e che i tentativi non sarebbero di aiuto. Questo
l'opzione è per il mirroring di siti inaffidabili i cui server tendono a scomparire in breve
periodi di tempo.

--utente=Utente
--password=parola d'ordine
Specifica il nome utente Utente e password parola d'ordine per il recupero di file sia FTP che HTTP.
Questi parametri possono essere sovrascritti utilizzando il --ftp-utente ed --password-ftp opzioni per
Connessioni FTP e il --http-utente ed --http-password opzioni per le connessioni HTTP.

--chiedi-password
Richiedi una password per ogni connessione stabilita. Non può essere specificato quando
--parola d'ordine viene utilizzato, perché si escludono a vicenda.

--no-iri
Disattiva il supporto per URI internazionalizzati (IRI). Utilizzo --iri accenderlo. Il supporto dell'IRI è
attivato per impostazione predefinita.

Puoi impostare lo stato predefinito del supporto IRI usando il comando "iri" in .wgetrc. Che
l'impostazione può essere sovrascritta dalla riga di comando.

--codifica-locale=codifica
Forza Wget da usare codifica come codifica di sistema predefinita. Ciò influenza il modo in cui Wget
converte gli URL specificati come argomenti da locale a UTF-8 per il supporto IRI.

Wget usa la funzione "nl_langinfo()" e poi la variabile d'ambiente "CHARSET" per
ottenere il locale. Se fallisce, viene utilizzato ASCII.

Puoi impostare la codifica locale predefinita usando il comando "local_encoding" in .wgetrc.
Tale impostazione può essere sovrascritta dalla riga di comando.

--codifica remota=codifica
Forza Wget da usare codifica come codifica predefinita del server remoto. Ciò influisce su come
Wget converte gli URI trovati nei file dalla codifica remota a UTF-8 durante un ricorsivo
andare a prendere. Questa opzione è utile solo per il supporto dell'IRI, per l'interpretazione di non
caratteri ASCII.

Per HTTP, la codifica remota può essere trovata nell'intestazione HTTP "Content-Type" e in HTML
Meta tag "Content-Type http-equiv".

Puoi impostare la codifica predefinita usando il comando "remoteencoding" in .wgetrc. Che
l'impostazione può essere sovrascritta dalla riga di comando.

--scollega
Forza Wget a scollegare il file invece di eliminare il file esistente. Questa opzione è utile
per il download nella directory con hardlink.

elenco Opzioni
-ns
--no-directory
Non creare una gerarchia di directory durante il recupero ricorsivo. Con questo
opzione attivata, tutti i file verranno salvati nella directory corrente, senza
clobbering (se un nome viene visualizzato più di una volta, i nomi dei file avranno estensioni .n).

-x
--force-directory
Il contrario di -ns---crea una gerarchia di directory, anche se una non l'avrebbe fatta
stato creato diversamente. Per esempio wget -x http://fly.srk.fer.hr/robots.txt salverà il
file scaricato su fly.srk.fer.hr/robots.txt.

-nH
--no-directory-host
Disabilita la generazione di directory con prefisso host. Per impostazione predefinita, invocando Wget con -r
http://fly.srk.fer.hr/ creerà una struttura di directory che inizia con
fly.srk.fer.hr/. Questa opzione disabilita tale comportamento.

--directory-protocollo
Utilizzare il nome del protocollo come componente di directory dei nomi di file locali. Ad esempio, con
questa opzione, wget -r http://host salverà a http /host/ ... piuttosto che solo per
host/ ....

--cut-dir=numero
ignorare numero componenti della directory. Questo è utile per ottenere un controllo preciso
sulla directory in cui verrà salvato il recupero ricorsivo.

Prendi, ad esempio, la directory in ftp://ftp.xemacs.org/pub/xemacs/. Se recuperi
con -r, verrà salvato localmente sotto ftp.xemacs.org/pub/xemacs/. Mentre il -nH
l'opzione può rimuovere il ftp.xemacs.org/ parte, sei ancora bloccato con pub/xemac. Questo
dov'è --cut-dir torna utile; fa sì che Wget non "veda" numero directory remota
componenti. Ecco alcuni esempi di come --cut-dir l'opzione funziona.

Nessuna opzione -> ftp.xemacs.org/pub/xemacs/
-nH -> pub/xemacs/
-nH --cut-dirs=1 -> xemacs/
-nH --cut-dirs=2 -> .

--cut-dirs=1 -> ftp.xemacs.org/xemacs/
...

Se vuoi solo sbarazzarti della struttura della directory, questa opzione è simile a a
combinazione di -ns ed -P. Tuttavia, a differenza -ns, --cut-dir non perde con
sottodirectory --- per esempio, con -nH --cut-dir=1, un beta/ la sottodirectory sarà
posto a xemacs/beta, come ci si aspetterebbe.

-P prefisso
--prefisso-directory=prefisso
Imposta il prefisso della directory su prefisso. elenco prefisso è la directory dove tutti gli altri
i file e le sottodirectory verranno salvati, ovvero la parte superiore dell'albero di recupero. Il
l'impostazione predefinita è . (la directory corrente).

HTTP Opzioni
--pagina-predefinita=Nome
Usa il Nome come nome file predefinito quando non è noto (ad esempio, per URL che terminano con a
barra), invece di index.html.

-E
--regolare-estensione
Se un file di tipo applicazione/xhtml+xml or text / html viene scaricato e l'URL lo fa
non finisce con la regexp \.[Hh][Tt][Mm][Ll]?, questa opzione causerà il suffisso .html
da aggiungere al nome del file locale. Questo è utile, ad esempio, quando sei
il mirroring di un sito remoto che utilizza . Asp pagine, ma vuoi che le pagine speculari siano
visualizzabile sul tuo server Apache di serie. Un altro buon uso per questo è quando sei
download di materiali generati in CGI. Un URL come http://site.com/article.cgi? 25 volere
essere salvato come articolo.cgi?25.html.

Nota che i nomi dei file modificati in questo modo verranno scaricati nuovamente ogni volta che esegui nuovamente il mirroring
un sito, perché Wget non può dire che il locale X.html il file corrisponde all'URL remoto X
(poiché non sa ancora che l'URL produce output di tipo text / html or
applicazione/xhtml+xml.

A partire dalla versione 1.12, Wget assicurerà anche che tutti i file scaricati di tipo text / css
finisce con il suffisso css, e l'opzione è stata rinominata da --estensione-html, migliorare
riflettere il suo nuovo comportamento. Il vecchio nome dell'opzione è ancora accettabile, ma ora dovrebbe esserlo
considerato deprecato.

Ad un certo punto in futuro, questa opzione potrebbe essere ampliata per includere i suffissi per
altri tipi di contenuto, inclusi i tipi di contenuto che non vengono analizzati da Wget.

--http-utente=Utente
--http-password=parola d'ordine
Specifica il nome utente Utente e password parola d'ordine su un server HTTP. Secondo il
tipo della sfida, Wget li codificherà usando il "base" (non sicuro), il
"digest" o lo schema di autenticazione "NTLM" di Windows.

Un altro modo per specificare nome utente e password è nell'URL stesso. Entrambi i metodi
rivela la tua password a chiunque si preoccupi di eseguire "ps". Per prevenire le password
dall'essere visti, conservali in .wgetrc or .netrce assicurati di proteggere quei file
da altri utenti con "chmod". Se le password sono davvero importanti, non andartene
anche loro si trovano in quei file --- modifica i file ed eliminali dopo che Wget ha
avviato il download.

--no-http-keep-live
Disattiva la funzione "keep-alive" per i download HTTP. Normalmente, Wget chiede al server
per mantenere la connessione aperta in modo che, quando scarichi più di un documento dal
stesso server, vengono trasferiti sulla stessa connessione TCP. Ciò consente di risparmiare tempo e
allo stesso tempo riduce il carico sul server.

Questa opzione è utile quando, per qualche motivo, le connessioni persistenti (keep-alive) non lo fanno
lavorare per te, ad esempio a causa di un bug del server o per l'incapacità del lato server
script per far fronte alle connessioni.

--nessuna cache
Disabilita la cache lato server. In questo caso, Wget invierà al server remoto e
direttiva appropriata (Pragma: nessuna cache) per ottenere il file dal servizio remoto,
invece di restituire la versione memorizzata nella cache. Questo è particolarmente utile per il recupero
e svuotare i documenti scaduti sui server proxy.

La memorizzazione nella cache è consentita per impostazione predefinita.

--niente biscotti
Disabilita l'uso dei cookie. I cookie sono un meccanismo per il mantenimento lato server
stato. Il server invia al client un cookie utilizzando l'intestazione "Set-Cookie" e il
il client risponde con lo stesso cookie a ulteriori richieste. Poiché i cookie consentono il
proprietari di server per tenere traccia dei visitatori e per consentire ai siti di scambiare queste informazioni,
alcuni li considerano una violazione della privacy. L'impostazione predefinita è utilizzare i cookie; però,
memorizzare i cookie non sono attivi per impostazione predefinita.

--load-cookie filetto
Carica i cookie da filetto prima del primo recupero HTTP. filetto è un file di testo nel
formato originariamente utilizzato da Netscape cookie.txt file.

In genere utilizzerai questa opzione durante il mirroring di siti che richiedono che tu sia
effettuato l'accesso per accedere ad alcuni o a tutti i loro contenuti. Il processo di accesso in genere funziona
dal server web che emette un cookie HTTP dopo aver ricevuto e verificato il tuo
credenziali. Il cookie viene poi reinviato dal browser quando si accede a quella parte del
sito, e così dimostra la tua identità.

Il mirroring di un tale sito richiede che Wget invii gli stessi cookie inviati dal browser quando
comunicare con il sito. Questo è ottenuto da --load-cookie---semplicemente punto Wget
alla posizione del cookie.txt file, e invierà gli stessi cookie il tuo
browser invierebbe nella stessa situazione. Diversi browser mantengono i cookie testuali
file in posizioni diverse:

"Netscape 4.x."
I biscotti sono in ~/.netscape/cookies.txt.

"Mozilla e Netscape 6.x."
Viene anche chiamato il file cookie di Mozilla cookie.txt, situato da qualche parte sotto
~/.mozilla, nella directory del tuo profilo. Il percorso completo di solito finisce
somigliando un po' ~/.mozilla/default/qualche-strana-stringa/cookies.txt.

"Internet Explorer."
Puoi produrre un file cookie che Wget può usare usando il menu File, Importa e
Esporta, Esporta cookie. Questo è stato testato con Internet Explorer 5; non è
garantito per funzionare con le versioni precedenti.

"Altri browser."
Se stai utilizzando un browser diverso per creare i tuoi cookie, --load-cookie volere
funziona solo se riesci a individuare o produrre un file cookie nel formato Netscape che
Wget si aspetta.

Se non puoi usare --load-cookie, potrebbe esserci ancora un'alternativa. Se tuo
browser supporta un "cookie manager", è possibile utilizzarlo per visualizzare i cookie utilizzati quando
accedendo al sito che stai rispecchiando. Annotare il nome e il valore del cookie e
istruire manualmente Wget a inviare quei cookie, aggirando il supporto cookie "ufficiale":

wget --no-cookies --header "Cookie: = "

--salva-cookie filetto
Salva i cookie su filetto prima di uscire. Ciò non salverà i cookie scaduti o
che non hanno scadenza temporale (c.d. "cookie di sessione"), ma vedi anche
--keep-sessione-cookie.

--keep-sessione-cookie
Quando specificato, cause --salva-cookie per salvare anche i cookie di sessione. Cookie di sessione
normalmente non vengono salvati perché sono destinati ad essere conservati in memoria e dimenticati quando
esci dal browser. Salvarli è utile sui siti che richiedono l'accesso o per
visita la home page prima di poter accedere ad alcune pagine. Con questa opzione, più Wget
le esecuzioni sono considerate una singola sessione del browser per quanto riguarda il sito.

Poiché il formato del file cookie normalmente non contiene cookie di sessione, Wget li contrassegna
con un timestamp di scadenza di 0. Wget's --load-cookie riconosce quelli come sessione
cookie, ma potrebbe confondere altri browser. Si noti inoltre che i cookie così caricati lo faranno
essere trattati come altri cookie di sessione, il che significa che se lo desideri --salva-cookie a
conservarli di nuovo, è necessario utilizzare --keep-sessione-cookie nuovamente.

--ignora-lunghezza
Sfortunatamente, alcuni server HTTP (programmi CGI, per essere più precisi) inviano messaggi fasulli
Intestazioni "Content-Length", che fanno impazzire Wget, poiché pensa che non tutto il documento
è stato recuperato. Puoi individuare questa sindrome se Wget riprova a ottenere lo stesso documento
ancora e ancora, ogni volta affermando che la connessione (altrimenti normale) si è chiusa
sullo stesso byte.

Con questa opzione, Wget ignorerà l'intestazione "Content-Length" --- come se non lo fosse mai
esistito.

--intestazione=riga di intestazione
Invia riga di intestazione insieme al resto delle intestazioni in ogni richiesta HTTP. Il
l'intestazione fornita viene inviata così com'è, il che significa che deve contenere nome e valore separati da
due punti e non deve contenere nuove righe.

Puoi definire più di un'intestazione aggiuntiva specificando --intestazione più di una volta.

wget --header='Accetta-Charset: iso-8859-2' \
--header='Accetta-Lingua: hr' \
http://fly.srk.fer.hr/

La specifica di una stringa vuota come valore dell'intestazione cancellerà tutti i precedenti utenti-
intestazioni definite.

A partire da Wget 1.10, questa opzione può essere utilizzata per sovrascrivere le intestazioni altrimenti generate
automaticamente. Questo esempio indica a Wget di connettersi a localhost, ma di specificare
pippo.bar nell'intestazione "Host":

wget --header="Host: foo.bar" http://localhost/

Nelle versioni di Wget precedenti alla 1.10 tale uso di --intestazione causato l'invio di duplicati
intestazioni.

--max-reindirizzamento=numero
Specifica il numero massimo di reindirizzamenti da seguire per una risorsa. L'impostazione predefinita è
20, che di solito è molto più del necessario. Tuttavia, in quelle occasioni in cui tu
vuoi consentire di più (o meno), questa è l'opzione da utilizzare.

--utente-proxy=Utente
--password-proxy=parola d'ordine
Specifica il nome utente Utente e password parola d'ordine per l'autenticazione su un server proxy.
Wget li codificherà utilizzando lo schema di autenticazione "di base".

Considerazioni sulla sicurezza simili a quelle con --http-password riguardano anche qui.

--referente=URL
Includi `Referente: URL' intestazione nella richiesta HTTP. Utile per recuperare documenti con
elaborazione lato server che presuppone che vengano sempre recuperati dal Web interattivo
browser ed esce correttamente solo quando Referer è impostato su una delle pagine che puntano
a loro.

--salva-intestazioni
Salva le intestazioni inviate dal server HTTP nel file, prima del contenuto effettivo,
con una riga vuota come separatore.

-U stringa-agente
--agente-utente=stringa-agente
Identifica come stringa-agente al server HTTP.

Il protocollo HTTP consente ai client di identificarsi utilizzando uno "User-Agent"
campo di intestazione. Ciò consente di distinguere il software WWW, solitamente per scopi statistici
fini o per tracciare violazioni del protocollo. Wget normalmente si identifica come
Wget/versione, versione essendo il numero di versione corrente di Wget.

Tuttavia, è noto che alcuni siti impongono la politica di adattare l'output
secondo le informazioni fornite da "User-Agent". Anche se questa non è una cattiva idea
in teoria, è stato abusato da server che negano informazioni a client diversi da
(storicamente) Netscape o, più frequentemente, Microsoft Internet Explorer. Questa opzione
permette di modificare la riga "User-Agent" emessa da Wget. L'uso di questa opzione è
scoraggiato, a meno che tu non sappia davvero cosa stai facendo.

Specificare un agente utente vuoto con --user-agent="" indica a Wget di non inviare il
Intestazione "User-Agent" nelle richieste HTTP.

--post-dati=stringa
--file-post=filetto
Usa POST come metodo per tutte le richieste HTTP e invia i dati specificati nel
corpo di richiesta. --post-dati invia stringa come dati, mentre --post-file invia il
contenuti di filetto. A parte questo, funzionano esattamente allo stesso modo. In particolare,
di entrambi aspettati contenuto della forma "chiave1=valore1&chiave2=valore2", con codifica percentuale
per caratteri speciali; l'unica differenza è che ci si aspetta che il suo contenuto sia un
parametro della riga di comando e l'altro accetta il suo contenuto da un file. In particolare,
--post-file is non per la trasmissione di file come allegati di moduli: questi devono apparire come
Dati "chiave=valore" (con codifica percentuale appropriata) proprio come tutto il resto. Wget
attualmente non supporta "multipart/form-data" per la trasmissione di dati POST; soltanto
"application/x-www-form-urlencoded". Solo uno di --post-dati ed --post-file dovrebbe essere
specificato.

Si prega di notare che wget non richiede che il contenuto sia della forma
"key1=value1&key2=value2", e nemmeno lo verifica. Wget trasmetterà semplicemente
qualunque dato gli venga fornito. La maggior parte dei server, tuttavia, si aspetta che i dati POST siano in
il formato sopra durante l'elaborazione di moduli HTML.

Quando si invia una richiesta POST utilizzando il --post-file opzione, Wget tratta il file come a
file binario e invierà ogni carattere nella richiesta POST senza eseguire lo stripping
caratteri di fine riga o formfeed finali. Qualsiasi altro carattere di controllo nel testo lo farà
anche essere inviato così com'è nella richiesta POST.

Tieni presente che Wget deve conoscere in anticipo la dimensione dei dati POST.
Pertanto l'argomento di "--post-file" deve essere un file normale; specificando un FIFO o
qualcosa di simile a /dev/stdin non funzionerà. Non è abbastanza chiaro come aggirare questo problema
limitazione inerente a HTTP/1.0. Sebbene HTTP/1.1 introduca Chunked trasferisci quello
non richiede di conoscere in anticipo la lunghezza della richiesta, un client non può utilizzare chunked
a meno che non sappia che sta parlando con un server HTTP/1.1. E non può saperlo finché non
riceve una risposta, che a sua volta richiede che la richiesta sia stata completata - a
problema delle galline e delle uova.

Nota: a partire dalla versione 1.15, se Wget viene reindirizzato dopo che la richiesta POST è stata completata,
il suo comportamento dipenderà dal codice di risposta restituito dal server. In caso di a
301 Spostato permanentemente, 302 Spostato temporaneamente o 307 Reindirizzamento temporaneo, Wget lo farà, in
in conformità con RFC2616, continuare a inviare una richiesta POST. Nel caso in cui un server voglia il
client per modificare il metodo di richiesta al momento del reindirizzamento, dovrebbe inviare un 303 See Other
Codice di risposta.

Questo esempio mostra come accedere a un server utilizzando POST e quindi procedere al download
le pagine desiderate, presumibilmente accessibili solo agli utenti autorizzati:

# Accedi al server. Questo può essere fatto solo una volta.
wget --save-cookies cookie.txt \
--post-data 'utente=pippo&password=bar' \
http://server.com/auth.php

# Ora prendi la pagina o le pagine che ci interessano.
wget --load-cookies cookie.txt \
-p http://server.com/interesting/article.php

Se il server utilizza i cookie di sessione per tracciare l'autenticazione dell'utente, quanto sopra sarà
non funziona perché --salva-cookie non li salverà (e nemmeno i browser) e il
cookie.txt il file sarà vuoto. In tal caso utilizzare --keep-sessione-cookie con
--salva-cookie per forzare il salvataggio dei cookie di sessione.

--metodo=Metodo HTTP
Ai fini dello script RESTful, Wget consente l'invio di altri metodi HTTP
senza la necessità di impostarli esplicitamente usando --header=Linea di intestazione. Wget userà
qualunque stringa gli venga passata dopo --metodo come metodo HTTP al server.

--dati-corpo=Stringa di dati
--file-corpo=File di dati
Deve essere impostato quando è necessario inviare dati aggiuntivi al server insieme al Metodo
specificato usando --metodo. --dati-corporei invia stringa come dati, mentre --file-corpo invia
il contenuto di filetto. A parte questo, funzionano esattamente allo stesso modo.

Attualmente, --file-corpo is non per la trasmissione dei file nel loro insieme. Wget non lo fa
attualmente supporta "multipart/form-data" per la trasmissione di dati; soltanto
"application/x-www-form-urlencoded". In futuro, questo potrebbe essere cambiato in modo che wget
invia il --file-corpo come file completo invece di inviarne il contenuto al
server. Si prega di essere consapevoli del fatto che Wget deve conoscere in anticipo il contenuto dei dati BODY,
e quindi l'argomento per --file-corpo dovrebbe essere un file normale. Vedere --post-file per
spiegazione più dettagliata. Solo uno di --dati-corporei ed --file-corpo dovrebbe essere
specificato.

Se Wget viene reindirizzato dopo che la richiesta è stata completata, Wget sospenderà l'attuale
e inviare una richiesta GET fino al completamento del reindirizzamento. Questo è vero per tutti
codici di risposta di reindirizzamento eccetto 307 Reindirizzamento temporaneo che viene utilizzato in modo esplicito
specificare che il metodo di richiesta dovrebbe non modificare. Un'altra eccezione è quando il
il metodo è impostato su "POST", nel qual caso le regole di reindirizzamento specificate in
--post-dati sono seguiti.

--disposizione del contenuto
Se è attivato, il supporto sperimentale (non completamente funzionale) per
Le intestazioni "Content-Disposition" sono abilitate. Ciò può attualmente comportare ulteriori round-
si reca al server per una richiesta "HEAD", ed è noto che soffre di alcuni bug,
motivo per cui non è attualmente abilitato per impostazione predefinita.

Questa opzione è utile per alcuni programmi CGI di download di file che utilizzano
Intestazioni "Content-Disposition" per descrivere quale dovrebbe essere il nome di un file scaricato
essere.

--content-on-error
Se questo è impostato su on, wget non salterà il contenuto quando il server risponde con a
codice di stato http che indica un errore.

--trust-server-nomi
Se è attivato, in caso di reindirizzamento l'ultimo componente dell'URL di reindirizzamento sarà
utilizzato come nome del file locale. Per impostazione predefinita viene utilizzato l'ultimo componente nell'originale
URL.

--auth-no-challenge
Se viene data questa opzione, Wget invierà le informazioni di autenticazione HTTP di base
(nome utente e password in testo normale) per tutte le richieste, proprio come Wget 1.10.2 e precedenti
fatto per impostazione predefinita.

L'uso di questa opzione non è raccomandato ed è inteso solo per supportare alcuni pochi
server oscuri, che non inviano mai richieste di autenticazione HTTP, ma accettano
informazioni di autenticazione non richieste, ad esempio, oltre all'autenticazione basata su moduli.

HTTPS (SSL/TLS) Opzioni
Per supportare i download crittografati HTTP (HTTPS), Wget deve essere compilato con un SSL esterno
biblioteca. L'impostazione predefinita corrente è GnuTLS. Inoltre, Wget supporta anche HSTS (HTTP Strict
sicurezza dei trasporti). Se Wget è compilato senza il supporto SSL, nessuna di queste opzioni lo è
a disposizione.

--protocollo-secure=protocollo
Scegli il protocollo sicuro da utilizzare. I valori legali sono auto, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 ed PFS. Se auto viene utilizzato, la libreria SSL ha la libertà di
scegliendo automaticamente il protocollo appropriato, che si ottiene inviando un TLSv1
saluto. Questa è l'impostazione predefinita.

specificando SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 impone l'uso del corrispondente
protocollo. Questo è utile quando si parla di implementazioni del server SSL vecchie e difettose
che rendono difficile per la libreria SSL sottostante scegliere il protocollo corretto
versione. Fortunatamente, tali server sono piuttosto rari.

specificando PFS impone l'uso del cosiddetto cifrario Perfect Forward Security
suite. In breve, PFS aggiunge sicurezza creando una chiave una tantum per ogni SSL
connessione. Ha un impatto leggermente maggiore sulla CPU su client e server. Usiamo noto per essere
cifrature sicure (es. no MD4) e il protocollo TLS.

--Solo https
In modalità ricorsiva, vengono seguiti solo i collegamenti HTTPS.

--no-check-certificato
Non confrontare il certificato del server con le autorità di certificazione disponibili.
Inoltre, non è necessario che il nome host dell'URL corrisponda al nome comune presentato dal
certificato.

A partire da Wget 1.10, l'impostazione predefinita è verificare il certificato del server rispetto al
autorità di certificazione riconosciute, interrompendo l'handshake SSL e interrompendo il
scaricare se la verifica fallisce. Sebbene ciò fornisca download più sicuri, è
interrompe l'interoperabilità con alcuni siti che funzionavano con versioni precedenti di Wget,
in particolare quelli che utilizzano certificati autofirmati, scaduti o altrimenti non validi.
Questa opzione forza una modalità operativa "non sicura" che trasforma il certificato
errori di verifica in avvisi e consente di procedere.

Se riscontri errori di "verifica del certificato" o quelli che dicono che "nome comune
non corrisponde al nome host richiesto", puoi utilizzare questa opzione per ignorare la verifica
e procedere con il download. Solo uso questo opzione if Tu sono altrimenti convinto of
, il del sito autenticità, or if Tu veramente non che circa , il validità of la sua
certificato. È quasi sempre una cattiva idea non controllare i certificati quando
trasmissione di dati riservati o importanti. Per i certificati autofirmati/interni,
dovresti scaricare il certificato e verificarlo invece di forzarlo
modalità insicura. Se sei proprio sicuro di non volere nessuna verifica del certificato,
puoi specificare --check-certificate=quiet per dire a wget di non stampare alcun avviso su
certificati non validi, anche se nella maggior parte dei casi questa è la cosa sbagliata da fare.

--certificato=filetto
Utilizza il certificato client archiviato in filetto. Questo è necessario per i server che sono
configurato per richiedere i certificati dai client che si connettono ad essi. normalmente a
certificato non è richiesto e questa opzione è facoltativa.

--tipo-certificato=Digitare
Specificare il tipo di certificato client. I valori legali sono PEM (assunto per impostazione predefinita)
ed IL, conosciuto anche come ASN1.

--chiave-privata=filetto
Leggi la chiave privata da filetto. Questo ti permette di fornire la chiave privata in un file
separato dal certificato.

--tipo-chiave-privata=Digitare
Specificare il tipo di chiave privata. I valori accettati sono PEM (l'impostazione predefinita) e IL.

--ca-certificato=filetto
Usa il filetto come file con il bundle di autorità di certificazione ("CA") per verificare il
colleghi. I certificati devono essere in formato PEM.

Senza questa opzione Wget cerca i certificati CA nelle posizioni specificate dal sistema,
scelto al momento dell'installazione di OpenSSL.

--ca-directory=elenco
Specifica la directory contenente i certificati CA in formato PEM. Ogni file ne contiene uno
certificato CA e il nome del file si basa su un valore hash derivato dal
certificato. Ciò si ottiene elaborando una directory di certificati con il
Utility "c_rehash" fornita con OpenSSL. Usando --ca-directory è più efficiente di
--ca-certificato quando sono installati molti certificati perché consente a Wget di recuperare
certificati su richiesta.

Senza questa opzione Wget cerca i certificati CA nelle posizioni specificate dal sistema,
scelto al momento dell'installazione di OpenSSL.

--crl-file=filetto
Specifica un file CRL in filetto. Questo è necessario per i certificati che sono stati
revocata dalle CA.

--file-casuale=filetto
[Solo OpenSSL e LibreSSL] Usa filetto come fonte di dati casuali per seminare il
generatore di numeri pseudo-casuali su sistemi senza / Dev / urandom.

Su tali sistemi, la libreria SSL necessita di una fonte esterna di casualità per l'inizializzazione.
La casualità può essere fornita da EGD (vedi --egd-file sotto) o leggere da un esterno
sorgente specificata dall'utente. Se questa opzione non è specificata, Wget cerca random
dati in $RANDFILE o, se non è impostato, in $CASA/.rnd.

Se ricevi il messaggio "Impossibile eseguire il seeding di OpenSSL PRNG; disabilitare SSL." errore, dovresti
fornire dati casuali utilizzando alcuni dei metodi sopra descritti.

--egd-file=filetto
[Solo OpenSSL] Usa filetto come presa EGD. EGD sta per entropia Raccolta Demone, un
programma in spazio utente che raccoglie dati da varie fonti di sistema imprevedibili e
lo rende disponibile ad altri programmi che potrebbero averne bisogno. Software di crittografia, come
la libreria SSL, ha bisogno di fonti di casualità non ripetitiva per seminare il numero casuale
generatore utilizzato per produrre chiavi crittograficamente forti.

OpenSSL consente all'utente di specificare la propria fonte di entropia utilizzando "RAND_FILE"
variabile d'ambiente. Se questa variabile non è impostata o se il file specificato non lo è
produrre abbastanza casualità, OpenSSL leggerà i dati casuali dal socket EGD specificato
utilizzando questa opzione.

Se questa opzione non è specificata (e non viene utilizzato il comando di avvio equivalente), EGD
non viene mai contattato. EGD non è necessario sui moderni sistemi Unix che supportano
/ Dev / urandom.

--no-hst
Wget supporta HSTS (HTTP Strict Transport Security, RFC 6797) per impostazione predefinita. Utilizzo
--no-hst per fare in modo che Wget agisca come un UA non conforme a HSTS. Di conseguenza, Wget avrebbe
ignorare tutte le intestazioni "Strict-Transport-Security" e non imporrebbe nessuna esistente
Politica HSTS.

--file-hsts=filetto
Per impostazione predefinita, Wget memorizza il suo database HSTS in ~/.wget-hsts. È possibile utilizzare --file-hsts a
sovrascrivere questo. Wget utilizzerà il file fornito come database HSTS. Tale file deve
conforme al formato di database HSTS corretto utilizzato da Wget. Se Wget non può analizzare il
file fornito, il comportamento non è specificato.

Il database HSTS di Wget è un file di testo normale. Ogni riga contiene una voce HSTS (es. a
sito che ha emesso un'intestazione "Strict-Transport-Security" e che quindi ha
specificato una politica HSTS concreta da applicare). Le righe che iniziano con un trattino ("#") sono
ignorato da Wget. Si prega di notare che nonostante questa comoda mano leggibile dall'uomo-
hackerare il database HSTS non è generalmente una buona idea.

Una riga di immissione HSTS è composta da diversi campi separati da uno o più spazi bianchi:

" SP [ ] SP SP SP "

I hostname ed porto i campi indicano il nome host e la porta a cui il dato HSTS
si applica la politica. Il porto campo può essere zero, e lo sarà, nella maggior parte dei casi. Quella
significa che il numero di porta non sarà preso in considerazione nel decidere se tale
La politica HSTS dovrebbe essere applicata su una data richiesta (solo il nome host sarà
valutato). quando porto è diverso da zero, sia il nome host di destinazione che la porta lo faranno
essere valutati e la politica HSTS verrà applicata solo se entrambi corrispondono. Questo
funzionalità è stata inclusa solo a scopo di test/sviluppo. La suite di test Wget
(in prova/) crea banche dati HSTS con porte esplicite allo scopo di garantire
Il comportamento corretto di Wget. Applicazione di criteri HSTS a porte diverse da quelle predefinite
è scoraggiato dalla RFC 6797 (vedi Appendice B "Differenze tra HSTS Policy e Same-
Criterio di origine"). Pertanto, questa funzionalità non dovrebbe essere utilizzata in produzione
ambienti e porto sarà in genere pari a zero. Gli ultimi tre campi fanno quello che sono
previsto. Il campo include_sottodomini può essere 1 o 0 e segnala se
anche i sottodomini del dominio di destinazione dovrebbero far parte della determinata politica HSTS.
I creato ed età massima i campi contengono i valori del timestamp di quando tale voce era
creato (visto per la prima volta da Wget) e il valore definito da HSTS 'max-age', che indica come
a lungo se la politica HSTS rimane attiva, misurata in secondi trascorsi dal
timestamp memorizzato in creato. Una volta trascorso tale tempo, tale politica HSTS non sarà più valida
saranno più validi e verranno eventualmente rimossi dal database.

Se fornisci il tuo database HSTS tramite --file-hsts, tieni presente che Wget potrebbe modificare
il file fornito se si verifica una modifica tra le politiche HSTS richieste dal
server remoti e quelli nel file. Quando Wget esiste, aggiorna efficacemente il
Database HSTS riscrivendo il file del database con le nuove voci.

Se il file fornito non esiste, Wget ne creerà uno. Questo file conterrà il
nuove voci HSTS. Se non sono state generate voci HSTS (nessuna "Strict-Transport-Security"
le intestazioni sono state inviate da uno qualsiasi dei server) quindi non verrà creato alcun file, nemmeno un
uno vuoto. Questo comportamento si applica al file di database predefinito (~/.wget-hsts) anche:
non verrà creato fino a quando alcuni server non applicheranno una politica HSTS.

Si presta attenzione a non sovrascrivere eventuali modifiche apportate da altri processi Wget al
stesso tempo sul database HSTS. Prima di scaricare le voci HSTS aggiornate sul file,
Wget lo rileggerà e unirà le modifiche.

L'utilizzo di un database HSTS personalizzato e/o la modifica di uno esistente è sconsigliato. Per
ulteriori informazioni sulle potenziali minacce alla sicurezza derivanti da tale pratica, vedere
sezione 14 "Considerazioni sulla sicurezza" della RFC 6797, in particolare la sezione 14.9 "Creatività"
Manipolazione del Policy Store HSTS".

--file-warc=filetto
Usa il filetto come file WARC di destinazione.

--warc-intestazione=stringa
Usa il stringa come record warcinfo.

--warc-dimensione-max=Taglia
Imposta la dimensione massima dei file WARC su Taglia.

--warc-cdx
Scrivere file indice CDX.

--warc-dedup=filetto
Non memorizzare i record elencati in questo file CDX.

--no-warc-compressione
Non comprimere i file WARC con GZIP.

--no-warc-digest
Non calcolare digest SHA1.

--no-warc-keep-log
Non memorizzare il file di registro in un record WARC.

--warc-tempdir=dir
Specificare la posizione per i file temporanei creati dal writer WARC.

FTP Opzioni
--ftp-utente=Utente
--password-ftp=parola d'ordine
Specifica il nome utente Utente e password parola d'ordine su un server FTP. Senza questo, o
l'opzione di avvio corrispondente, la password predefinita è -wget@, normalmente utilizzato per
FTP anonimo.

Un altro modo per specificare nome utente e password è nell'URL stesso. Entrambi i metodi
rivela la tua password a chiunque si preoccupi di eseguire "ps". Per prevenire le password
dall'essere visti, conservali in .wgetrc or .netrce assicurati di proteggere quei file
da altri utenti con "chmod". Se le password sono davvero importanti, non andartene
anche loro si trovano in quei file --- modifica i file ed eliminali dopo che Wget ha
avviato il download.

--no-rimozione-elenco
Non rimuovere il temporaneo .elenco file generati da recuperi FTP. Normalmente,
questi file contengono gli elenchi di directory non elaborati ricevuti dai server FTP. Non
rimuoverli può essere utile per scopi di debug o quando si desidera essere in grado di
controllare facilmente il contenuto delle directory del server remoto (ad esempio per verificare che a
mirror che stai eseguendo è completo).

Nota che anche se Wget scrive su un nome file noto per questo file, questo non è un
buco di sicurezza nello scenario di un utente che fa .elenco un collegamento simbolico a /etc/passwd
o qualcosa del genere e chiedendo a "root" di eseguire Wget nella sua directory. Dipende da
opzioni utilizzate, Wget rifiuterà di scrivere su .elenco, rendendo il
l'operazione di globbing/ricorsione/timestamp non riesce o il collegamento simbolico verrà eliminato
e sostituito con l'effettivo .elenco file, o l'elenco verrà scritto su a
.numero.elenco file.

Anche se questa situazione non è un problema, tuttavia, "root" non dovrebbe mai eseguire Wget in a
directory dell'utente non attendibile. Un utente potrebbe fare qualcosa di semplice come il collegamento
index.html a /etc/passwd e chiedendo a "root" di eseguire Wget con -N or -r quindi il file sarà
essere sovrascritto.

--no-glob
Disattiva il globbing FTP. Il globbing si riferisce all'uso di caratteri speciali simili a conchiglie
(jolly), piace *, ?, [ ed ] per recuperare più di un file dalla stessa directory
subito, come:

wget ftp://gnjilux.srk.fer.hr/*.msg

Per impostazione predefinita, il globbing sarà attivato se l'URL contiene un carattere globbing. Questo
L'opzione può essere utilizzata per attivare o disattivare permanentemente il globbing.

Potrebbe essere necessario citare l'URL per proteggerlo dall'espansione dalla shell.
Il globbing fa sì che Wget cerchi un elenco di directory, che è specifico del sistema. Questo è
perché attualmente funziona solo con server FTP Unix (e quelli che emulano Unix "ls"
produzione).

--no-passivo-ftp
Disabilitare l'uso del passivo Modalità di trasferimento FTP. FTP passivo impone che il
il client si connette al server per stabilire la connessione dati piuttosto che l'altra
modo intorno.

Se la macchina è collegata direttamente a Internet, FTP sia passivo che attivo
dovrebbe funzionare ugualmente bene. Dietro la maggior parte delle configurazioni di firewall e NAT, FTP passivo ha
una migliore possibilità di lavoro. Tuttavia, in alcune rare configurazioni del firewall, FTP attivo
funziona effettivamente quando FTP passivo non lo fa. Se sospetti che sia così, usa questo
opzione, o imposta "passive_ftp=off" nel tuo file init.

--preserva-permessi
Conserva i permessi dei file remoti invece dei permessi impostati da umask.

--retr-link simbolici
Per impostazione predefinita, quando si recuperano le directory FTP in modo ricorsivo e viene visualizzato un collegamento simbolico
incontrato, il collegamento simbolico viene attraversato e vengono recuperati i file puntati.
Attualmente, Wget non attraversa i collegamenti simbolici alle directory per scaricarli
ricorsivamente, anche se questa funzione potrebbe essere aggiunta in futuro.

Quando --retr-link simbolici=no è specificato, il file collegato non viene scaricato. Anziché,
viene creato un collegamento simbolico corrispondente sul filesystem locale. Il file puntato sarà
non essere recuperato a meno che questo recupero ricorsivo non lo avesse incontrato separatamente
e scaricato comunque. Questa opzione rappresenta un rischio per la sicurezza in cui un FTP dannoso
Il server può far sì che Wget scriva su file al di fuori delle directory previste tramite a
file .LISTING appositamente predisposto.

Si noti che quando si recupera un file (non una directory) perché è stato specificato nel
riga di comando, piuttosto che perché è stata richiamata, questa opzione non ha effetto.
I collegamenti simbolici vengono sempre attraversati in questo caso.

FTPS Opzioni
--ftps-implicito
Questa opzione dice a Wget di usare implicitamente FTPS. FTPS implicito consiste nell'inizializzazione
SSL/TLS fin dall'inizio della connessione di controllo. Questa opzione non invia
un comando "AUTH TLS": presuppone che il server parli FTPS e avvia direttamente un
Connessione SSL/TLS. Se il tentativo va a buon fine, la sessione continua come
FTPS regolari ("PBSZ" e "PROT" vengono inviati, ecc.). FTPS implicito non è più a
requisito per le implementazioni FTPS e quindi molti server potrebbero non supportarlo. Se
--ftps-implicito viene passato e non viene specificato alcun numero di porta esplicito, la porta predefinita per
verrà utilizzato FTPS implicito, 990, invece della porta predefinita per il "normale"
(esplicito) FTPS che è lo stesso di FTP, 21.

--no-ftps-resume-ssl
Non riprendere la sessione SSL/TLS nel canale dati. Quando si avvia un dato
connessione, Wget tenta di riprendere la sessione SSL/TLS precedentemente avviata nel controllo
connessione. La ripresa della sessione SSL/TLS evita di eseguire una stretta di mano completamente nuova di
riutilizzo dei parametri SSL/TLS di una sessione precedente. In genere, i server FTPS vogliono
in questo modo, quindi Wget lo fa per impostazione predefinita. In rare circostanze, tuttavia, si potrebbe
desidera avviare una sessione SSL/TLS completamente nuova in ogni connessione dati. Questo è ciò
--no-ftps-resume-ssl è per.

--ftps-cancella-connessione-dati
Tutte le connessioni dati saranno in testo normale. Solo la connessione di controllo sarà
sotto SSL/TLS. Wget invierà un comando "PROT C" per ottenere ciò, che deve essere
approvato dal server.

--ftps-fallback-to-ftp
Torna a FTP se FTPS non è supportato dal server di destinazione. Per motivi di sicurezza,
questa opzione non è richiesta per impostazione predefinita. Il comportamento predefinito è uscire con an
errore. Se un server non risponde correttamente al comando "AUTH TLS" iniziale, oppure
nel caso di FTPS implicito, se il tentativo di connessione SSL/TLS iniziale viene rifiutato,
si ritiene che tale server non supporti FTPS.

Ricorsivo Recupero Opzioni
-r
--ricorsivo
Attiva il recupero ricorsivo. La profondità massima predefinita è 5.

-l profondità
--livello=profondità
Specifica il livello massimo di profondità di ricorsione profondità.

--cancella-dopo
Questa opzione dice a Wget di eliminare ogni singolo file che scarica, dopo averlo fatto.
È utile per il pre-recupero di pagine popolari tramite un proxy, ad esempio:

wget -r -nd --delete-after http://whatever.com/~popular/page/

I -r l'opzione è recuperare in modo ricorsivo, e -ns per non creare directory.

Si noti che --cancella-dopo elimina i file sul computer locale. Non emette il
DELE comando a siti FTP remoti, ad esempio. Nota anche che quando --cancella-dopo is
specificato, --converti-link viene ignorato, quindi .origine i file semplicemente non vengono creati nel
primo posto.

-k
--converti-link
Al termine del download, converti i collegamenti nel documento per realizzarli
adatto per la visualizzazione locale. Ciò riguarda non solo i collegamenti ipertestuali visibili, ma qualsiasi
parte del documento che si collega a contenuti esterni, come immagini incorporate, collegamenti a
fogli di stile, collegamenti ipertestuali a contenuti non HTML, ecc.

Ciascun collegamento verrà modificato in uno dei due modi seguenti:

· I collegamenti ai file che sono stati scaricati da Wget verranno modificati per fare riferimento a
il file a cui puntano come collegamento relativo.

Esempio: se il file scaricato /pippo/doc.html collegamenti a /bar/img.gif, So
scaricato, quindi il link in doc.html sarà modificato per puntare a ../barra/img.gif.
Questo tipo di trasformazione funziona in modo affidabile per combinazioni arbitrarie di
directory.

· I collegamenti ai file che non sono stati scaricati da Wget verranno modificati in
includono il nome host e il percorso assoluto della posizione a cui puntano.

Esempio: se il file scaricato /pippo/doc.html collegamenti a /bar/img.gif (o a
../barra/img.gif), quindi il collegamento in doc.html sarà modificato per puntare a
http://hostname/bar/img.gif.

Per questo motivo, la navigazione locale funziona in modo affidabile: se è stato scaricato un file collegato, il
link farà riferimento al suo nome locale; se non è stato scaricato, il collegamento farà riferimento a
il suo indirizzo Internet completo anziché presentare un collegamento interrotto. Il fatto che
i collegamenti precedenti vengono convertiti in collegamenti relativi assicura che tu possa spostare il scaricato
gerarchia in un'altra directory.

Nota che solo alla fine del download Wget può sapere quali collegamenti sono stati
scaricato. Per questo motivo, il lavoro svolto da -k sarà eseguita alla fine di tutto
i download.

--converti-solo-file
Questa opzione converte solo la parte del nome file degli URL, lasciando il resto degli URL
intatto. Questa parte del nome del file è talvolta indicata come "nome base", sebbene noi
evitare questo termine qui per non creare confusione.

Funziona particolarmente bene in combinazione con --regolare-estensione, anche se questo
l'accoppiamento non viene imposto. Si rivela utile popolare le cache di Internet con i file
scaricato da host diversi.

Esempio: se qualche link punta a //foo.com/bar.cgi?xyz con --regolare-estensione asserito
e la sua destinazione locale è destinata ad essere ./foo.com/bar.cgi?xyz.css, poi il link
verrebbe convertito in //foo.com/bar.cgi?xyz.css. Nota che solo la parte del nome del file ha
stato modificato. Il resto dell'URL è stato lasciato intatto, incluso il percorso di rete
("//") che sarebbero altrimenti elaborati da Wget e convertiti nell'effettivo
schema (es. "http://").

-K
--backup-convertito
Quando si converte un file, eseguire il backup della versione originale con a .origine suffisso. Colpisce il
comportamento di -N.

-m
--specchio
Attiva le opzioni adatte per il mirroring. Questa opzione attiva la ricorsione e il tempo-
stampaggio, imposta una profondità di ricorsione infinita e mantiene gli elenchi delle directory FTP. è
attualmente equivalente a -r -N -l inf --no-rimozione-elenco.

-p
--requisiti-pagina
Questa opzione fa in modo che Wget scarichi tutti i file necessari per il corretto funzionamento
visualizzare una determinata pagina HTML. Ciò include cose come immagini, suoni e
fogli di stile di riferimento.

Normalmente, quando si scarica una singola pagina HTML, tutti i documenti necessari che possono essere
necessari per visualizzarlo correttamente non vengono scaricati. Usando -r insieme -l può aiutare,
ma poiché Wget normalmente non distingue tra documenti esterni e inline,
si rimane generalmente con "documenti foglia" che mancano dei loro requisiti.

Ad esempio, diciamo documento 1.html contiene un " "riferimento tag 1.gif e
Tag " " che punta a un documento esterno 2.html. Dillo 2.html è simile ma quello
la sua immagine è 2.gif e si collega a 3.html. Diciamo che questo continua fino ad alcuni arbitrariamente
numero elevato.

Se si esegue il comando:

wget -r -l 2 http:// /1.html

poi 1.html, 1.gif, 2.html, 2.gife 3.html verrà scaricato. Come potete vedere,
3.html è senza i suoi requisiti 3.gif perché Wget sta semplicemente contando il numero di
luppoli (fino a 2) lontano da 1.html per determinare dove fermare la ricorsione.
Tuttavia, con questo comando:

wget -r -l 2 -p http:// /1.html

tutti i file di cui sopra ed 3.htmlè il requisito 3.gif verrà scaricato. Allo stesso modo,

wget -r -l 1 -p http:// /1.html

causerà 1.html, 1.gif, 2.htmle 2.gif da scaricare. Si potrebbe pensare che:

wget -r -l 0 -p http:// /1.html

scaricherei solo 1.html ed 1.gif, ma purtroppo non è così, perché
-l 0 è equivalente -l inf---cioè, ricorsione infinita. Per scaricare un singolo HTML
page (o una manciata di esse, tutte specificate sulla riga di comando o in a -i Inserimento URL
file) e i suoi (o loro) requisiti, lascia semplicemente fuori -r ed -l:

wget -p http:// /1.html

Nota che Wget si comporterà come se -r era stato specificato, ma solo quella singola pagina e
i suoi requisiti verranno scaricati. I collegamenti da quella pagina a documenti esterni lo faranno
non essere seguito. In realtà, per scaricare una singola pagina e tutti i suoi requisiti (anche se
esistono su siti Web separati) e assicurati che il lotto venga visualizzato correttamente a livello locale,
a questo autore piace usare alcune opzioni oltre a -p:

wget -E -H -k -K -p http:// /

Per concludere questo argomento, vale la pena sapere che l'idea di Wget di un documento esterno
link è qualsiasi URL specificato in un " " tag, un " " tag, o un " " tagga altro
di " ".

--strict-commenti
Attiva l'analisi rigorosa dei commenti HTML. L'impostazione predefinita è terminare i commenti al
prima occorrenza di ->.

Secondo le specifiche, i commenti HTML sono espressi come SGML dichiarazioni.
La dichiarazione è un markup speciale che inizia con <! e finisce con >, come <!DOCTYPE
...>, che può contenere commenti tra una coppia di -- Delimitatori. I commenti HTML sono
"dichiarazioni vuote", dichiarazioni SGML senza alcun testo di non commento. Perciò,
è un commento valido, e lo è anche <!--uno-- --due-->, ma non è.

D'altra parte, la maggior parte degli scrittori HTML non percepisce i commenti come qualcosa di diverso da
testo delimitato con <!-- ed ->, che non è proprio la stessa cosa. Ad esempio, qualcosa
piace funziona come un commento valido fintanto che il numero di trattini è a
multiplo di quattro (!). In caso contrario, tecnicamente il commento dura fino al prossimo --, quale
potrebbe trovarsi all'altra estremità del documento. Per questo motivo, molti browser popolari
ignora completamente le specifiche e implementa ciò che gli utenti si aspettano:
commenti delimitati da <!-- ed ->.

Fino alla versione 1.9, Wget interpretava rigorosamente i commenti, il che portava a collegamenti mancanti
in molte pagine web che venivano visualizzate bene nei browser, ma avevano la sfortuna di
contenente commenti non conformi. A partire dalla versione 1.9, Wget si è unito al
ranghi di clienti che implementano commenti "ingenui", terminando ogni commento al
prima occorrenza di ->.

Se, per qualsiasi motivo, desideri un'analisi rigorosa dei commenti, usa questa opzione per attivarla
on.

Ricorsivo Accetta/Rifiuta Opzioni
-A acclista --accettare acclista
-R rejlist --rifiutare rejlist
Specificare elenchi separati da virgole di suffissi o modelli di nomi di file da accettare o rifiutare.
Nota che se uno qualsiasi dei caratteri jolly, *, ?, [ or ], appaiono in un elemento di
acclista or rejlist, verrà trattato come un motivo, anziché come un suffisso. In questo
caso, devi racchiudere il modello tra virgolette per evitare che la tua shell si espanda
esso, come in -A "*.mp3" or -A '*.mp3'.

--accetta-regex urlregex
--reject-regex urlregex
Specifica un'espressione regolare per accettare o rifiutare l'URL completo.

--tipo-regex tipo regolare
Specificare il tipo di espressione regolare. I tipi possibili sono posix or PCRE. Nota che a
essere in grado di utilizzare PCRE type, wget deve essere compilato con il supporto libpcre.

-D elenco-domini
--domini=elenco-domini
Imposta i domini da seguire. elenco-domini è un elenco di domini separati da virgole. Nota
che lo fa non accendere -H.

--exclude-domini elenco-domini
Specificare i domini che sono non essere seguito.

--follow-ftp
Segui i collegamenti FTP dai documenti HTML. Senza questa opzione, Wget ignorerà tutte le
Collegamenti FTP.

--follow-tag=stratagemma
Wget ha una tabella interna di coppie tag / attributi HTML che considera quando
ricerca di documenti collegati durante un recupero ricorsivo. Se un utente vuole solo un
sottoinsieme di quei tag da considerare, tuttavia, dovrebbe specificare tali tag
in una virgola separata stratagemma con questa opzione.

--ignore-tag=stratagemma
Questo è l'opposto di --follow-tag opzione. Per saltare determinati tag HTML quando
ricerca ricorsiva di documenti da scaricare, specificarli in un separato da virgole stratagemma.

In passato, questa opzione era la soluzione migliore per scaricare una singola pagina e la sua
requisiti, utilizzando una riga di comando come:

wget --ignore-tags=a,area -H -k -K -r http:// /

Tuttavia, l'autore di questa opzione si è imbattuto in una pagina con tag come "
HREF="/">" ed è arrivato alla conclusione che specificare i tag da ignorare non era sufficiente.
Non si può semplicemente dire a Wget di ignorare " ", perché allora i fogli di stile non saranno
scaricato. Ora la migliore scommessa per scaricare una singola pagina e i suoi requisiti è il
dedicato --requisiti-pagina opzione.

--ignora-caso
Ignora maiuscole e minuscole durante la corrispondenza di file e directory. Questo influenza il comportamento di -R,
Opzioni -A, -I e -X, nonché globbing implementato durante il download da FTP
siti. Ad esempio, con questa opzione, -A "*.testo" corrisponderà file1.txt, ma anche
file2.TXT, file3.TxT, e così via. Le virgolette nell'esempio servono a prevenire la shell
dall'espansione del modello.

-H
--span-host
Abilita lo spanning tra gli host durante il recupero ricorsivo.

-L
--parente
Segui solo i link relativi. Utile per recuperare una home page specifica senza nessuna
distrazioni, nemmeno quelle degli stessi ospiti.

-I stratagemma
--include-directory=stratagemma
Specifica un elenco di directory separate da virgole che desideri seguire durante il download.
Elementi di stratagemma può contenere caratteri jolly.

-X stratagemma
--exclude-directory=stratagemma
Specifica un elenco di directory separate da virgole che desideri escludere dal download.
Elementi di stratagemma può contenere caratteri jolly.

-np
--no-genitore
Non salire mai alla directory padre durante il recupero ricorsivo. Questo è un
opzione utile, poiché garantisce che solo i file sotto una certa gerarchia lo farà
essere scaricato.

AMBIENTE


Wget supporta i proxy per i recuperi HTTP e FTP. Il modo standard per specificare il proxy
location, che Wget riconosce, utilizza le seguenti variabili di ambiente:

http_proxy
https_proxy
Se impostato, il http_proxy ed https_proxy le variabili dovrebbero contenere gli URL del
proxy rispettivamente per le connessioni HTTP e HTTPS.

proxy_ftp
Questa variabile dovrebbe contenere l'URL del proxy per le connessioni FTP. È tranquillo
comune che http_proxy ed proxy_ftp sono impostati sullo stesso URL.

no_proxy
Questa variabile dovrebbe contenere un elenco separato da virgole di estensioni di dominio che il proxy dovrebbe
non da usare per. Ad esempio, se il valore di no_proxy is .mit.edu, il proxy non lo farà
essere utilizzato per recuperare documenti dal MIT.

EXIT STATUS


Wget può restituire uno dei numerosi codici di errore se incontra problemi.

0 Non si sono verificati problemi.

1 Codice di errore generico.

2 Errore di analisi --- per esempio, quando si analizzano le opzioni della riga di comando, .wgetrc or
.netrc...

3 Errore I/O file.

4 Guasto di rete.

5 Errore di verifica SSL.

6 Errore di autenticazione nome utente/password.

7 Errori di protocollo.

8 Il server ha emesso una risposta di errore.

Ad eccezione di 0 e 1, i codici di uscita di numero inferiore hanno la precedenza su quelli di
quelli numerati, quando si verificano più tipi di errori.

Nelle versioni di Wget precedenti alla 1.12, lo stato di uscita di Wget tendeva a non essere utile e
incoerente. I download ricorsivi restituirebbero virtualmente sempre 0 (successo), indipendentemente da
eventuali problemi riscontrati e i recuperi non ricorsivi hanno restituito solo lo stato corrispondente
all'ultimo tentativo di download.

Usa wget online utilizzando i servizi onworks.net


Server e workstation gratuiti

Scarica app per Windows e Linux

Comandi Linux

Ad