AnglaisFrançaisEspagnol

Ad


Icône de favori OnWorks

wget - En ligne dans le Cloud

Exécutez wget dans le fournisseur d'hébergement gratuit OnWorks sur Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

Il s'agit de la commande wget qui peut être exécutée dans le fournisseur d'hébergement gratuit OnWorks en utilisant l'un de nos multiples postes de travail en ligne gratuits tels que Ubuntu Online, Fedora Online, l'émulateur en ligne Windows ou l'émulateur en ligne MAC OS

PROGRAMME:

Nom


Wget - Le téléchargeur de réseau non interactif.

SYNOPSIS


wget [option]... [URL] ...

DESCRIPTION


GNU Wget est un utilitaire gratuit pour le téléchargement non interactif de fichiers à partir du Web. Ce
prend en charge les protocoles HTTP, HTTPS et FTP, ainsi que la récupération via des proxys HTTP.

Wget n'est pas interactif, ce qui signifie qu'il peut fonctionner en arrière-plan, alors que l'utilisateur n'est pas
connecté. Cela vous permet de lancer une récupération et de vous déconnecter du système, laissant
Wget terminer le travail. En revanche, la plupart des navigateurs Web nécessitent un utilisateur constant
présence, ce qui peut être un grand obstacle lors du transfert de beaucoup de données.

Wget peut suivre des liens dans des pages HTML, XHTML et CSS, pour créer des versions locales de
sites Web, recréant entièrement la structure de répertoires du site d'origine. C'est
parfois appelé « téléchargement récursif ». Ce faisant, Wget respecte les
Norme d'exclusion des robots (/robots.txt). Wget peut être chargé de convertir les liens en
fichiers téléchargés pour pointer vers les fichiers locaux, pour une visualisation hors ligne.

Wget a été conçu pour être robuste sur les connexions réseau lentes ou instables ; si un
le téléchargement échoue en raison d'un problème de réseau, il continuera à réessayer jusqu'à ce que le fichier entier ait
été récupéré. Si le serveur prend en charge le regeting, il demandera au serveur de continuer
le téléchargement là où il s'est arrêté.

Wget ne prend pas en charge les listes de révocation des clients (CRL), donc le certificat HTTPS que vous êtes
la connexion à pourrait être révoquée par le propriétaire du site.

OPTIONS


Option Syntaxe
Puisque Wget utilise GNU getopt pour traiter les arguments de ligne de commande, chaque option a une forme longue
avec le court. Les options longues sont plus pratiques à retenir, mais prenez le temps de
taper. Vous pouvez librement mélanger différents styles d'options ou spécifier des options après la commande-
arguments de ligne. Ainsi vous pouvez écrire :

wget -r --essais=10 http://fly.srk.fer.hr/ -o journal

L'espace entre l'option acceptant un argument et l'argument peut être omis.
Au lieu de -o enregistrer tu peux écrire -log.

Vous pouvez mettre plusieurs options qui ne nécessitent pas d'arguments ensemble, comme :

wget -drc

C'est tout à fait équivalent à :

wget -d -r -c

Puisque les options peuvent être spécifiées après les arguments, vous pouvez les terminer avec --.
Donc, ce qui suit va essayer de télécharger l'URL -x, signalant l'échec de enregistrer:

wget -o journal -- -x

Les options qui acceptent les listes séparées par des virgules respectent toutes la convention selon laquelle spécifier
une liste vide efface sa valeur. Cela peut être utile pour effacer le .wgetrc Les paramètres. Pour
exemple, si votre .wgetrc définit "exclude_directories" sur /cgi-bin, l'exemple suivant
le réinitialisera d'abord, puis le définira pour exclure /~personne ainsi que /~quelqu'un. Vous pouvez également
effacer les listes dans .wgetrc.

wget -X " -X /~personne,/~quelqu'un

La plupart des options qui n'acceptent pas les arguments sont booléen options, ainsi nommées parce que leur
l'état peut être capturé avec une variable oui-ou-non ("booléenne"). Par exemple, --suivre-ftp
indique à Wget de suivre les liens FTP à partir de fichiers HTML et, d'autre part, --no-glob le dit
de ne pas effectuer de globalisation de fichiers sur les URL FTP. Une option booléenne est soit affirmative or
négatif (commençant par --non). Toutes ces options partagent plusieurs propriétés.

Sauf indication contraire, il est supposé que le comportement par défaut est à l'opposé de ce que
l'option accomplit. Par exemple, l'existence documentée de --suivre-ftp suppose
que la valeur par défaut est de ne sauraient suivez les liens FTP à partir des pages HTML.

Les options affirmatives peuvent être annulées en ajoutant le --non- au nom de l'option ; négatif
les options peuvent être annulées en omettant le --non- préfixe. Cela peut sembler superflu --- si le
par défaut pour une option affirmative est de ne pas faire quelque chose, alors pourquoi fournir un moyen de
l'éteindre explicitement ? Mais le fichier de démarrage peut en fait changer la valeur par défaut. Pour
exemple, en utilisant "follow_ftp = on" dans .wgetrc fait Wget suivre Liens FTP par défaut, et
en utilisant --no-follow-ftp est le seul moyen de restaurer les paramètres d'usine par défaut à partir de la commande
ligne.

Basic Démarrage Options
-V
--version
Affichez la version de Wget.

-h
--Aidez-moi
Imprimez un message d'aide décrivant toutes les options de ligne de commande de Wget.

-b
--Contexte
Accédez à l'arrière-plan immédiatement après le démarrage. Si aucun fichier de sortie n'est spécifié via le
-o, la sortie est redirigée vers wget-log.

-e commander
--exécuter commander
Exécution commander comme si cela faisait partie de .wgetrc. Une commande ainsi invoquée sera
réalisé après les commandes dans .wgetrc, prenant ainsi le pas sur eux. Si tu as besoin
pour spécifier plus d'une commande wgetrc, utilisez plusieurs instances de -e.

Journal ainsi que Entrée Déposez votre dernière attestation Options
-o fichier journal
--fichier-de-sortie=fichier journal
Enregistrez tous les messages sur fichier journal. Les messages sont normalement signalés à l'erreur standard.

-a fichier journal
--append-sortie=fichier journal
Ajouter à fichier journal. C'est la même chose que -o, seulement il s'ajoute à fichier journal au lieu de
écraser l'ancien fichier journal. Si fichier journal n'existe pas, un nouveau fichier est créé.

-d
--déboguer
Activer la sortie de débogage, ce qui signifie diverses informations importantes pour les développeurs de Wget
s'il ne fonctionne pas correctement. Votre administrateur système a peut-être choisi de compiler
Wget sans support de débogage, auquel cas -d ne fonctionnera pas. Veuillez noter que
la compilation avec le support de débogage est toujours sûre --- Wget compilé avec le support de débogage
sera ne sauraient imprimer toutes les informations de débogage sauf si demandé avec -d.

-q
--silencieux
Désactivez la sortie de Wget.

-v
--verbeux
Activez la sortie détaillée, avec toutes les données disponibles. La sortie par défaut est détaillée.

-nv
--non-verbeux
Désactivez le verbeux sans être complètement silencieux (utilisez -q pour cela), ce qui signifie que
les messages d'erreur et les informations de base sont toujours imprimés.

--rapport-vitesse=type
Bande passante de sortie comme type. La seule valeur acceptée est les bits.

-i filet
--input-file=filet
Lire les URL à partir d'un local ou d'un externe filet. Si - est spécifié comme filet, les URL sont lues
à partir de l'entrée standard. (Utilisation ./- lire à partir d'un fichier nommé littéralement -.)

Si cette fonction est utilisée, aucune URL n'a besoin d'être présente sur la ligne de commande. S'il y a
URL à la fois sur la ligne de commande et dans un fichier d'entrée, celles sur les lignes de commande seront
les premiers à être récupérés. Si --force-html n'est pas spécifié, alors filet devrait
consistent en une série d'URL, une par ligne.

Cependant, si vous spécifiez --force-html, le document sera considéré comme html. Dans ce
cas où vous pourriez avoir des problèmes avec les liens relatifs, que vous pouvez résoudre soit en ajoutant
"URL">" aux documents ou en précisant --base=url sur la ligne de commande.

Si la filet est externe, le document sera automatiquement traité comme html if
le type de contenu correspond text / html. En outre, le filetl'emplacement de sera
implicitement utilisé comme href de base si aucun n'a été spécifié.

--input-metalink=filet
Téléchargements de fichiers couverts dans Metalink local filet. Les versions 3 et 4 de Metalink sont
prise en charge.

--metalink-sur-http
Émet une requête HTTP HEAD au lieu de GET et extrait les métadonnées Metalink de la réponse
en-têtes. Ensuite, il passe au téléchargement Metalink. Si aucune métadonnée Metalink valide n'est
trouvé, il revient au téléchargement HTTP ordinaire.

--Lieu préféré
Définissez l'emplacement préféré des ressources Metalink. Cela a un effet si plusieurs ressources
avec la même priorité sont disponibles.

-F
--force-html
Lorsque l'entrée est lue à partir d'un fichier, forcez-la à être traitée comme un fichier HTML. Cela permet
vous permet de récupérer des liens relatifs à partir de fichiers HTML existants sur votre disque local, en ajoutant
"URL">" en HTML, ou en utilisant le --base option de ligne de commande.

-B URL
--base=URL
Résout les liens relatifs en utilisant URL comme point de référence, lors de la lecture des liens de
un fichier HTML spécifié via le -i/--fichier-d'entrée option (avec --force-htmlou
lorsque le fichier d'entrée a été récupéré à distance depuis un serveur le décrivant comme HTML). C'est
équivalent à la présence d'une balise "BASE" dans le fichier HTML d'entrée, avec URL car
valeur pour l'attribut "href".

Par exemple, si vous spécifiez http://foo/bar/a.html en URL, et Wget lit
../baz/b.html du fichier d'entrée, il serait résolu de http://foo/baz/b.html.

--config=DOSSIER
Spécifiez l'emplacement d'un fichier de démarrage que vous souhaitez utiliser.

--log-rejeté =fichier journal
Enregistre tous les rejets d'URL dans fichier journal sous forme de valeurs séparées par des virgules. Les valeurs incluent le
raison du rejet, l'URL et l'URL parent dans laquelle il a été trouvé.

Télécharger Options
--bind-adresse=ADRESSE
Lors de l'établissement de connexions TCP/IP clientes, liez-vous à ADRESSE sur la machine locale. ADRESSE
peut être spécifié en tant que nom d'hôte ou adresse IP. Cette option peut être utile si votre
la machine est liée à plusieurs IP.

-t nombre
--essais=nombre
Définir le nombre d'essais pour nombre. Spécifiez 0 ou inf pour réessayer à l'infini. La valeur par défaut est
de réessayer 20 fois, à l'exception des erreurs fatales telles que "connexion refusée" ou
"not found" (404), qui ne sont pas réessayés.

-O filet
--output-document=filet
Les documents ne seront pas écrits dans les fichiers appropriés, mais tous seront
concaténés et écrits à filet. Si - est utilisé en tant que filet, les documents seront
imprimé sur la sortie standard, désactivant la conversion de lien. (Utilisation ./- imprimer dans un fichier
littéralement nommé -.)

L'utilisation de -O is ne sauraient destiné à signifier simplement « utiliser le nom filet au lieu de celui dans le
URL ;" plutôt, c'est analogue à la redirection shell : wget -O filet http://foo is
destiné à fonctionner comme wget -O - http://foo > filet; filet sera tronqué immédiatement,
ainsi que TOUTE le contenu téléchargé y sera écrit.

Pour cette raison, -N (pour la vérification de l'horodatage) n'est pas pris en charge en combinaison avec -O:
depuis filet est toujours nouvellement créé, il aura toujours un tout nouvel horodatage. UNE
un avertissement sera émis si cette combinaison est utilisée.

De même, en utilisant -r or -p avec -O peut ne pas fonctionner comme prévu : Wget ne se contentera pas de télécharger
le premier fichier à filet puis téléchargez le reste sous leurs noms habituels : TOUTE
le contenu téléchargé sera placé dans filet. Cela a été désactivé dans la version 1.11, mais a
été rétabli (avec un avertissement) dans 1.11.2, car il y a des cas où cela
le comportement peut en fait avoir une certaine utilité.

Une combinaison avec -NC n'est accepté que si le fichier de sortie donné n'existe pas.

Notez qu'une combinaison avec -k n'est autorisée que lors du téléchargement d'un seul document,
comme dans ce cas, il convertira simplement tous les URI relatifs en externes ; -k fait non
détection de plusieurs URI lorsqu'ils sont tous téléchargés dans un seul fichier ; -k peuvent être
utilisé uniquement lorsque la sortie est un fichier normal.

-NC
--pas de frappe
Si un fichier est téléchargé plusieurs fois dans le même répertoire, le comportement de Wget dépend
sur quelques options, y compris -NC. Dans certains cas, le fichier local sera bouché,
ou écrasé, lors d'un téléchargement répété. Dans d'autres cas, il sera conservé.

Lors de l'exécution de Wget sans -N, -NC, -rou -p, en téléchargeant le même fichier dans le même
répertoire se traduira par la copie originale de filet en cours de conservation et le deuxième exemplaire
être nommé filet.1. Si ce fichier est à nouveau téléchargé, la troisième copie sera
nommé filet.2, etc. (C'est aussi le comportement avec -nd, même si -r or -p a
effet.) Quand -NC est spécifié, ce comportement est supprimé et Wget refusera de
télécharger des copies plus récentes de filet. Par conséquent, ""no-clobber"" est en fait un terme impropre dans
ce mode --- ce n'est pas le sabotage qui est empêché (car les suffixes numériques étaient déjà
empêchant le sabotage), mais plutôt la sauvegarde de plusieurs versions qui est empêchée.

Lors de l'exécution de Wget avec -r or -p, Mais sans -N, -ndou -NC, retélécharger un fichier
aura pour résultat que la nouvelle copie écrasera simplement l'ancienne. Ajouter -NC empêchera cela
comportement, provoquant à la place la préservation de la version originale et toute copie plus récente sur
le serveur à ignorer.

Lors de l'exécution de Wget avec -N, avec ou sans -r or -p, la décision de savoir si
le téléchargement d'une copie plus récente d'un fichier dépend de l'horodatage et de la taille locaux et distants
du fichier. -NC peut ne pas être spécifié en même temps que -N.

Une combinaison avec -O/--document-de-sortie n'est accepté que si le fichier de sortie donné ne
n'existe pas.

Notez que lorsque -NC est spécifié, les fichiers avec les suffixes .html or . Htm sera chargé
du disque local et analysés comme s'ils avaient été récupérés sur le Web.

--sauvegardes=sauvegardes
Avant de (sur)écrire un fichier, sauvegardez un fichier existant en ajoutant un .1 suffixe (_1 on
VMS) au nom du fichier. Ces fichiers de sauvegarde sont tournés vers .2, .3, et ainsi de suite jusqu'à
sauvegardes (et perdu au-delà).

-c
--Continuez
Continuez à obtenir un fichier partiellement téléchargé. Ceci est utile lorsque vous voulez terminer
un téléchargement démarré par une instance précédente de Wget, ou par un autre programme. Pour
exemple:

wget-c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

S'il existe un fichier nommé ls-lR.Z dans le répertoire courant, Wget supposera qu'il est
la première partie du fichier distant, et demandera au serveur de continuer le
récupération à partir d'un décalage égal à la longueur du fichier local.

Notez que vous n'avez pas besoin de spécifier cette option si vous voulez juste le
invocation de Wget pour réessayer de télécharger un fichier en cas de perte de connexion à mi-chemin
par. Ceci est le comportement par défaut. -c n'affecte que la reprise des téléchargements
j'ai commencé avant à cette invocation de Wget, et dont les fichiers locaux sont toujours assis
autour.

Sans -c, l'exemple précédent téléchargerait simplement le fichier distant sur ls-lR.Z.1,
laisser le tronqué ls-lR.Z fichier seul.

A partir de Wget 1.7, si vous utilisez -c sur un fichier non vide, et il s'avère que le
le serveur ne prend pas en charge la poursuite du téléchargement, Wget refusera de démarrer le téléchargement
à partir de zéro, ce qui ruinerait effectivement le contenu existant. Si vous voulez vraiment le
télécharger pour recommencer à zéro, supprimez le fichier.

Commençant également par Wget 1.7, si vous utilisez -c sur un fichier de même taille que le
un sur le serveur, Wget refusera de télécharger le fichier et imprimera une explication
un message. La même chose se produit lorsque le fichier est plus petit sur le serveur qu'en local
(probablement parce qu'il a été modifié sur le serveur depuis votre dernier téléchargement
tentative)---parce que "continuer" n'a pas de sens, aucun téléchargement ne se produit.

De l'autre côté de la médaille, tout en utilisant -c, tout fichier plus volumineux sur le serveur
que localement sera considéré comme un téléchargement incomplet et uniquement "(longueur (à distance) -
length(local))" octets seront téléchargés et ajoutés à la fin du fichier local.
Ce comportement peut être souhaitable dans certains cas --- par exemple, vous pouvez utiliser wget -c à
téléchargez uniquement la nouvelle partie qui a été ajoutée à une collecte de données ou à un fichier journal.

Cependant, si le fichier est plus gros sur le serveur parce qu'il a été modifié, par opposition à
juste ajouté à, vous vous retrouverez avec un fichier brouillé. Wget n'a aucun moyen de vérifier
que le fichier local est vraiment un préfixe valide du fichier distant. Vous devez être
particulièrement prudent lors de l'utilisation -c en conjonction avec -r, puisque chaque fichier sera
être considéré comme un candidat « téléchargement incomplet ».

Un autre cas où vous obtiendrez un fichier brouillé si vous essayez d'utiliser -c est si vous avez un
proxy HTTP lame qui insère une chaîne "transfert interrompu" dans le fichier local. Dans
à l'avenir, une option "rollback" pourra être ajoutée pour traiter ce cas.

Notez que -c fonctionne uniquement avec les serveurs FTP et avec les serveurs HTTP qui prennent en charge le
En-tête "Plage".

--start-pos=OFFSET
Commencer le téléchargement à la position de base zéro OFFSET. L'offset peut être exprimé en octets,
kilo-octets avec le suffixe « k », ou mégaoctets avec le suffixe « m », etc.

--start-pos a une priorité plus élevée sur --Continuez. Quand --start-pos ainsi que --Continuez
sont tous les deux spécifiés, wget émettra un avertissement puis procédera comme si --Continuez était absent.

La prise en charge du serveur pour la poursuite du téléchargement est requise, sinon --start-pos ne peut pas aider.
See -c pour en savoir plus.

--progrès=type
Sélectionnez le type d'indicateur de progression que vous souhaitez utiliser. Les indicateurs légaux sont "point"
et "barre".

L'indicateur "barre" est utilisé par défaut. Il dessine un graphique de barre de progression ASCII
(aka affichage "thermomètre") indiquant l'état de récupération. Si la sortie est
pas un ATS, la barre "point" sera utilisée par défaut.

Utilisez --progress = point pour passer à l'affichage "point". Il retrace la récupération par
imprimer des points sur l'écran, chaque point représentant une quantité fixe de données téléchargées.

Le progrès type peut également prendre un ou plusieurs paramètres. Les paramètres varient en fonction de
le type choisi. Paramètres à type sont passés en les ajoutant au type
séparés par deux points (:) comme ceci : --progrès=type:paramètre1:paramètre2.

Lorsque vous utilisez la récupération pointée, vous pouvez définir le Catégorie en spécifiant le type comme
point:Catégorie. Différents styles attribuent une signification différente à un point. Avec le "par défaut"
style chaque point représente 1K, il y a dix points dans un groupe et 50 points dans une ligne.
Le style "binaire" a une orientation plus "informatique" ---8K points, clusters de 16 points
et 48 points par ligne (ce qui fait 384K lignes). Le style "méga" convient aux
télécharger des fichiers volumineux --- chaque point représente 64K récupérés, il y a huit points dans un
cluster, et 48 points sur chaque ligne (donc chaque ligne contient 3M). Si "méga" ne suffit pas
alors vous pouvez utiliser le style "giga" --- chaque point représente 1M récupéré, il y en a huit
points dans un cluster et 32 ​​points sur chaque ligne (donc chaque ligne contient 32M).

Avec --progress=barre, il existe actuellement deux paramètres possibles, forcer ainsi que défilement.

Lorsque la sortie n'est pas un TTY, la barre de progression revient toujours à "point", même si
--progress=barre a été transmis à Wget lors de l'invocation. Ce comportement peut être outrepassé
et la sortie "bar" forcée en utilisant le paramètre "force" comme --progress=bar:force.

Par défaut, le barre barre de progression du style faire défiler le nom du fichier de gauche à droite
pour le fichier en cours de téléchargement si le nom de fichier dépasse la longueur maximale allouée pour
son affichage. Dans certains cas, comme avec --progress=bar:force, on peut ne pas vouloir
le nom du fichier défilant dans la barre de progression. En passant le paramètre "noscroll", Wget
peut être forcé d'afficher autant de nom de fichier que possible sans faire défiler
le

Notez que vous pouvez définir le style par défaut en utilisant la commande "progress" dans .wgetrc. Cette
le paramètre peut être remplacé à partir de la ligne de commande. Par exemple, pour forcer la sortie de la barre
sans faire défiler, utilisez --progress=bar:force:noscroll.

--show-progression
Force wget à afficher la barre de progression dans n'importe quelle verbosité.

Par défaut, wget affiche uniquement la barre de progression en mode détaillé. On peut cependant,
voulez que wget affiche la barre de progression à l'écran en conjonction avec tout autre
modes de verbosité comme --non-verbeux or --silencieux. Il s'agit souvent d'une propriété souhaitée lorsque
invoquer wget pour télécharger plusieurs petits/grands fichiers. Dans un tel cas, wget pourrait
simplement être invoqué avec ce paramètre pour obtenir une sortie beaucoup plus propre à l'écran.

Cette option forcera également l'impression de la barre de progression sur stderr lorsqu'il est utilisé
à côté du --fichier journal option.

-N
--horodatage
Activez l'horodatage.

--no-if-modified-depuis
Ne pas envoyer l'en-tête If-Modified-Since dans -N mode. Envoyer une demande préliminaire de HEAD
au lieu. Cela n'a d'effet que dans -N mode.

--no-use-server-horodatages
Ne définissez pas l'horodatage du fichier local par celui du serveur.

Par défaut, lorsqu'un fichier est téléchargé, ses horodatages sont définis pour correspondre à ceux du
fichier distant. Cela permet l'utilisation de --horodatage lors des invocations ultérieures de wget.
Cependant, il est parfois utile de baser l'horodatage du fichier local sur le moment où il a été
effectivement téléchargé ; à cet effet, le --no-use-server-horodatages l'option a été
à condition de.

-S
--réponse-du-serveur
Imprimez les en-têtes envoyés par les serveurs HTTP et les réponses envoyées par les serveurs FTP.

--araignée
Lorsqu'il est invoqué avec cette option, Wget se comportera comme un Web araignée, ce qui signifie qu'il
ne téléchargera pas les pages, vérifiez simplement qu'elles sont là. Par exemple, vous pouvez utiliser
Wget pour vérifier vos signets:

wget --spider --force-html -i signets.html

Cette fonctionnalité a besoin de beaucoup plus de travail pour que Wget se rapproche de la fonctionnalité de réel
toiles d'araignées.

-T secondes
--timeout=secondes
Réglez le délai d'expiration du réseau sur secondes secondes. Cela équivaut à spécifier
--dns-timeout, --connect-timeoutet --read-timeout, Tout en même temps.

Lors de l'interaction avec le réseau, Wget peut vérifier le délai d'attente et annuler l'opération
si cela prend trop de temps. Cela empêche les anomalies telles que les lectures suspendues et l'infini
se connecte. Le seul délai d'attente activé par défaut est un délai de lecture de 900 secondes. Réglage
un délai d'attente à 0 le désactive complètement. À moins que vous ne sachiez ce que vous faites, il vaut mieux
de ne pas modifier les paramètres de délai d'attente par défaut.

Toutes les options liées au délai d'attente acceptent les valeurs décimales, ainsi que les valeurs inférieures à la seconde. Pour
Par exemple, 0.1 secondes est un choix légal (bien que peu judicieux) de délai d'attente. Délais d'attente inférieurs à la seconde
sont utiles pour vérifier les temps de réponse du serveur ou pour tester la latence du réseau.

--dns-timeout=secondes
Définissez le délai d'expiration de la recherche DNS sur secondes secondes. Les recherches DNS qui ne se terminent pas dans
l'heure spécifiée échouera. Par défaut, il n'y a pas de délai d'attente sur les recherches DNS, d'autres
que celui implémenté par les bibliothèques système.

--connect-timeout=secondes
Réglez le délai de connexion sur secondes secondes. Les connexions TCP qui prennent plus de temps à
établir sera avorté. Par défaut, il n'y a pas de délai de connexion, à part ça
implémenté par les bibliothèques système.

--read-timeout=secondes
Réglez le délai de lecture (et d'écriture) sur secondes secondes. Le "temps" de ce temps mort
désigne ralenti fiable: si, à un moment quelconque du téléchargement, aucune donnée n'est reçue pendant plus
que le nombre de secondes spécifié, la lecture échoue et le téléchargement est relancé.
Cette option n'affecte pas directement la durée de tout le téléchargement.

Bien sûr, le serveur distant peut choisir de mettre fin à la connexion plus tôt que cela
option nécessite. Le délai de lecture par défaut est de 900 secondes.

--taux-limite=montant
Limitez la vitesse de téléchargement à montant octets par seconde. Le montant peut être exprimé en
octets, kilo-octets avec le k suffixe, ou mégaoctets avec le m suffixe. Par exemple,
--taux-limite=20k limitera le taux de récupération à 20 Ko/s. Ceci est utile lorsque, pour
quelle qu'en soit la raison, vous ne voulez pas que Wget consomme toute la bande passante disponible.

Cette option permet l'utilisation de nombres décimaux, généralement en conjonction avec la puissance
suffixes; par exemple, --taux-limite=2.5k est une valeur légale.

Notez que Wget implémente la limitation en dormant le temps approprié
après une lecture réseau qui a pris moins de temps que spécifié par le taux. Finalement ce
La stratégie ralentit le transfert TCP jusqu'à approximativement le taux spécifié.
Cependant, cela peut prendre un certain temps pour que cet équilibre soit atteint, alors ne soyez pas surpris
si la limitation du débit ne fonctionne pas bien avec de très petits fichiers.

-w secondes
--attendre=secondes
Attendez le nombre de secondes spécifié entre les récupérations. L'utilisation de cette option est
recommandé, car il allège la charge du serveur en rendant les requêtes moins fréquentes.
Au lieu d'être en secondes, le temps peut être spécifié en minutes en utilisant le suffixe "m", en
heures en utilisant le suffixe "h", ou en jours en utilisant le suffixe "d".

La spécification d'une grande valeur pour cette option est utile si le réseau ou la destination
l'hôte est en panne, de sorte que Wget peut attendre suffisamment longtemps pour s'attendre raisonnablement à l'erreur réseau
à corriger avant la nouvelle tentative. L'intervalle d'attente spécifié par cette fonction est
influencé par "--random-wait", qui voir.

--waitretry=secondes
Si vous ne voulez pas que Wget attende entre chaque récupération, mais seulement entre les tentatives de
téléchargements échoués, vous pouvez utiliser cette option. Wget utilisera linéaire reculer, en attente 1
seconde après le premier échec sur un fichier donné, puis attendre 2 secondes après le
deuxième échec sur ce fichier, jusqu'au nombre maximum de secondes vous spécifiez.

Par défaut, Wget prendra une valeur de 10 secondes.

--random-attendre
Certains sites Web peuvent effectuer une analyse des journaux pour identifier les programmes de récupération tels que Wget par
rechercher des similitudes statistiquement significatives dans le temps entre les demandes. Cette
l'option fait varier le temps entre les requêtes entre 0.5 et 1.5 * attendez secondes,
De attendez a été spécifié à l'aide de la --attendre option, afin de masquer la présence de Wget
à partir d'une telle analyse.

Un article de 2001 dans une publication consacrée au développement sur une plate-forme de consommation populaire
fourni le code pour effectuer cette analyse à la volée. Son auteur a suggéré de bloquer à
le niveau d'adresse de classe C pour garantir que les programmes de récupération automatisés ont été bloqués malgré
changer les adresses fournies par DHCP.

La --random-attendre option a été inspirée par cette recommandation peu judicieuse de bloquer de nombreux
utilisateurs indépendants d'un site Web en raison des actions de l'un.

--pas de proxy
N'utilisez pas de proxy, même si la variable d'environnement *_proxy appropriée est définie.

-Q quota
--quota=quota
Spécifiez le quota de téléchargement pour les récupérations automatiques. La valeur peut être spécifiée en octets
(par défaut), kilo-octets (avec k suffixe) ou en mégaoctets (avec m suffixe).

Notez que le quota n'affectera jamais le téléchargement d'un seul fichier. Donc si vous précisez wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, la totalité de la ls-lR.gz sera téléchargé. Les
il en va de même même lorsque plusieurs URL sont spécifiées sur la ligne de commande. Cependant, le quota est
respecté lors de la récupération soit récursivement, soit à partir d'un fichier d'entrée. Ainsi vous pouvez
taper en toute sécurité wget -Q2m -i les sites---download sera interrompu lorsque le quota est dépassé.

Réglage du quota à 0 ou à inf illimité le quota de téléchargement.

--pas de cache DNS
Désactivez la mise en cache des recherches DNS. Normalement, Wget se souvient des adresses IP qu'il regardait
à partir du DNS afin qu'il n'ait pas à contacter à plusieurs reprises le serveur DNS pour le même
(généralement petit) ensemble d'hôtes à partir desquels il récupère. Ce cache n'existe qu'en mémoire ; une
la nouvelle exécution de Wget contactera à nouveau DNS.

Cependant, il a été signalé que dans certaines situations, il n'est pas souhaitable de mettre en cache
noms d'hôtes, même pour la durée d'une application de courte durée comme Wget. Avec ça
L'option Wget émet une nouvelle recherche DNS (plus précisément, un nouvel appel à "gethostbyname" ou
"getaddrinfo") à chaque fois qu'il établit une nouvelle connexion. Veuillez noter que cette option
ne sauraient affecter la mise en cache qui pourrait être effectuée par la bibliothèque de résolution ou par un
couche de mise en cache, telle que NSCD.

Si vous ne comprenez pas exactement à quoi sert cette option, vous n'en aurez probablement pas besoin.

--restrict-file-names=modes
Modifiez les caractères trouvés dans les URL distantes qui doivent être échappés lors de la génération de
noms de fichiers locaux. Des personnages qui sont limité par cette option sont échappés, c'est-à-dire
remplacé par %HH, Où HH est le nombre hexadécimal qui correspond au
caractère restreint. Cette option peut également être utilisée pour forcer toutes les casses alphabétiques à
être en minuscule ou en majuscule.

Par défaut, Wget échappe les caractères qui ne sont pas valides ou sûrs dans le cadre du fichier
noms sur votre système d'exploitation, ainsi que les caractères de contrôle qui sont généralement
non imprimable. Cette option est utile pour modifier ces valeurs par défaut, peut-être parce que vous
sont en train de télécharger sur une partition non native, ou parce que vous souhaitez désactiver l'échappement de
les caractères de contrôle, ou vous souhaitez restreindre davantage les caractères à ceux de
la plage de valeurs ASCII.

La modes sont un ensemble de valeurs de texte séparées par des virgules. Les valeurs acceptables sont unix,
fenêtres, NoControl, ascii, minusculeet majuscule. Les valeurs unix ainsi que fenêtres
mutuellement exclusifs (l'un prévaudra sur l'autre), comme le sont minuscule ainsi que majuscule.
Ces derniers sont des cas particuliers, car ils ne modifient pas le jeu de caractères qui
être échappé, mais plutôt forcer les chemins de fichiers locaux à être convertis en
majuscule.

Lorsque "unix" est spécifié, Wget échappe le caractère / et les caractères de contrôle dans
les plages 0--31 et 128--159. C'est la valeur par défaut sur les systèmes d'exploitation de type Unix.

Lorsque "windows" est donné, Wget échappe les caractères \, |, /, :, ?, ", *, <, >et
les caractères de contrôle dans les plages 0--31 et 128--159. En plus de cela, Wget dans
Le mode Windows utilise + au lieu de : pour séparer l'hôte et le port dans les noms de fichiers locaux, et
Usages @ au lieu de ? pour séparer la partie requête du nom de fichier du reste.
Par conséquent, une URL qui serait enregistrée sous www.xemacs.org:4300/search.pl?input=blah in
Le mode Unix serait enregistré sous www.xemacs.org+4300/search.pl@input=blah en mode Windows.
Ce mode est le mode par défaut sous Windows.

Si vous spécifiez NoControl, alors l'échappement des caractères de contrôle est également commuté
désactivé. Cette option peut être utile lorsque vous téléchargez des URL dont les noms contiennent
caractères UTF-8, sur un système qui peut enregistrer et afficher les noms de fichiers en UTF-8 (certains
les valeurs d'octets possibles utilisées dans les séquences d'octets UTF-8 tombent dans la plage de valeurs
désigné par Wget comme « contrôles »).

La ascii mode est utilisé pour spécifier que tous les octets dont les valeurs sont en dehors de la plage de
Les caractères ASCII (c'est-à-dire supérieurs à 127) doivent être échappés. Cela peut être utile lorsque
enregistrer les noms de fichiers dont l'encodage ne correspond pas à celui utilisé localement.

-4
--inet4-seulement
-6
--inet6-seulement
Forcer la connexion aux adresses IPv4 ou IPv6. Avec --inet4-seulement or -4, Wget ne fera que
se connecter aux hôtes IPv4, en ignorant les enregistrements AAAA dans DNS et en refusant de se connecter à IPv6
adresses spécifiées dans les URL. A l'inverse, avec --inet6-seulement or -6, Wget ne fera que
connectez-vous aux hôtes IPv6 et ignorez les enregistrements A et les adresses IPv4.

Aucune des options ne devrait être nécessaire normalement. Par défaut, un Wget compatible IPv6 utilisera
la famille d'adresses spécifiée par l'enregistrement DNS de l'hôte. Si le DNS répond avec les deux
Adresses IPv4 et IPv6, Wget les essaiera dans l'ordre jusqu'à ce qu'il en trouve une qu'il puisse
se connecter à. (Voir également l'option "--prefer-family" décrite ci-dessous.)

Ces options peuvent être utilisées pour forcer délibérément l'utilisation d'une adresse IPv4 ou IPv6
familles sur des systèmes à double famille, généralement pour faciliter le débogage ou pour traiter les
Configuration du réseau. Un seul de --inet6-seulement ainsi que --inet4-seulement peut être spécifié à
le même temps. Aucune des deux options n'est disponible dans Wget compilé sans prise en charge IPv6.

--prefer-family=aucun/IPv4/IPv6
Lorsque vous avez le choix entre plusieurs adresses, connectez-vous aux adresses avec
adressez-vous d'abord à la famille. L'ordre des adresses renvoyé par DNS est utilisé sans modification par
défaut.

Cela évite les erreurs parasites et les tentatives de connexion lors de l'accès aux hôtes qui se résolvent en
les adresses IPv6 et IPv4 des réseaux IPv4. Par exemple, www.kame.net résout
à 2001:200:0:8002:203:47ff:fea5:3085 et à 203.178.141.194. Lorsque le préféré
la famille est « IPv4 », l'adresse IPv4 est utilisée en premier ; lorsque la famille préférée est "IPv6",
l'adresse IPv6 est utilisée en premier ; si la valeur spécifiée est "aucun", l'ordre des adresses
renvoyé par DNS est utilisé sans changement.

Contrairement à -4 ainsi que -6, cette option n'empêche l'accès à aucune famille d'adresses, elle
change le de commander dans laquelle les adresses sont consultées. Notez également que la réorganisation
effectuée par cette option est stable--- cela n'affecte pas l'ordre des adresses de la même
famille. C'est-à-dire l'ordre relatif de toutes les adresses IPv4 et de toutes les adresses IPv6
reste intact dans tous les cas.

--retry-connrefusé
Considérez « connexion refusée » comme une erreur transitoire et réessayez. Normalement, Wget abandonne
sur une URL lorsqu'il est incapable de se connecter au site car l'échec de connexion est pris
comme signe que le serveur ne fonctionne pas du tout et que les nouvelles tentatives n'aideraient pas. Cette
l'option est de mettre en miroir des sites peu fiables dont les serveurs ont tendance à disparaître pour une courte durée
périodes.

--utilisateur=utilisateur
--mot de passe=Mot de passe
Spécifiez le nom d'utilisateur utilisateur et mot de passe Mot de passe pour la récupération de fichiers FTP et HTTP.
Ces paramètres peuvent être remplacés à l'aide de la --ftp-utilisateur ainsi que --ftp-mot de passe options pour
Les connexions FTP et le --http-utilisateur ainsi que --http-mot de passe options pour les connexions HTTP.

--demander-mot de passe
Demander un mot de passe pour chaque connexion établie. Ne peut pas être spécifié lorsque
--le mot de passe est utilisé, car ils s'excluent mutuellement.

--no-iri
Désactivez la prise en charge des URI internationalisés (IRI). Utilisation --iri pour l'allumer. La prise en charge de l'IRI est
activé par défaut.

Vous pouvez définir l'état par défaut de la prise en charge IRI à l'aide de la commande "iri" dans .wgetrc. Cette
le paramètre peut être remplacé à partir de la ligne de commande.

--encodage-local=codage
Forcer Wget à utiliser codage comme codage système par défaut. Cela affecte la façon dont Wget
convertit les URL spécifiées comme arguments des paramètres régionaux en UTF-8 pour la prise en charge IRI.

Wget utilise la fonction "nl_langinfo()" puis la variable d'environnement "CHARSET" pour
obtenir les paramètres régionaux. En cas d'échec, l'ASCII est utilisé.

Vous pouvez définir l'encodage local par défaut à l'aide de la commande "local_encoding" dans .wgetrc.
Ce paramètre peut être remplacé à partir de la ligne de commande.

--remote-encodage=codage
Forcer Wget à utiliser codage comme codage par défaut du serveur distant. Cela affecte la façon dont
Wget convertit les URI trouvés dans les fichiers de l'encodage distant en UTF-8 lors d'une récursive
aller chercher. Cette option n'est utile que pour le support IRI, pour l'interprétation de non-
caractères ASCII.

Pour HTTP, l'encodage distant se trouve dans l'en-tête HTTP "Content-Type" et en HTML
Balise méta "Content-Type http-equiv".

Vous pouvez définir l'encodage par défaut à l'aide de la commande "remoteencoding" dans .wgetrc. Cette
le paramètre peut être remplacé à partir de la ligne de commande.

--dissocier
Forcer Wget à dissocier le fichier au lieu d'écraser le fichier existant. Cette option est utile
pour le téléchargement dans le répertoire avec des liens physiques.

Annuaire Options
-nd
--no-répertoires
Ne créez pas de hiérarchie de répertoires lors d'une récupération récursive. Avec ça
option activée, tous les fichiers seront enregistrés dans le répertoire actuel, sans
clobbering (si un nom apparaît plus d'une fois, les noms de fichiers auront des extensions .n).

-x
--force-répertoires
L'opposé de -nd---créer une hiérarchie de répertoires, même si on n'aurait pas
été créé autrement. Par exemple wget -x http://fly.srk.fer.hr/robots.txt sauvera le
fichier téléchargé sur fly.srk.fer.hr/robots.txt.

-nH
--pas de répertoires hôtes
Désactivez la génération de répertoires préfixés par l'hôte. Par défaut, l'appel de Wget avec -r
http://fly.srk.fer.hr/ créera une structure de répertoires commençant par
fly.srk.fer.hr/. Cette option désactive ce comportement.

--protocoles-répertoires
Utilisez le nom de protocole comme composant de répertoire des noms de fichiers locaux. Par exemple, avec
cette option, wget -r http://hôte économisera à http /hôte/ ... plutôt que de simplement
hôte/ ....

--cut-dirs=nombre
ignorer nombre composants de répertoire. Ceci est utile pour obtenir un contrôle fin
sur le répertoire où la récupération récursive sera enregistrée.

Prenez, par exemple, le répertoire à ftp://ftp.xemacs.org/pub/xemacs/. Si vous récupérez
avec -r, il sera enregistré localement sous ftp.xemacs.org/pub/xemacs/. Alors que le -nH
l'option peut supprimer le ftp.xemacs.org/ partie, vous êtes toujours coincé avec pub/xemacs. Ce
est ou --cut-répertoires est très pratique; cela fait que Wget ne "voit" pas nombre répertoire distant
Composants. Voici quelques exemples de la façon dont --cut-répertoires l'option fonctionne.

Aucune option -> ftp.xemacs.org/pub/xemacs/
-nH -> pub/xemacs/
-nH --cut-dirs=1 -> xemacs/
-nH --cut-dirs=2 -> .

--cut-dirs=1 -> ftp.xemacs.org/xemacs/


Si vous souhaitez simplement vous débarrasser de la structure des répertoires, cette option est similaire à un
combinaison de -nd ainsi que -P. Cependant, contrairement à -nd, --cut-répertoires ne perd pas avec
sous-répertoires --- par exemple, avec -nH --cut-dirs=1un bêta / le sous-répertoire sera
placé à xemacs/bêta, comme on pouvait s'y attendre.

-P préfixe
--préfixe-répertoire=préfixe
Définir le préfixe du répertoire sur préfixeL’ annuaire préfixe est le répertoire où tous les autres
les fichiers et sous-répertoires seront enregistrés, c'est-à-dire en haut de l'arborescence de récupération. Les
la valeur par défaut est . (le répertoire courant).

HTTP Options
--page-par-défaut=prénom
Utilisez prénom comme nom de fichier par défaut lorsqu'il n'est pas connu (c'est-à-dire pour les URL qui se terminent par un
barre oblique), au lieu de index.html.

-E
--ajuster-extension
Si un fichier de type application / xhtml + xml or text / html est téléchargé et l'URL ne
ne se termine pas par l'expression régulière \.[Hh][Tt][Mm][Ll] ?, cette option entraînera le suffixe .html
à ajouter au nom de fichier local. Ceci est utile, par exemple, lorsque vous êtes
mise en miroir d'un site distant qui utilise . Asp pages, mais vous voulez que les pages en miroir soient
visible sur votre serveur Apache d'origine. Une autre bonne utilisation de ceci est lorsque vous êtes
télécharger des documents générés par CGI. Une URL comme http://site.com/article.cgi? 25 sera
être enregistré en tant que article.cgi?25.html.

Notez que les noms de fichiers modifiés de cette manière seront re-téléchargés à chaque fois que vous effectuerez une nouvelle mise en miroir
un site, car Wget ne peut pas dire que le local X.html le fichier correspond à l'URL distante X
(puisqu'il ne sait pas encore que l'URL produit une sortie de type text / html or
application / xhtml + xml.

À partir de la version 1.12, Wget s'assurera également que tous les fichiers téléchargés de type texte / css
terminer par le suffixe . Css, et l'option a été renommée de --extension-html, pour mieux
refléter son nouveau comportement. L'ancien nom de l'option est toujours acceptable, mais devrait maintenant être
considéré comme obsolète.

À un moment donné dans le futur, cette option pourrait bien être étendue pour inclure des suffixes pour
d'autres types de contenu, y compris les types de contenu qui ne sont pas analysés par Wget.

--http-utilisateur=utilisateur
--http-mot de passe=Mot de passe
Spécifiez le nom d'utilisateur utilisateur et mot de passe Mot de passe sur un serveur HTTP. Selon le
type de défi, Wget les encode en utilisant soit le "basic" (non sécurisé), le
"digest", ou le schéma d'authentification Windows "NTLM".

Une autre façon de spécifier le nom d'utilisateur et le mot de passe est dans l'URL elle-même. L'une ou l'autre méthode
révèle votre mot de passe à quiconque prend la peine d'exécuter "ps". Pour empêcher les mots de passe
d'être vu, rangez-les dans .wgetrc or .netrc, et assurez-vous de protéger ces fichiers
d'autres utilisateurs avec "chmod". Si les mots de passe sont vraiment importants, ne partez pas
eux se trouvant dans ces fichiers soit --- éditez les fichiers et supprimez-les une fois que Wget a
commencé le téléchargement.

--no-http-keep-alive
Désactivez la fonction "keep-alive" pour les téléchargements HTTP. Normalement, Wget demande au serveur
pour garder la connexion ouverte de sorte que, lorsque vous téléchargez plus d'un document à partir du
même serveur, ils sont transférés via la même connexion TCP. Cela fait gagner du temps et
en même temps réduit la charge sur le serveur.

Cette option est utile lorsque, pour une raison quelconque, les connexions persistantes (keep-alive) ne
travailler pour vous, par exemple en raison d'un bogue du serveur ou en raison de l'incapacité du côté serveur
scripts pour gérer les connexions.

--pas de cache
Désactivez le cache côté serveur. Dans ce cas, Wget enverra au serveur distant un
directive appropriée (Pragma : pas de cache) pour obtenir le fichier du service distant,
plutôt que de retourner la version mise en cache. Ceci est particulièrement utile pour récupérer
et le vidage des documents obsolètes sur les serveurs proxy.

La mise en cache est autorisée par défaut.

--pas de cookies
Désactivez l'utilisation des cookies. Les cookies sont un mécanisme de maintenance côté serveur
Etat. Le serveur envoie au client un cookie en utilisant l'entête "Set-Cookie", et le
le client répond avec le même cookie lors d'autres demandes. Étant donné que les cookies permettent
les propriétaires de serveurs pour garder une trace des visiteurs et pour que les sites échangent ces informations,
certains les considèrent comme une atteinte à la vie privée. La valeur par défaut est d'utiliser des cookies ; cependant,
stockage les cookies ne sont pas activés par défaut.

--load-cookies filet
Charger les cookies de filet avant la première récupération HTTP. filet est un fichier texte dans le
format utilisé à l'origine par Netscape cookies.txt fichier.

Vous utiliserez généralement cette option lors de la mise en miroir de sites qui nécessitent que vous soyez
connecté pour accéder à tout ou partie de leur contenu. Le processus de connexion fonctionne généralement
par le serveur Web émettant un cookie HTTP lors de la réception et de la vérification de votre
crédits. Le cookie est ensuite renvoyé par le navigateur lors de l'accès à cette partie du
site, et prouve ainsi votre identité.

La mise en miroir d'un tel site nécessite que Wget envoie les mêmes cookies que votre navigateur envoie lorsque
communiquer avec le site. Ceci est réalisé par --load-cookies---simplement pointer Wget
à l'emplacement de la cookies.txt fichier, et il enverra les mêmes cookies que votre
navigateur enverrait dans la même situation. Différents navigateurs conservent un cookie textuel
fichiers dans différents emplacements :

"Netscape 4.x."
Les cookies sont dans ~/.netscape/cookies.txt.

"Mozilla et Netscape 6.x."
Le fichier cookie de Mozilla est également nommé cookies.txt, situé quelque part sous
~/.mozilla, dans le répertoire de votre profil. Le chemin complet se termine généralement
ressemblant un peu ~/.mozilla/default/some-weird-string/cookies.txt.

"Internet Explorer."
Vous pouvez produire un fichier cookie que Wget peut utiliser en utilisant le menu Fichier, Importer et
Exporter, exporter des cookies. Ceci a été testé avec Internet Explorer 5 ; ce n'est pas
garanti de fonctionner avec les versions antérieures.

"D'autres navigateurs."
Si vous utilisez un autre navigateur pour créer vos cookies, --load-cookies sera
ne fonctionne que si vous pouvez localiser ou produire un fichier cookie au format Netscape qui
Wget attend.

Si vous ne pouvez pas utiliser --load-cookies, il existe peut-être encore une alternative. Si votre
navigateur prend en charge un "gestionnaire de cookies", vous pouvez l'utiliser pour afficher les cookies utilisés lorsque
accéder au site que vous mettez en miroir. Notez le nom et la valeur du cookie, et
demander manuellement à Wget d'envoyer ces cookies, en contournant le support "officiel" des cookies :

wget --no-cookies --header "Cookie : = "

--enregistrer-les cookies filet
Enregistrer les cookies dans filet avant de sortir. Cela n'enregistrera pas les cookies qui ont expiré ou
qui n'ont pas de délai d'expiration (appelés "cookies de session"), mais voir aussi
--keep-session-cookies.

--keep-session-cookies
Lorsqu'il est spécifié, les causes --enregistrer-les cookies pour enregistrer également les cookies de session. Cookies de session
ne sont normalement pas sauvegardés car ils sont destinés à être conservés en mémoire et oubliés lorsque
vous quittez le navigateur. Les enregistrer est utile sur les sites qui nécessitent que vous vous connectiez ou
visitez la page d'accueil avant de pouvoir accéder à certaines pages. Avec cette option, plusieurs Wget
les exécutions sont considérées comme une seule session de navigateur en ce qui concerne le site.

Étant donné que le format de fichier de cookie ne contient normalement pas de cookies de session, Wget les marque
avec un horodatage d'expiration de 0. Wget's --load-cookies les reconnaît comme session
cookies, mais cela pourrait dérouter les autres navigateurs. Notez également que les cookies ainsi chargés
être traités comme d'autres cookies de session, ce qui signifie que si vous voulez --enregistrer-les cookies à
les conserver à nouveau, vous devez utiliser --keep-session-cookies nouveau.

--ignore-longueur
Malheureusement, certains serveurs HTTP (programmes CGI, pour être plus précis) envoient de faux
En-têtes "Content-Length", ce qui rend Wget fou, car il ne pense pas à tout le document
a été récupéré. Vous pouvez repérer ce syndrome si Wget réessaye d'obtenir le même document
encore et encore, affirmant à chaque fois que la connexion (par ailleurs normale) s'est fermée
sur le même octet.

Avec cette option, Wget ignorera l'en-tête "Content-Length" --- comme s'il n'avait jamais
existé.

--en-tête=ligne d'en-tête
Envoyer ligne d'en-tête ainsi que le reste des en-têtes de chaque requête HTTP. Les
l'en-tête fourni est envoyé tel quel, ce qui signifie qu'il doit contenir le nom et la valeur séparés par
deux-points et ne doit pas contenir de sauts de ligne.

Vous pouvez définir plus d'un en-tête supplémentaire en spécifiant --entête plus d'une fois.

wget --header='Accepter le jeu de caractères : iso-8859-2' \
--header='Accepter-Langue : hr' \
http://fly.srk.fer.hr/

La spécification d'une chaîne vide comme valeur d'en-tête effacera tous les utilisateurs précédents.
en-têtes définis.

Depuis Wget 1.10, cette option peut être utilisée pour remplacer les en-têtes générés autrement
automatiquement. Cet exemple indique à Wget de se connecter à localhost, mais de spécifier
foo.bar dans l'en-tête « Hôte » :

wget --header="Hôte : foo.bar" http://localhost/

Dans les versions de Wget antérieures à 1.10, une telle utilisation de --entête causé l'envoi de duplicata
En-têtes.

--max-redirection=nombre
Spécifie le nombre maximal de redirections à suivre pour une ressource. La valeur par défaut est
20, ce qui est généralement bien plus que nécessaire. Cependant, dans les occasions où vous
voulez en autoriser plus (ou moins), c'est l'option à utiliser.

--proxy-utilisateur=utilisateur
--proxy-mot de passe=Mot de passe
Spécifiez le nom d'utilisateur utilisateur et mot de passe Mot de passe pour l'authentification sur un serveur proxy.
Wget les encode en utilisant le schéma d'authentification "de base".

Des considérations de sécurité similaires à celles avec --http-mot de passe concernent ici aussi.

--référent=url
Inclure « Référent : url' en-tête dans la requête HTTP. Utile pour récupérer des documents avec
traitement côté serveur qui suppose qu'ils sont toujours récupérés par le Web interactif
navigateurs et ne sortent correctement que lorsque Referer est défini sur l'une des pages qui pointent
pour eux.

--save-en-têtes
Enregistrez les en-têtes envoyés par le serveur HTTP dans le fichier, précédant le contenu réel,
avec une ligne vide comme séparateur.

-U chaîne_agent
--user-agent=chaîne_agent
S'identifier comme chaîne_agent au serveur HTTP.

Le protocole HTTP permet aux clients de s'identifier à l'aide d'un "User-Agent"
champ d'en-tête. Cela permet de distinguer les logiciels WWW, généralement à des fins statistiques
fins ou pour le traçage des violations de protocole. Wget s'identifie normalement comme
Wget/version, version étant le numéro de version actuel de Wget.

Cependant, certains sites ont été connus pour imposer la politique d'adaptation de la sortie
selon les informations fournies par "User-Agent". Bien que ce ne soit pas une si mauvaise idée
en théorie, il a été abusé par des serveurs refusant des informations à des clients autres que
(historiquement) Netscape ou, plus fréquemment, Microsoft Internet Explorer. Cette option
permet de modifier la ligne "User-Agent" émise par Wget. L'utilisation de cette option est
découragé, à moins que vous ne sachiez vraiment ce que vous faites.

Spécification d'un agent utilisateur vide avec --user-agent="" demande à Wget de ne pas envoyer le
En-tête "User-Agent" dans les requêtes HTTP.

--post-données=un magnifique
--post-fichier=filet
Utilisez POST comme méthode pour toutes les requêtes HTTP et envoyez les données spécifiées dans le
corps de la demande. --post-données envoie un magnifique comme données, alors que --post-fichier envoie le
contenu de filet. A part ça, ils fonctionnent exactement de la même manière. En particulier,
l'ont tous les deux attendez le contenu de la forme "key1=value1&key2=value2", avec un codage en pourcentage
pour les caractères spéciaux ; la seule différence est que l'on attend son contenu comme un
paramètre de ligne de commande et l'autre accepte son contenu à partir d'un fichier. En particulier,
--post-fichier is ne sauraient pour la transmission de fichiers en pièces jointes : ceux-ci doivent apparaître comme
Les données "key=value" (avec un pourcentage de codage approprié) comme tout le reste. Wget
ne prend pas actuellement en charge « multipart/form-data » pour la transmission de données POST ; seul
"application/x-www-form-urlencoded". Un seul de --post-données ainsi que --post-fichier devrait être
spécifié.

Veuillez noter que wget n'exige pas que le contenu soit de la forme
"key1=value1&key2=value2", et il ne le teste pas non plus. Wget transmettra simplement
quelles que soient les données qui lui sont fournies. Cependant, la plupart des serveurs s'attendent à ce que les données POST soient dans
le format ci-dessus lors du traitement des formulaires HTML.

Lors de l'envoi d'une requête POST à ​​l'aide du --post-fichier option, Wget traite le fichier comme un
binaire et enverra tous les caractères de la requête POST sans les supprimer
caractères de fin de ligne ou de saut de page. Tout autre caractère de contrôle dans le texte
également être envoyé tel quel dans la requête POST.

Veuillez noter que Wget doit connaître à l'avance la taille des données POST.
Par conséquent, l'argument de "--post-file" doit être un fichier normal ; en spécifiant un FIFO ou
quelque chose comme /dev/stdin ne fonctionnera pas. Il n'est pas tout à fait clair comment contourner ce problème
limitation inhérente à HTTP/1.0. Bien que HTTP/1.1 introduit chunked transférer que
ne nécessite pas de connaître la longueur de la demande à l'avance, un client ne peut pas utiliser de bloc
à moins qu'il sache qu'il parle à un serveur HTTP/1.1. Et il ne peut pas le savoir jusqu'à ce qu'il
reçoit une réponse, qui à son tour exige que la demande ait été complétée - un
problème de la poule et de l'œuf.

Remarque : à partir de la version 1.15, si Wget est redirigé une fois la requête POST terminée,
son comportement dépendra du code de réponse renvoyé par le serveur. En cas de
301 Déplacé définitivement, 302 Déplacé temporairement ou 307 Redirection temporaire, Wget va, dans
conformément à la RFC2616, continuez à envoyer une requête POST. Au cas où un serveur voudrait
client de changer la méthode de demande lors de la redirection, il doit envoyer un 303 Voir l'autre
Code de réponse.

Cet exemple montre comment se connecter à un serveur à l'aide de POST, puis procéder au téléchargement
les pages souhaitées, vraisemblablement uniquement accessibles aux utilisateurs autorisés :

# Connectez-vous au serveur. Cela ne peut être fait qu'une seule fois.
wget --save-cookies cookies.txt \
--post-data 'user=foo&password=bar' \
http://server.com/auth.php

# Maintenant, récupérez la ou les pages qui nous intéressent.
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php

Si le serveur utilise des cookies de session pour suivre l'authentification de l'utilisateur, ce qui précède sera
ne fonctionne pas parce que --enregistrer-les cookies ne les enregistrera pas (et les navigateurs non plus) et le
cookies.txt le fichier sera vide. Dans ce cas, utilisez --keep-session-cookies avec
--enregistrer-les cookies pour forcer l'enregistrement des cookies de session.

--méthode=Méthode HTTP
Dans le cadre des scripts RESTful, Wget permet l'envoi d'autres méthodes HTTP
sans avoir besoin de les définir explicitement en utilisant --header=Ligne d'en-tête. Wget utilisera
quelle que soit la chaîne qui lui est transmise après --méthode comme méthode HTTP au serveur.

--corps-données=Chaîne de données
--body-file=Fichier de données
Doit être défini lorsque des données supplémentaires doivent être envoyées au serveur avec la méthode
spécifié à l'aide --méthode. --données corporelles envoie un magnifique comme données, alors que --body-fichier envoie
le contenu de filet. A part ça, ils fonctionnent exactement de la même manière.

À l’heure actuelle, --body-fichier is ne sauraient pour la transmission des fichiers dans leur ensemble. Wget ne
prend actuellement en charge « multipart/form-data » pour la transmission de données ; seul
"application/x-www-form-urlencoded". À l'avenir, cela peut être modifié afin que wget
envoie le --body-fichier comme un fichier complet au lieu d'envoyer son contenu au
serveur. Veuillez noter que Wget doit connaître le contenu des données BODY à l'avance,
et d'où l'argument de --body-fichier devrait être un fichier normal. Voir --post-fichier pour
explication plus détaillée. Un seul de --données corporelles ainsi que --body-fichier devrait être
spécifié.

Si Wget est redirigé une fois la demande terminée, Wget suspendra le
méthode et envoyer une requête GET jusqu'à ce que la redirection soit terminée. C'est vrai pour tous
codes de réponse de redirection sauf 307 Redirection temporaire qui est utilisé pour explicitement
spécifier que la méthode de requête doit ne sauraient monnaie. Une autre exception est lorsque le
La méthode est définie sur "POST", auquel cas les règles de redirection spécifiées sous
--post-données sont suivis.

--contenu-disposition
Si cette option est activée, la prise en charge expérimentale (pas entièrement fonctionnelle) de
Les en-têtes "Content-Disposition" sont activés. Cela peut actuellement entraîner des tours supplémentaires.
se rend sur le serveur pour une requête "HEAD", et est connu pour souffrir de quelques bugs,
c'est pourquoi il n'est actuellement pas activé par défaut.

Cette option est utile pour certains programmes CGI de téléchargement de fichiers qui utilisent
En-têtes « Content-Disposition » pour décrire le nom d'un fichier téléchargé
être.

--contenu-sur-erreur
S'il est activé, wget n'ignorera pas le contenu lorsque le serveur répondra avec un
Code d'état http qui indique une erreur.

--trust-server-names
Si cette option est activée, lors d'une redirection, le dernier composant de l'URL de redirection sera
utilisé comme nom de fichier local. Par défaut, il est utilisé le dernier composant dans l'original
URL.

--auth-no-challenge
Si cette option est donnée, Wget enverra des informations d'authentification HTTP de base
(nom d'utilisateur et mot de passe en clair) pour toutes les demandes, tout comme Wget 1.10.2 et antérieur
fait par défaut.

L'utilisation de cette option n'est pas recommandée et est uniquement destinée à prendre en charge quelques
serveurs obscurs, qui n'envoient jamais de défis d'authentification HTTP, mais acceptent
des informations d'authentification non sollicitées, par exemple, en plus de l'authentification basée sur un formulaire.

HTTPS (SSL/TLS) Options
Pour prendre en charge les téléchargements HTTP cryptés (HTTPS), Wget doit être compilé avec un SSL externe
une bibliothèque. La valeur par défaut actuelle est GnuTLS. De plus, Wget prend également en charge HSTS (HTTP Strict
sécurité des transports). Si Wget est compilé sans support SSL, aucune de ces options n'est
disponible.

--protocole-sécurisé=protocole
Choisissez le protocole sécurisé à utiliser. Les valeurs légales sont auto, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 ainsi que PFS. Si auto est utilisé, la bibliothèque SSL a la liberté de
choisir automatiquement le protocole approprié, ce qui est obtenu en envoyant un TLSv1
salutation. C'est la valeur par défaut.

Spécification SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 force l'utilisation du correspondant
protocole. Ceci est utile lorsque vous parlez à des implémentations de serveur SSL anciennes et boguées
qui rendent difficile pour la bibliothèque SSL sous-jacente de choisir le bon protocole
version. Heureusement, de tels serveurs sont assez rares.

Spécification PFS applique l'utilisation du chiffrement dit Perfect Forward Security
suites. En bref, PFS ajoute de la sécurité en créant une clé unique pour chaque SSL
lien. Il a un peu plus d'impact CPU sur le client et le serveur. Nous utilisons connu pour être
chiffrements sécurisés (par exemple pas de MD4) et le protocole TLS.

--https-uniquement
En mode récursif, seuls les liens HTTPS sont suivis.

- no-check-certificate
Ne vérifiez pas le certificat du serveur par rapport aux autorités de certification disponibles.
N'exigez pas non plus que le nom d'hôte de l'URL corresponde au nom commun présenté par le
certificat.

Depuis Wget 1.10, la valeur par défaut consiste à vérifier le certificat du serveur par rapport au
autorités de certification reconnues, rompant la poignée de main SSL et annulant le
télécharger si la vérification échoue. Bien que cela fournisse des téléchargements plus sécurisés, il
rompt l'interopérabilité avec certains sites qui fonctionnaient avec les versions précédentes de Wget,
en particulier ceux qui utilisent des certificats auto-signés, expirés ou non valides.
Cette option force un mode de fonctionnement « non sécurisé » qui transforme le certificat
erreurs de vérification en avertissements et vous permet de continuer.

Si vous rencontrez des erreurs de « vérification de certificat » ou des erreurs indiquant que « nom commun
ne correspond pas au nom d'hôte demandé", vous pouvez utiliser cette option pour contourner la vérification
et procédez au téléchargement. Seulement utilisé this option if you autrement convaincu of
le des sites authenticité, or if you vraiment ne le font pas les soins à propos le validité of ces
certificat. C'est presque toujours une mauvaise idée de ne pas vérifier les certificats lorsque
transmettre des données confidentielles ou importantes. Pour les certificats auto-signés/internes,
vous devez télécharger le certificat et le vérifier au lieu de forcer cela
mode non sécurisé. Si vous êtes vraiment sûr de ne souhaiter aucune vérification de certificat,
vous pouvez spécifier --check-certificate=quiet pour dire à wget de ne pas imprimer d'avertissement à propos de
certificats invalides, bien que dans la plupart des cas, ce ne soit pas la bonne chose à faire.

--certificat=filet
Utilisez le certificat client stocké dans filet. Ceci est nécessaire pour les serveurs qui sont
configuré pour exiger des certificats des clients qui s'y connectent. Normalement un
certificat n'est pas requis et ce commutateur est facultatif.

--certificat-type=type
Spécifiez le type du certificat client. Les valeurs légales sont PEM (supposé par défaut)
ainsi que L', aussi connu sous le nom ASN1.

--clé-privée=filet
Lire la clé privée de filet. Cela vous permet de fournir la clé privée dans un fichier
distinct du certificat.

--type-clé-privée=type
Spécifiez le type de la clé privée. Les valeurs acceptées sont PEM (par défaut) et L'.

--ca-certificat=filet
Utilisez filet que le fichier avec le faisceau d'autorités de certification (« CA ») pour vérifier la
pairs. Les certificats doivent être au format PEM.

Sans cette option, Wget recherche les certificats CA aux emplacements spécifiés par le système,
choisi au moment de l'installation d'OpenSSL.

--ca-répertoire=annuaire
Spécifie le répertoire contenant les certificats CA au format PEM. Chaque fichier contient un
certificat CA, et le nom du fichier est basé sur une valeur de hachage dérivée du
certificat. Ceci est réalisé en traitant un répertoire de certificats avec le
Utilitaire "c_rehash" fourni avec OpenSSL. À l'aide de --ca-répertoire est plus efficace que
--ca-certificat lorsque de nombreux certificats sont installés car cela permet à Wget de récupérer
certificats sur demande.

Sans cette option, Wget recherche les certificats CA aux emplacements spécifiés par le système,
choisi au moment de l'installation d'OpenSSL.

--crl-fichier=filet
Spécifie un fichier CRL dans filet. Ceci est nécessaire pour les certificats qui ont été
révoqué par les CA.

--fichier-aléatoire=filet
[OpenSSL et LibreSSL uniquement] Utiliser filet comme source de données aléatoires pour l'ensemencement
générateur de nombres pseudo-aléatoires sur les systèmes sans / Dev / urandom.

Sur de tels systèmes, la bibliothèque SSL a besoin d'une source externe d'aléa pour s'initialiser.
Le caractère aléatoire peut être fourni par EGD (voir --egd-fichier ci-dessous) ou lisez à partir d'un
source spécifiée par l'utilisateur. Si cette option n'est pas spécifiée, Wget recherche aléatoire
données dans $RANDFILE ou, s'il n'est pas défini, dans $HOME/.rnd.

Si vous obtenez le message « Impossible d'amorcer OpenSSL PRNG ; désactiver SSL ». erreur, vous devriez
fournir des données aléatoires en utilisant certaines des méthodes décrites ci-dessus.

--egd-fichier=filet
[OpenSSL uniquement] Utiliser filet comme la prise EGD. EGD signifie Entropie Rencontre démonun
programme d'espace utilisateur qui collecte des données à partir de diverses sources système imprévisibles et
le met à la disposition d'autres programmes qui pourraient en avoir besoin. Les logiciels de cryptage, tels que
la bibliothèque SSL, a besoin de sources de non-répétition aléatoire pour semer le nombre aléatoire
générateur utilisé pour produire des clés cryptographiquement fortes.

OpenSSL permet à l'utilisateur de spécifier sa propre source d'entropie en utilisant le "RAND_FILE"
variable d'environnement. Si cette variable n'est pas définie, ou si le fichier spécifié ne
produire suffisamment d'aléatoire, OpenSSL lira les données aléatoires du socket EGD spécifié
en utilisant cette option.

Si cette option n'est pas spécifiée (et que la commande de démarrage équivalente n'est pas utilisée), EGD
n'est jamais contacté. EGD n'est pas nécessaire sur les systèmes Unix modernes qui prennent en charge
/ Dev / urandom.

--pas de taxes
Wget prend en charge HSTS (HTTP Strict Transport Security, RFC 6797) par défaut. Utilisation
--pas de taxes pour que Wget agisse comme un UA non conforme à HSTS. En conséquence, Wget aurait
ignorer tous les en-têtes "Strict-Transport-Security" et n'appliquerait aucun
Politique HSTS.

--hsts-file=filet
Par défaut, Wget stocke sa base de données HSTS dans ~/.wget-hsts. Vous pouvez utiliser --hsts-fichier à
outrepasser cela. Wget utilisera le fichier fourni comme base de données HSTS. Un tel fichier doit
se conformer au format de base de données HSTS correct utilisé par Wget. Si Wget ne peut pas analyser le
fichier fourni, le comportement n'est pas spécifié.

La base de données HSTS de Wget est un fichier texte brut. Chaque ligne contient une entrée HSTS (c'est-à-dire un
site qui a émis un entête "Strict-Transport-Security" et qui a donc
spécifié une politique HSTS concrète à appliquer). Les lignes commençant par un tiret ("#") sont
ignoré par Wget. Veuillez noter qu'en dépit de cette lisibilité manuelle pratique,
pirater la base de données HSTS n'est généralement pas une bonne idée.

Une ligne de saisie HSTS est constituée de plusieurs champs séparés par un ou plusieurs espaces :

" SP [ ] SP SP SP "

La nom d'hôte ainsi que port les champs indiquent le nom d'hôte et le port auquel le HSTS donné
politique s'applique. Les port Le champ peut être égal à zéro, et il le sera dans la plupart des cas. Cette
signifie que le numéro de port ne sera pas pris en compte pour décider si un tel
La politique HSTS doit être appliquée sur une demande donnée (seul le nom d'hôte sera
évalué). Lorsque port est différent de zéro, le nom d'hôte cible et le port seront
être évalué et la politique HSTS ne sera appliquée que si les deux correspondent. Cette
fonctionnalité a été incluse à des fins de test/développement uniquement. La suite de tests Wget
(en testenv/) crée des bases de données HSTS avec des ports explicites dans le but de garantir
Le comportement correct de Wget. Application de stratégies HSTS à des ports autres que ceux par défaut
est déconseillée par la RFC 6797 (voir l'annexe B « Différences entre la politique HSTS et la même
Politique d'origine"). Ainsi, cette fonctionnalité ne doit pas être utilisée en production
environnements et port sera généralement égal à zéro. Les trois derniers champs font ce qu'ils sont
attendu à. Le champ inclure_sous-domaines peut être 1 ou 0 et il signale si
les sous-domaines du domaine cible doivent également faire partie de la politique HSTS donnée.
La créée ainsi que max-age les champs contiennent les valeurs d'horodatage du moment où cette entrée a été
créé (vu pour la première fois par Wget) et la valeur 'max-age' définie par HSTS, qui indique comment
longtemps si cette politique HSTS reste active, mesurée en secondes écoulées depuis le
horodatage stocké dans créée. Une fois ce délai écoulé, cette politique HSTS ne
ne seront plus valides et seront finalement supprimés de la base de données.

Si vous fournissez votre propre base de données HSTS via --hsts-fichier, sachez que Wget peut modifier
le fichier fourni si un changement se produit entre les politiques HSTS demandées par le
serveurs distants et ceux du fichier. Lorsque Wget existe, il met à jour efficacement le
base de données HSTS en réécrivant le fichier de base de données avec les nouvelles entrées.

Si le fichier fourni n'existe pas, Wget en créera un. Ce fichier contiendra les
nouvelles entrées HSTS. Si aucune entrée HSTS n'a été générée (pas de "Strict-Transport-Security"
en-têtes ont été envoyés par l'un des serveurs) alors aucun fichier ne sera créé, pas même un
un vide. Ce comportement s'applique au fichier de base de données par défaut (~/.wget-hsts) ainsi que:
il ne sera pas créé tant qu'un serveur n'aura pas appliqué une politique HSTS.

On veille à ne pas écraser les éventuelles modifications apportées par d'autres processus Wget au
en même temps sur la base de données HSTS. Avant de vider les entrées HSTS mises à jour dans le fichier,
Wget le relira et fusionnera les modifications.

L'utilisation d'une base de données HSTS personnalisée et/ou la modification d'une base existante est déconseillée. Pour
plus d'informations sur les menaces de sécurité potentielles résultant d'une telle pratique, voir
section 14 « Considérations relatives à la sécurité » de la RFC 6797, en particulier la section 14.9 « Creative
Manipulation du magasin de politiques HSTS".

--warc-fichier=filet
Utilisez filet comme fichier WARC de destination.

--warc-en-tête=un magnifique
Utilisez un magnifique dans l'enregistrement warcinfo.

--warc-taille-max=taille
Définissez la taille maximale des fichiers WARC sur taille.

--warc-cdx
Écrire des fichiers d'index CDX.

--warc-dedup=filet
Ne stockez pas les enregistrements répertoriés dans ce fichier CDX.

--pas de compression de guerre
Ne compressez pas les fichiers WARC avec GZIP.

--no-warc-digest
Ne calculez pas les condensés SHA1.

--no-warc-keep-log
Ne stockez pas le fichier journal dans un enregistrement WARC.

--warc-tempdir=dir
Spécifiez l'emplacement des fichiers temporaires créés par le rédacteur WARC.

Ftp Options
--ftp-user=utilisateur
--ftp-mot de passe=Mot de passe
Spécifiez le nom d'utilisateur utilisateur et mot de passe Mot de passe sur un serveur FTP. Sans cela, ou
l'option de démarrage correspondante, le mot de passe par défaut est -wget@, normalement utilisé pour
FTP anonyme.

Une autre façon de spécifier le nom d'utilisateur et le mot de passe est dans l'URL elle-même. L'une ou l'autre méthode
révèle votre mot de passe à quiconque prend la peine d'exécuter "ps". Pour empêcher les mots de passe
d'être vu, rangez-les dans .wgetrc or .netrc, et assurez-vous de protéger ces fichiers
d'autres utilisateurs avec "chmod". Si les mots de passe sont vraiment importants, ne partez pas
eux se trouvant dans ces fichiers soit --- éditez les fichiers et supprimez-les une fois que Wget a
commencé le téléchargement.

--no-remove-liste
Ne supprimez pas le temporaire .référencement fichiers générés par les récupérations FTP. Normalement,
ces fichiers contiennent les listes de répertoires brutes reçues des serveurs FTP. Pas
les supprimer peut être utile à des fins de débogage ou lorsque vous souhaitez pouvoir
vérifier facilement le contenu des répertoires du serveur distant (par exemple pour vérifier qu'un
miroir que vous exécutez est terminé).

Notez que même si Wget écrit dans un nom de fichier connu pour ce fichier, ce n'est pas un
trou de sécurité dans le scénario d'un utilisateur faisant .référencement un lien symbolique vers / Etc / passwd
ou quelque chose et demander à "root" d'exécuter Wget dans son répertoire. En fonction de la
options utilisées, soit Wget refusera d'écrire sur .référencement, faire le
l'opération de globalisation/récursivité/horodatage échoue, ou le lien symbolique sera supprimé
et remplacé par le réel .référencement ou la liste sera écrite dans un
.numéro.de.liste fichier.

Même si cette situation n'est pas un problème, "root" ne devrait jamais exécuter Wget dans un
répertoire d'utilisateurs non fiables. Un utilisateur pourrait faire quelque chose d'aussi simple que de créer un lien
index.html à / Etc / passwd et demander à "root" d'exécuter Wget avec -N or -r donc le fichier sera
être écrasé.

--no-glob
Désactivez la globalisation FTP. Globbing fait référence à l'utilisation de caractères spéciaux de type shell
(caractères génériques), comme *, ?, [ ainsi que ] pour récupérer plus d'un fichier du même répertoire
à la fois, comme :

wget ftp://gnjilux.srk.fer.hr/*.msg

Par défaut, la globalisation sera activée si l'URL contient un caractère global. Cette
L'option peut être utilisée pour activer ou désactiver le globbing de façon permanente.

Vous devrez peut-être citer l'URL pour éviter qu'elle ne soit étendue par votre shell.
Le globbing oblige Wget à rechercher une liste de répertoires, qui est spécifique au système. C'est
pourquoi cela ne fonctionne actuellement qu'avec les serveurs FTP Unix (et ceux émulant Unix "ls"
production).

--pas-passive-ftp
Désactivez l'utilisation du passif Mode de transfert FTP. Le FTP passif exige que le
le client se connecte au serveur pour établir la connexion de données plutôt que l'autre
faire le tour.

Si la machine est connectée directement à Internet, FTP passif et actif
devrait fonctionner aussi bien. Derrière la plupart des configurations de pare-feu et de NAT, le FTP passif a
une meilleure chance de travailler. Cependant, dans certaines configurations de pare-feu rares, le protocole FTP actif
fonctionne réellement lorsque le FTP passif ne fonctionne pas. Si vous pensez que c'est le cas, utilisez cette
ou définissez "passive_ftp=off" dans votre fichier d'initialisation.

--preserve-permissions
Conservez les autorisations sur les fichiers distants au lieu des autorisations définies par umask.

--retr-liens symboliques
Par défaut, lors de la récupération récursive des répertoires FTP et qu'un lien symbolique est
rencontrés, le lien symbolique est parcouru et les fichiers pointés sont récupérés.
Actuellement, Wget ne parcourt pas les liens symboliques vers les répertoires pour les télécharger
récursivement, bien que cette fonctionnalité puisse être ajoutée à l'avenir.

Quand --retr-symlinks=non est spécifié, le fichier lié n'est pas téléchargé. Au lieu,
un lien symbolique correspondant est créé sur le système de fichiers local. Le fichier pointé sera
ne pas être récupéré à moins que cette récupération récursive l'ait rencontré séparément
et téléchargé quand même. Cette option pose un risque de sécurité lorsqu'un FTP malveillant
Le serveur peut amener Wget à écrire dans des fichiers en dehors des répertoires prévus via un
fichier .LISTING spécialement conçu.

Notez que lors de la récupération d'un fichier (pas d'un répertoire) car il a été spécifié sur le
ligne de commande, plutôt que parce qu'elle a été récursée, cette option n'a aucun effet.
Les liens symboliques sont toujours parcourus dans ce cas.

FTPS Options
--ftps-implicite
Cette option indique à Wget d'utiliser implicitement FTPS. FTPS implicite consiste à initialiser
SSL/TLS dès le début de la connexion de contrôle. Cette option n'envoie pas
une commande "AUTH TLS" : elle suppose que le serveur parle FTPS et lance directement un
Connexion SSL/TLS. Si la tentative réussit, la session continue comme
FTPS réguliers ("PBSZ" et "PROT" sont envoyés, etc.). Le FTPS implicite n'est plus un
exigence pour les implémentations FTPS, et donc de nombreux serveurs peuvent ne pas le prendre en charge. Si
--ftps-implicite est transmis et aucun numéro de port explicite n'est spécifié, le port par défaut pour
FTPS implicite, 990, sera utilisé, au lieu du port par défaut pour le "normal"
(explicite) FTPS qui est le même que celui de FTP, 21.

--no-ftps-resume-ssl
Ne reprenez pas la session SSL/TLS dans le canal de données. Lors du démarrage d'une donnée
connexion, Wget essaie de reprendre la session SSL/TLS précédemment démarrée dans le contrôle
lien. La reprise de session SSL/TLS évite d'effectuer une toute nouvelle prise de contact en
réutiliser les paramètres SSL/TLS d'une session précédente. Typiquement, les serveurs FTPS veulent
comme ça, donc Wget le fait par défaut. Dans de rares circonstances cependant, on pourrait
souhaitez démarrer une toute nouvelle session SSL/TLS à chaque connexion de données. C'est quoi
--no-ftps-resume-ssl est pour.

--ftps-clear-data-connexion
Toutes les connexions de données seront en texte brut. Seule la connexion de contrôle sera
sous SSL/TLS. Wget enverra une commande "PROT C" pour y parvenir, qui doit être
approuvé par le serveur.

--ftps-fallback-to-ftp
Revenez à FTP si FTPS n'est pas pris en charge par le serveur cible. Pour des raisons de sécurité,
cette option n'est pas affirmée par défaut. Le comportement par défaut est de quitter avec un
Erreur. Si un serveur ne répond pas avec succès à la commande initiale "AUTH TLS", ou
en cas de FTPS implicite, si la première tentative de connexion SSL/TLS est rejetée,
il est considéré qu'un tel serveur ne prend pas en charge FTPS.

Récursif Récupération Options
-r
--recursive
Activez la récupération récursive. La profondeur maximale par défaut est 5.

-l profondeur
--niveau=profondeur
Spécifier le niveau de profondeur maximum de récursivité profondeur.

--delete-après
Cette option indique à Wget de supprimer chaque fichier qu'il télécharge, après l'avoir fait.
Il est utile pour pré-extraire les pages populaires via un proxy, par exemple :

wget -r -nd --delete-after http://whatever.com/~popular/page/

La -r l'option est de récupérer récursivement, et -nd de ne pas créer de répertoires.

Notez que --delete-après supprime les fichiers sur la machine locale. Il ne délivre pas le
DELE par exemple vers des sites FTP distants. Notez également que lorsque --delete-après is
spécifié, --convertir-liens est ignoré, donc .orig les fichiers ne sont tout simplement pas créés dans le
première place.

-k
--convertir-liens
Une fois le téléchargement terminé, convertissez les liens dans le document pour les rendre
adapté à la visualisation locale. Cela affecte non seulement les hyperliens visibles, mais tout
partie du document qui renvoie à un contenu externe, comme des images intégrées, des liens vers
feuilles de style, hyperliens vers du contenu non HTML, etc.

Chaque lien sera modifié de l'une des deux manières suivantes :

· Les liens vers les fichiers qui ont été téléchargés par Wget seront modifiés pour faire référence à
le fichier vers lequel ils pointent en tant que lien relatif.

Exemple : si le fichier téléchargé /foo/doc.html Liens vers /bar/img.gif, Donc,
téléchargé, puis le lien dans doc.html sera modifié pour indiquer ../bar/img.gif.
Ce type de transformation fonctionne de manière fiable pour des combinaisons arbitraires de
répertoires.

· Les liens vers les fichiers qui n'ont pas été téléchargés par Wget seront modifiés en
inclure le nom d'hôte et le chemin absolu de l'emplacement vers lequel ils pointent.

Exemple : si le fichier téléchargé /foo/doc.html Liens vers /bar/img.gif (ou pour
../bar/img.gif), puis le lien dans doc.html sera modifié pour indiquer
http://hostname/bar/img.gif.

De ce fait, la navigation locale fonctionne de manière fiable : si un fichier lié a été téléchargé, le
link fera référence à son nom local ; s'il n'a pas été téléchargé, le lien renverra à
son adresse Internet complète plutôt que de présenter un lien rompu. Le fait que le
les anciens liens sont convertis en liens relatifs garantit que vous pouvez déplacer le téléchargé
hiérarchie vers un autre répertoire.

Notez que ce n'est qu'à la fin du téléchargement que Wget peut savoir quels liens ont été
téléchargé. De ce fait, le travail effectué par -k sera effectuée à la fin de tous
les téléchargements.

--convertir-fichier-seulement
Cette option ne convertit que la partie du nom de fichier des URL, laissant le reste des URL
intact. Cette partie du nom de fichier est parfois appelée "nom de base", bien que nous
évitez ce terme ici afin de ne pas semer la confusion.

Il fonctionne particulièrement bien en conjonction avec --ajuster-extension, bien que cela
le couplage n'est pas obligatoire. Il s'avère utile de remplir les caches Internet avec des fichiers
téléchargé à partir de différents hôtes.

Exemple : si un lien pointe vers //foo.com/bar.cgi?xyz avec --ajuster-extension affirmé
et sa destination locale est destinée à être ./foo.com/bar.cgi?xyz.css, puis le lien
serait converti en //foo.com/bar.cgi?xyz.css. Notez que seule la partie nom de fichier a
été modifié. Le reste de l'URL n'a pas été modifié, y compris le chemin du réseau
("//") qui seraient autrement traités par Wget et convertis en
schéma (c'est-à-dire "http://").

-K
--backup-converti
Lors de la conversion d'un fichier, sauvegardez la version originale avec un .orig suffixe. Affecte le
le comportement de -N.

-m
--miroiter
Activez les options adaptées à la mise en miroir. Cette option active la récursivité et le temps-
estampage, définit une profondeur de récursivité infinie et conserve les listes de répertoires FTP. Il est
équivalent actuellement à -r -N -l inf --no-remove-liste.

-p
- page-conditions
Cette option permet à Wget de télécharger tous les fichiers nécessaires pour
afficher une page HTML donnée. Cela inclut des éléments tels que des images, des sons et des
feuilles de style référencées.

Normalement, lors du téléchargement d'une seule page HTML, tous les documents requis qui peuvent être
nécessaires pour l'afficher correctement ne sont pas téléchargés. À l'aide de -r avec -l peut aider,
mais comme Wget ne fait généralement pas la distinction entre les documents externes et les documents en ligne,
on se retrouve généralement avec des "documents feuille" qui manquent de leurs exigences.

Par exemple, disons document 1.html contient un " " référencement des balises 1.gif et le
Balise " " pointant vers un document externe 2.html. Dis ça 2.html est similaire mais que
son image est 2.gif et il est lié à 3.html. Dire que cela continue jusqu'à certains arbitrairement
Nombre élevé.

Si on exécute la commande :

wget -r -l 2 http:// /1.html

puis 1.html, 1.gif, 2.html, 2.gifet 3.html sera téléchargé. Comme tu peux le voir,
3.html est sans sa condition 3.gif car Wget compte simplement le nombre de
saute (jusqu'à 2) loin de 1.html afin de déterminer où arrêter la récursivité.
Cependant, avec cette commande :

wget -r -l 2 -p http:// /1.html

tous les fichiers ci-dessus ainsi que 3.htmlest requis 3.gif sera téléchargé. De la même manière,

wget -r -l 1 -p http:// /1.html

provoquera 1.html, 1.gif, 2.htmlet 2.gif à télécharger. On pourrait penser que :

wget -r -l 0 -p http:// /1.html

téléchargerait juste 1.html ainsi que 1.gif, mais ce n'est malheureusement pas le cas, car
-l 0 équivaut à -l inf--- c'est-à-dire une récursivité infinie. Pour télécharger un seul HTML
page (ou une poignée d'entre eux, tous spécifiés sur la ligne de commande ou dans un -i Entrée URL
fichier) et ses (ou leurs) prérequis, laissez simplement de côté -r ainsi que -l:

wget -p http:// /1.html

Notez que Wget se comportera comme si -r avait été spécifié, mais seule cette page et
ses prérequis seront téléchargés. Les liens de cette page vers des documents externes seront
pas être suivi. En fait, pour télécharger une seule page et tous ses prérequis (même si
ils existent sur des sites Web distincts) et assurez-vous que le lot s'affiche correctement localement,
cet auteur aime utiliser quelques options en plus de -p:

wget -E -H -k -K -p http:// /

Pour terminer ce sujet, sachez que l'idée de Wget d'un document externe
lien est n'importe quelle URL spécifiée dans une balise " ", un " " balise, ou un " " tag autre
que " ".

--strict-commentaires
Activez l'analyse stricte des commentaires HTML. La valeur par défaut est de terminer les commentaires à la
première occurrence de ->.

Selon les spécifications, les commentaires HTML sont exprimés en SGML déclarations.
La déclaration est un balisage spécial qui commence par <! et se termine avec > tels que <!DOCTYPE
...>, qui peut contenir des commentaires entre une paire de -- délimiteurs. Les commentaires HTML sont
"déclarations vides", déclarations SGML sans aucun texte de non-commentaire. Par conséquent,
est un commentaire valable, tout comme <!--un-- --deux-->, mais n'est pas.

D'un autre côté, la plupart des rédacteurs HTML ne perçoivent les commentaires que comme autre chose que
texte délimité par <!-- ainsi que ->, ce qui n'est pas tout à fait la même chose. Par exemple, quelque chose
comme fonctionne comme un commentaire valide tant que le nombre de tirets est un
multiple de quatre (!). Sinon, le commentaire dure techniquement jusqu'au prochain --, Qui
peut être à l'autre extrémité du document. Pour cette raison, de nombreux navigateurs populaires
ignorer complètement la spécification et mettre en œuvre ce que les utilisateurs attendent :
commentaires délimités par <!-- ainsi que ->.

Jusqu'à la version 1.9, Wget interprétait strictement les commentaires, ce qui entraînait des liens manquants
dans de nombreuses pages Web qui s'affichaient bien dans les navigateurs, mais avaient le malheur de
contenant des commentaires non conformes. A partir de la version 1.9, Wget a rejoint le
rangs de clients qui mettent en œuvre des commentaires « naïfs », mettant fin à chaque commentaire à la
première occurrence de ->.

Si, pour une raison quelconque, vous souhaitez une analyse stricte des commentaires, utilisez cette option pour l'activer
sur.

Récursif Accepter/Rejeter Options
-A aclist --J'accepte aclist
-R liste de rej --rejeter liste de rej
Spécifiez des listes séparées par des virgules de suffixes ou de modèles de noms de fichiers à accepter ou à rejeter.
Notez que si l'un des caractères génériques, *, ?, [ or ], apparaissent dans un élément de
aclist or liste de rej, il sera traité comme un modèle plutôt que comme un suffixe. Dans ce
cas, vous devez mettre le motif entre guillemets pour empêcher votre shell de se développer
il, comme dans -A "*.mp3" or -A '*.mp3'.

--accepter-regex URLregex
--reject-regex URLregex
Spécifiez une expression régulière pour accepter ou rejeter l'URL complète.

--type-regex type d'expression régulière
Spécifiez le type d'expression régulière. Les types possibles sont posix or pcre. Notez qu'à
pouvoir utiliser pcre type, wget doit être compilé avec le support de libpcre.

-D liste-domaine
--domaines=liste-domaine
Définissez les domaines à suivre. liste-domaine est une liste de domaines séparés par des virgules. Noter
ça fait ne sauraient allumer -H.

--exclure-domaines liste-domaine
Spécifiez les domaines qui sont ne sauraient être suivi.

--suivre-ftp
Suivez les liens FTP à partir de documents HTML. Sans cette option, Wget ignorera tous les
Liens FTP.

--follow-tags=liste
Wget a une table interne de paires balises/attributs HTML qu'il prend en compte lors de
recherche de documents liés lors d'une récupération récursive. Si un utilisateur veut seulement un
sous-ensemble de ces balises à considérer, cependant, il ou elle doit spécifier ces balises
dans une virgule séparée liste avec cette option.

--ignore-tags=liste
C'est le contraire de la --follow-tags option. Pour ignorer certaines balises HTML lorsque
recherchez récursivement des documents à télécharger, spécifiez-les dans un espace séparé par des virgules liste.

Dans le passé, cette option était la meilleure option pour télécharger une seule page et ses
conditions requises, en utilisant une ligne de commande comme :

wget --ignore-tags=a,area -H -k -K -r http:// /

Cependant, l'auteur de cette option est tombé sur une page avec des balises telles que "
HREF="/">" et s'est rendu compte que spécifier des balises à ignorer n'était pas suffisant.
On ne peut pas simplement dire à Wget d'ignorer " ", car alors les feuilles de style ne seront pas
téléchargé. Maintenant, le meilleur pari pour télécharger une seule page et ses prérequis est le
dévoué - page-conditions option.

--ignore-cas
Ignorez la casse lors de la correspondance des fichiers et des répertoires. Cela influence le comportement de -R,
Options -A, -I et -X, ainsi que globbing implémenté lors du téléchargement à partir de FTP
des sites. Par exemple, avec cette option, -A "*.SMS" correspondra fichier1.txtMais c'est aussi
fichier2.TXT, fichier3.TxT, etc. Les guillemets dans l'exemple sont pour empêcher le shell
d'élargir le motif.

-H
--span-hôtes
Activez le chevauchement entre les hôtes lors de la récupération récursive.

-L
--relatif
Suivez uniquement les liens relatifs. Utile pour récupérer une page d'accueil spécifique sans aucune
distractions, même pas celles des mêmes hôtes.

-I liste
--include-directories=liste
Spécifiez une liste de répertoires séparés par des virgules que vous souhaitez suivre lors du téléchargement.
Des éléments de liste peut contenir des caractères génériques.

-X liste
--exclude-répertoires=liste
Spécifiez une liste de répertoires séparés par des virgules que vous souhaitez exclure du téléchargement.
Des éléments de liste peut contenir des caractères génériques.

-np
- pas de parent
Ne montez jamais dans le répertoire parent lors d'une récupération récursive. C'est un
option utile, car elle garantit que seuls les fichiers ci-dessous une certaine hiérarchie
être téléchargé.

ENVIRONNEMENT


Wget prend en charge les proxys pour les récupérations HTTP et FTP. La manière standard de spécifier un proxy
location, que Wget reconnaît, utilise les variables d'environnement suivantes :

http proxy
https_proxy
S'il est défini, le http proxy ainsi que https_proxy les variables doivent contenir les URL des
proxy pour les connexions HTTP et HTTPS respectivement.

proxy_ftp
Cette variable doit contenir l'URL du proxy pour les connexions FTP. C'est assez
commun que http proxy ainsi que proxy_ftp sont définis sur la même URL.

no_proxy
Cette variable doit contenir une liste séparée par des virgules des extensions de domaine que le proxy doit
ne sauraient être utilisé pour. Par exemple, si la valeur de no_proxy is .mit.edu, le proxy ne
être utilisé pour récupérer des documents du MIT.

EXIT STATUT


Wget peut renvoyer l'un des nombreux codes d'erreur s'il rencontre des problèmes.

0 Aucun problème n'est survenu.

1 Code d'erreur générique.

2 Erreur d'analyse --- par exemple, lors de l'analyse des options de ligne de commande, le .wgetrc or
.netrc

3 Erreur d'E/S de fichier.

4 Défaillance du réseau.

5 Échec de la vérification SSL.

6 Échec de l'authentification par nom d'utilisateur/mot de passe.

7 Erreurs de protocole.

8 Le serveur a émis une réponse d'erreur.

A l'exception de 0 et 1, les codes de sortie les plus bas ont préséance sur les plus hauts.
numérotées, lorsque plusieurs types d'erreurs sont rencontrés.

Dans les versions de Wget antérieures à 1.12, le statut de sortie de Wget avait tendance à être inutile et
inconsistant. Les téléchargements récursifs renverraient pratiquement toujours 0 (succès), indépendamment de
tous les problèmes rencontrés et les récupérations non récursives n'ont renvoyé que le statut correspondant
au téléchargement le plus récemment tenté.

Utiliser wget en ligne à l'aide des services onworks.net


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad