InglésFrancésEspañol

Ad


icono de página de OnWorks

wget: en línea en la nube

Ejecute wget en el proveedor de alojamiento gratuito de OnWorks a través de Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS

Este es el comando wget que se puede ejecutar en el proveedor de alojamiento gratuito de OnWorks utilizando una de nuestras múltiples estaciones de trabajo en línea gratuitas, como Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS.

PROGRAMA:

NOMBRE


Wget: el descargador de red no interactivo.

SINOPSIS


obtener [opción] ... [Enlance] ...

DESCRIPCIÓN


GNU Wget es una utilidad gratuita para la descarga no interactiva de archivos de la Web. Eso
admite los protocolos HTTP, HTTPS y FTP, así como la recuperación a través de proxies HTTP.

Wget no es interactivo, lo que significa que puede funcionar en segundo plano, mientras que el usuario no
sesión iniciada. Esto le permite iniciar una recuperación y desconectarse del sistema, permitiendo
Terminaré el trabajo. Por el contrario, la mayoría de los navegadores web requieren un usuario constante
presencia, que puede ser un gran obstáculo a la hora de transferir una gran cantidad de datos.

Wget puede seguir enlaces en páginas HTML, XHTML y CSS para crear versiones locales de
sitios web, recreando completamente la estructura de directorios del sitio original. Este es
a veces se denomina "descarga recursiva". Mientras hace eso, Wget respeta el
Estándar de exclusión de robots (/robots.txt). Se puede indicar a Wget que convierta los enlaces en
archivos descargados para apuntar a los archivos locales, para verlos sin conexión.

Wget ha sido diseñado para ser robusto en conexiones de red lentas o inestables; si un
la descarga falla debido a un problema de red, seguirá intentándolo hasta que todo el archivo haya
sido recuperado. Si el servidor admite la recuperación, le indicará que continúe
la descarga desde donde la dejó.

Wget no admite listas de revocación de clientes (CRL), por lo que el certificado HTTPS que está
la conexión a puede ser revocada por el propietario del sitio.

CAMPUS


Optión Sintaxis
Dado que Wget usa GNU getopt para procesar argumentos de la línea de comandos, cada opción tiene una forma larga
junto con el corto. Las opciones largas son más convenientes de recordar, pero tómese el tiempo para
escribe. Puede mezclar libremente diferentes estilos de opciones o especificar opciones después del comando-
argumentos de línea. Por lo tanto, puede escribir:

wget -r --tries = 10 http://fly.srk.fer.hr/ -o registro

El espacio entre la opción que acepta un argumento y el argumento puede omitirse.
En lugar de -o log puedes escribir -log.

Puede poner varias opciones que no requieran argumentos juntas, como:

wget -drc

Esto es completamente equivalente a:

wget -d -r -c

Dado que las opciones se pueden especificar después de los argumentos, puede terminarlas con --.
Entonces lo siguiente intentará descargar la URL -x, reportando falla a log:

wget -o log - -x

Las opciones que aceptan listas separadas por comas respetan la convención que especifica
una lista vacía borra su valor. Esto puede resultar útil para borrar .wgetrc ajustes. Para
ejemplo, si tu .wgetrc establece "exclude_directories" en / cgi-bin, el siguiente ejemplo
primero lo restablecerá y luego lo configurará para excluir / ~ nadie y / ~ alguien. También puedes
limpiar las listas en .wgetrc.

wget -X "-X / ~ nadie, / ~ alguien

La mayoría de las opciones que no aceptan argumentos son booleano opciones, llamadas así porque su
El estado se puede capturar con una variable sí o no ("booleana"). Por ejemplo, --seguir-ftp
le dice a Wget que siga los enlaces FTP de los archivos HTML y, por otro lado, --no glob lo dice
no realizar globbing de archivos en URL de FTP. Una opción booleana es afirmativo or
negativas (empezando con --No). Todas estas opciones comparten varias propiedades.

A menos que se indique lo contrario, se asume que el comportamiento predeterminado es el opuesto al
la opción cumple. Por ejemplo, la existencia documentada de --seguir-ftp asume
que el valor predeterminado es no siga los enlaces FTP de las páginas HTML.

Las opciones afirmativas se pueden negar anteponiendo el --No- al nombre de la opción; negativo
Las opciones se pueden negar omitiendo el --No- prefijo. Esto puede parecer superfluo --- si el
por defecto para una opción afirmativa es no hacer algo, entonces ¿por qué proporcionar una forma de
apagarlo explícitamente? Pero, de hecho, el archivo de inicio puede cambiar el predeterminado. Para
instancia, usando "follow_ftp = on" en .wgetrc hace Wget seguir Enlaces FTP de forma predeterminada, y
usando --no-seguir-ftp es la única forma de restaurar los valores predeterminados de fábrica desde el comando
la línea.

Basic Inicio Opciones
-V
--versión
Muestra la versión de Wget.

-h
--ayuda
Imprima un mensaje de ayuda que describa todas las opciones de la línea de comandos de Wget.

-b
--antecedentes
Vaya a segundo plano inmediatamente después del inicio. Si no se especifica ningún archivo de salida a través del
-o, la salida se redirige a registro-wget.

-e comando
--ejecutar comando
Implementación comando como si fuera parte de .wgetrc. Un comando así invocado será
ejecutado después de los comandos en .wgetrc, por lo que tiene prioridad sobre ellos. Si necesitas
para especificar más de un comando wgetrc, utilice varias instancias de -e.

Inicio de sesión y Entrada Archive Opciones
-o archivo de registro
--salida-archivo =archivo de registro
Registrar todos los mensajes en archivo de registro. Los mensajes normalmente se informan como error estándar.

-a archivo de registro
--append-output =archivo de registro
Anexar a archivo de registro. Esto es lo mismo que -o, solo se agrega a archivo de registro en lugar de
sobrescribiendo el archivo de registro antiguo. Si archivo de registro no existe, se crea un nuevo archivo.

-d
--depurar
Active la salida de depuración, es decir, información diversa importante para los desarrolladores de Wget.
si no funciona correctamente. Es posible que el administrador del sistema haya elegido compilar
Wget sin soporte de depuración, en cuyo caso -d no trabajará. Tenga en cuenta que
compilar con soporte de depuración siempre es seguro --- Wget compilado con soporte de depuración
seguirá no imprima cualquier información de depuración a menos que se solicite con -d.

-q
--tranquilo
Apague la salida de Wget.

-v
--verboso
Active la salida detallada, con todos los datos disponibles. La salida predeterminada es detallada.

-Nevada
--no verboso
Desactive el verbose sin ser completamente silencioso (use -q para eso), lo que significa que
aún se imprimen mensajes de error e información básica.

--report-speed =tipo
Ancho de banda de salida como tipo. El único valor aceptado es los bits.

-i presentar
--input-file =presentar
Leer URL de un local o externo presentar. Si - se especifica como presentar, Se leen las URL
de la entrada estándar. (Usar ./- leer de un archivo literalmente llamado -.)

Si se utiliza esta función, no es necesario que haya URL presentes en la línea de comando. Si hay
URL tanto en la línea de comando como en un archivo de entrada, las de las líneas de comando serán
los primeros en ser recuperados. Si --fuerza-html no se especifica, entonces presentar tienes
constan de una serie de URL, una por línea.

Sin embargo, si especifica --fuerza-html, el documento se considerará html. En eso
En caso de que tenga problemas con los enlaces relativos, que puede resolver agregando
"url ">" a los documentos o especificando --base =url en la línea de comando.

Si presentar es externo, el documento se tratará automáticamente como html if
las coincidencias del tipo de contenido text / html. Además, la presentarla ubicación será
se utiliza implícitamente como href base si no se especificó ninguno.

--input-metalink =presentar
Descarga archivos cubiertos en Metalink local presentar. Metalink versión 3 y 4 son
soportado.

--metalink-sobre-http
Emite una solicitud HTTP HEAD en lugar de GET y extrae metadatos de Metalink de la respuesta
encabezados. Luego cambia a la descarga de Metalink. Si no hay metadatos de Metalink válidos
encontrado, recurre a la descarga HTTP ordinaria.

--ubicación preferida
Establezca la ubicación preferida para los recursos de Metalink. Esto tiene efecto si varios recursos
con la misma prioridad están disponibles.

-F
--fuerza-html
Cuando se lee la entrada de un archivo, se fuerza a que se trate como un archivo HTML. Esto permite
para recuperar enlaces relativos de archivos HTML existentes en su disco local, agregando
"url ">" a HTML, o usando el --base opción de línea de comandos.

-B Enlance
--base =Enlance
Resuelve enlaces relativos usando Enlance como punto de referencia, al leer enlaces de
un archivo HTML especificado a través del -i/--fichero de entrada opción (junto con --fuerza-htmlo
cuando el archivo de entrada se obtuvo de forma remota desde un servidor que lo describe como HTML). Este es
equivalente a la presencia de una etiqueta "BASE" en el archivo de entrada HTML, con Enlance como el
valor para el atributo "href".

Por ejemplo, si especifica http://foo/bar/a.html para Enlancey Wget lee
../baz/b.html del archivo de entrada, se resolvería en http://foo/baz/b.html.

--config =ARCHIVO
Especifique la ubicación de un archivo de inicio que desea utilizar.

--rejected-log =archivo de registro
Registra todos los rechazos de URL en archivo de registro como valores separados por comas. Los valores incluyen el
motivo del rechazo, la URL y la URL principal en la que se encontró.

Descargar Opciones
--bind-address =DIRECCION
Al realizar conexiones TCP / IP de cliente, enlazar a DIRECCION en la máquina local. DIRECCION
se puede especificar como un nombre de host o una dirección IP. Esta opción puede ser útil si su
La máquina está vinculada a varias direcciones IP.

-t número
--tries =número
Establecer el número de intentos para número. Especifique 0 o inf para reintentos infinitos. El valor predeterminado es
reintentar 20 veces, con la excepción de errores fatales como "conexión rechazada" o
"no encontrado" (404), que no se reintenta.

-O presentar
--output-document =presentar
Los documentos no se escribirán en los archivos apropiados, pero todos serán
concatenados juntos y escritos a presentar. Si - se usa como presentar, los documentos serán
impreso en salida estándar, deshabilitando la conversión de enlace. (Usar ./- para imprimir en un archivo
literalmente nombrado -.)

El uso del sitio web de -O is no pretende significar simplemente "usa el nombre presentar en lugar del que está en el
URL; "más bien, es análogo a la redirección de shell: wget -O presentar http://foo is
destinado a funcionar como wget -O - http://foo > presentar; presentar se truncará inmediatamente,
y todos el contenido descargado se escribirá allí.

Por esta razón, -N (para la verificación de la marca de tiempo) no se admite en combinación con -O:
desde presentar siempre es de nueva creación, siempre tendrá una marca de tiempo muy nueva. A
Se emitirá una advertencia si se utiliza esta combinación.

Del mismo modo, usando -r or -p -O puede que no funcione como espera: Wget no solo descargará
el primer archivo a presentar y luego descargue el resto a sus nombres normales: todos
el contenido descargado se colocará en presentar. Esto fue deshabilitado en la versión 1.11, pero tiene
ha sido reinstalado (con una advertencia) en 1.11.2, ya que hay algunos casos en los que esta
el comportamiento en realidad puede tener alguna utilidad.

Una combinación con -Carolina del Norte solo se acepta si el archivo de salida dado no existe.

Tenga en cuenta que una combinación con -k solo está permitido al descargar un solo documento,
como en ese caso, solo convertirá todos los URI relativos en externos; -k no hace
detecta varios URI cuando todos se descargan en un solo archivo; -k puede ser
se utiliza solo cuando la salida es un archivo normal.

-Carolina del Norte
--sin golpes
Si un archivo se descarga más de una vez en el mismo directorio, el comportamiento de Wget depende
en algunas opciones, incluyendo -Carolina del Norte. En ciertos casos, el archivo local se golpeado,
o sobrescrito, tras repetidas descargas. En otros casos se conservará.

Al ejecutar Wget sin -N, -Carolina del Norte, -ro -p, descargando el mismo archivo en el mismo
directorio resultará en la copia original de presentar se conserva y la segunda copia
siendo nombrado presentar.1. Si ese archivo se descarga nuevamente, la tercera copia será
llamado presentar.2, etcétera. (Este es también el comportamiento con -Dakota del Norte, incluso si -r or -p tiene
efecto.) Cuando -Carolina del Norte se especifica, este comportamiento se suprime y Wget se negará a
descargar copias más recientes de presentar. Por lo tanto, "" no-clobber "" es en realidad un nombre inapropiado en
este modo --- no es una paliza lo que se evita (ya que los sufijos numéricos ya estaban
prevención de golpes), sino más bien el guardado de múltiples versiones que se evita.

Al ejecutar Wget con -r or -p, Pero sin -N, -Dakota del Norteo -Carolina del Norte, volviendo a descargar un archivo
dará como resultado que la nueva copia simplemente sobrescriba la antigua. Añadiendo -Carolina del Norte evitará esto
comportamiento, lo que hace que se conserve la versión original y las copias más nuevas en
el servidor que se ignorará.

Al ejecutar Wget con -N, con o sin -r or -p, la decisión sobre si
descargar una copia más reciente de un archivo depende de la marca de tiempo y el tamaño locales y remotos
del archivo. -Carolina del Norte no puede especificarse al mismo tiempo que -N.

Una combinación con -O/- documento de salida solo se acepta si el archivo de salida dado no
no existe.

Tenga en cuenta que cuando -Carolina del Norte se especifica, archivos con los sufijos . Html or . Htm será cargado
del disco local y analizados como si se hubieran recuperado de la Web.

--backups =copias de seguridad
Antes de (sobre) escribir un archivo, haga una copia de seguridad de un archivo existente agregando un .1 sufijo (_1 on
VMS) al nombre del archivo. Dichos archivos de respaldo se rotan para .2, .3y así sucesivamente hasta
copias de seguridad (y perdido más allá de eso).

-c
--Seguir
Continúe obteniendo un archivo parcialmente descargado. Esto es útil cuando quieres terminar
una descarga iniciada por una instancia anterior de Wget o por otro programa. Para
ejemplo:

wget-c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Si hay un archivo llamado ls-lR.Z en el directorio actual, Wget asumirá que es
la primera parte del archivo remoto y le pedirá al servidor que continúe la
recuperación de un desplazamiento igual a la longitud del archivo local.

Tenga en cuenta que no necesita especificar esta opción si solo desea la
invocación de Wget para volver a intentar descargar un archivo en caso de que la conexión se pierda a mitad de camino
mediante. Este es el comportamiento predeterminado. -c solo afecta la reanudación de las descargas
fundó antes a esta invocación de Wget, y cuyos archivos locales todavía están almacenados
alrededor.

Sin -c, el ejemplo anterior simplemente descargaría el archivo remoto a ls-lR.Z.1,
dejando el truncado ls-lR.Z archivo solo.

A partir de Wget 1.7, si usa -c en un archivo no vacío, y resulta que el
El servidor no admite la descarga continua, Wget se negará a iniciar la descarga.
desde cero, lo que arruinaría efectivamente los contenidos existentes. Si realmente quieres el
descargar para comenzar desde cero, elimine el archivo.

También comenzando con Wget 1.7, si usa -c en un archivo que es del mismo tamaño que el
uno en el servidor, Wget se negará a descargar el archivo e imprimir una explicación
mensaje. Lo mismo sucede cuando el archivo es más pequeño en el servidor que localmente
(presumiblemente porque se cambió en el servidor desde la última descarga
intento) --- debido a que "continuar" no es significativo, no se produce ninguna descarga.

En el otro lado de la moneda, mientras usa -c, cualquier archivo que sea más grande en el servidor
que localmente se considerará una descarga incompleta y solo "(longitud (remota) -
length (local)) "bytes se descargarán y se pegarán al final del archivo local.
Este comportamiento puede ser deseable en ciertos casos --- por ejemplo, puede usar wget -c a
descargue solo la parte nueva que se ha agregado a una recopilación de datos o archivo de registro.

Sin embargo, si el archivo es más grande en el servidor porque ha sido cambiado, Opuesto a
solo anexado a, terminará con un archivo confuso. Wget no tiene forma de verificar
que el archivo local es realmente un prefijo válido del archivo remoto. Necesitas ser
especialmente cuidado con esto al usar -c junto con -r, ya que cada archivo
ser considerado como un candidato de "descarga incompleta".

Otra instancia en la que obtendrá un archivo ilegible si intenta usar -c es si tienes un
Proxy HTTP poco convincente que inserta una cadena de "transferencia interrumpida" en el archivo local. En
en el futuro, se puede agregar una opción de "reversión" para tratar este caso.

Tenga en cuenta que -c solo funciona con servidores FTP y con servidores HTTP que admiten la
Encabezado "Rango".

--start-pos =OFFSET
Comience a descargar en la posición de base cero OFFSET. El desplazamiento puede expresarse en bytes,
kilobytes con el sufijo 'k', o megabytes con el sufijo 'm', etc.

--pos-inicio tiene mayor precedencia sobre --Seguir. Cuando el --pos-inicio y --Seguir
están ambos especificados, wget emitirá una advertencia y luego procederá como si --Seguir estuvo ausente.

Se requiere soporte del servidor para la descarga continua, de lo contrario --pos-inicio no puedo ayudar.
See -c para más detalles.

--progreso =tipo
Seleccione el tipo de indicador de progreso que desea utilizar. Los indicadores legales son "punto"
y "barra".

El indicador de "barra" se utiliza de forma predeterminada. Dibuja gráficos de barra de progreso ASCII
(también conocido como pantalla de "termómetro") que indica el estado de recuperación. Si la salida es
no es un TTY, la barra de "puntos" se utilizará de forma predeterminada.

Uso --progreso = punto para cambiar a la pantalla de "puntos". Traza la recuperación por
imprimir puntos en la pantalla, cada punto representa una cantidad fija de datos descargados.

El progreso tipo también puede tomar uno o más parámetros. Los parámetros varían según
las tipo seleccionado. Parámetros para tipo se pasan agregándolos al tipo
sperado por dos puntos (:) así: --progreso =tipo:parameter1:parameter2.

Cuando utilice la recuperación de puntos, puede configurar el papa especificando el tipo como
punto:papa. Los diferentes estilos asignan un significado diferente a un punto. Con el "predeterminado"
estilo cada punto representa 1K, hay diez puntos en un grupo y 50 puntos en una línea.
El estilo "binario" tiene una orientación más parecida a la de "computadora" --- 8K puntos, grupos de 16 puntos
y 48 puntos por línea (lo que equivale a 384K líneas). El estilo "mega" es adecuado para
descarga de archivos grandes --- cada punto representa 64K recuperados, hay ocho puntos en un
clúster y 48 puntos en cada línea (por lo que cada línea contiene 3M). Si "mega" no es suficiente
luego puede usar el estilo "giga" --- cada punto representa 1M recuperado, hay ocho
puntos en un grupo y 32 puntos en cada línea (por lo que cada línea contiene 32M).

Con --progreso = barra, actualmente hay dos parámetros posibles, forzar y sin desplazamiento.

Cuando la salida no es un TTY, la barra de progreso siempre vuelve a "punto", incluso si
--progreso = barra se pasó a Wget durante la invocación. Este comportamiento se puede anular
y la salida de "barra" forzada mediante el uso del parámetro "force" como --progreso = barra: fuerza.

Por defecto, el de caramelos barra de progreso de estilo desplaza el nombre del archivo de izquierda a derecha
para el archivo que se descarga si el nombre del archivo excede la longitud máxima asignada para
su pantalla. En ciertos casos, como con --progreso = barra: fuerza, uno puede no querer
el nombre de archivo de desplazamiento en la barra de progreso. Al pasar el parámetro "noscroll", Wget
se puede forzar a mostrar la mayor cantidad posible del nombre de archivo sin tener que desplazarse
él.

Tenga en cuenta que puede establecer el estilo predeterminado mediante el comando "progreso" en .wgetrc. Que
La configuración puede anularse desde la línea de comandos. Por ejemplo, para forzar la salida de la barra
sin desplazarse, use --progress = bar: force: noscroll.

--mostrar-progreso
Obligar a wget a mostrar la barra de progreso en cualquier nivel de detalle.

De forma predeterminada, wget solo muestra la barra de progreso en modo detallado. Sin embargo, uno puede
desea que wget muestre la barra de progreso en la pantalla junto con cualquier otro
modos de verbosidad como --no verboso or --tranquilo. Esta es a menudo una propiedad deseada cuando
invocando wget para descargar varios archivos pequeños / grandes. En tal caso, wget podría
simplemente se invoca con este parámetro para obtener una salida mucho más limpia en la pantalla.

Esta opción también forzará la impresión de la barra de progreso stderr cuando se usa
junto a la --archivo de registro .

-N
--Marcando la hora
Active el sellado de tiempo.

--no-si-modificado-desde
No envíe el encabezado If-Modified-Since en -N modo. Enviar solicitud HEAD preliminar
en lugar de. Esto solo tiene efecto en -N modo.

--marcas de tiempo-del-servidor-sin-uso
No establezca la marca de tiempo del archivo local con la del servidor.

De forma predeterminada, cuando se descarga un archivo, sus marcas de tiempo se configuran para que coincidan con las del
archivo remoto. Esto permite el uso de --Marcando la hora en posteriores invocaciones de wget.
Sin embargo, a veces es útil basar la marca de tiempo del archivo local en cuándo se
realmente descargado; para ese propósito, el --marcas de tiempo-del-servidor-sin-uso la opción ha sido
previsto.

-S
- respuesta del servidor
Imprime los encabezados enviados por los servidores HTTP y las respuestas enviadas por los servidores FTP.

--araña
Cuando se invoca con esta opción, Wget se comportará como un Web araña, lo que significa que
no descargará las páginas, solo verifique que estén allí. Por ejemplo, puede utilizar
Wget para comprobar sus marcadores:

wget --spider --force-html -i marcadores.html

Esta característica necesita mucho más trabajo para que Wget se acerque a la funcionalidad de
arañas web.

-T segundos
--timeout =segundos
Establezca el tiempo de espera de la red en segundos segundos. Esto es equivalente a especificar
--dns-tiempo de espera, - tiempo de espera de conexióny - tiempo de espera de lectura, todo al mismo tiempo.

Al interactuar con la red, Wget puede verificar el tiempo de espera y abortar la operación.
si tarda demasiado. Esto evita anomalías como lecturas colgantes e infinitas
conecta. El único tiempo de espera habilitado de forma predeterminada es un tiempo de espera de lectura de 900 segundos. Configuración
un tiempo de espera a 0 lo desactiva por completo. A menos que sepa lo que está haciendo, es mejor
no cambiar la configuración predeterminada del tiempo de espera.

Todas las opciones relacionadas con el tiempo de espera aceptan valores decimales, así como valores de subsegundos. Para
ejemplo, 0.1 segundos es una elección legal (aunque imprudente) de tiempo de espera. Tiempos de espera subsiguientes
son útiles para comprobar los tiempos de respuesta del servidor o para probar la latencia de la red.

--dns-timeout =segundos
Establezca el tiempo de espera de búsqueda de DNS en segundos segundos. Búsquedas de DNS que no se completan en
el tiempo especificado fallará. De forma predeterminada, no hay tiempo de espera en las búsquedas de DNS, otros
que el implementado por las bibliotecas del sistema.

--connect-timeout =segundos
Establezca el tiempo de espera de conexión en segundos segundos. Conexiones TCP que tardan más en
establecer será abortado. De forma predeterminada, no hay tiempo de espera de conexión, aparte de eso
implementado por bibliotecas del sistema.

--read-timeout =segundos
Establezca el tiempo de espera de lectura (y escritura) en segundos segundos. El "tiempo" de este tiempo de espera
se refiere a ocioso equipo: si, en cualquier momento de la descarga, no se reciben datos para más
que el número de segundos especificado, la lectura falla y se reinicia la descarga.
Esta opción no afecta directamente la duración de toda la descarga.

Por supuesto, el servidor remoto puede optar por terminar la conexión antes de este
la opción requiere. El tiempo de espera de lectura predeterminado es de 900 segundos.

- tasa-límite =cantidad
Limite la velocidad de descarga a cantidad bytes por segundo. La cantidad puede expresarse en
bytes, kilobytes con el k sufijo, o megabytes con el m sufijo. Por ejemplo,
- tasa límite = 20k limitará la tasa de recuperación a 20 KB / s. Esto es útil cuando, para
sea ​​cual sea la razón, no desea que Wget consuma todo el ancho de banda disponible.

Esta opción permite el uso de números decimales, generalmente junto con potencia
sufijos; por ejemplo, - tasa límite = 2.5k es un valor legal.

Tenga en cuenta que Wget implementa la limitación durmiendo la cantidad de tiempo adecuada
después de una lectura de red que tomó menos tiempo que el especificado por la tasa. Eventualmente esto
La estrategia hace que la transferencia de TCP se ralentice aproximadamente a la velocidad especificada.
Sin embargo, puede llevar algún tiempo lograr este equilibrio, así que no se sorprenda.
si limitar la velocidad no funciona bien con archivos muy pequeños.

-w segundos
--wait =segundos
Espere el número especificado de segundos entre las recuperaciones. El uso de esta opción es
recomendado, ya que aligera la carga del servidor al hacer que las solicitudes sean menos frecuentes.
En lugar de en segundos, el tiempo se puede especificar en minutos usando el sufijo "m", en
horas usando el sufijo "h", o en días usando el sufijo "d".

Especificar un valor grande para esta opción es útil si la red o el destino
el host está inactivo, por lo que Wget puede esperar lo suficiente para esperar razonablemente el error de red
para ser reparado antes del reintento. El intervalo de espera especificado por esta función es
influenciado por "--random-wait", que ver.

--waitretry =segundos
Si no quiere que Wget espere entre cada recuperación, pero solo entre reintentos de
descargas fallidas, puede utilizar esta opción. Wget usará lineal Apártate, esperando 1
segundo después de la primera falla en un archivo dado, luego esperar 2 segundos después de la
segundo fallo en ese archivo, hasta el número máximo de segundos tu específicas.

De forma predeterminada, Wget asumirá un valor de 10 segundos.

--espera aleatoria
Algunos sitios web pueden realizar análisis de registros para identificar programas de recuperación como Wget by
buscando similitudes estadísticamente significativas en el tiempo entre solicitudes. Esta
La opción hace que el tiempo entre solicitudes varíe entre 0.5 y 1.5 * esperar segundo,
donde esperar fue especificado usando el --Espere opción, para enmascarar la presencia de Wget
a partir de dicho análisis.

Un artículo de 2001 en una publicación dedicada al desarrollo en una plataforma de consumo popular
proporcionó código para realizar este análisis sobre la marcha. Su autor sugirió bloquear en
el nivel de dirección de clase C para garantizar que los programas de recuperación automatizados se bloquearan a pesar de
cambiar las direcciones proporcionadas por DHCP.

La --espera aleatoria La opción se inspiró en esta recomendación desacertada de bloquear muchas
usuarios no relacionados de un sitio web debido a las acciones de uno.

--sin proxy
No utilice proxies, incluso si se define la variable de entorno * _proxy adecuada.

-Q cuota
--quota =cuota
Especifique la cuota de descarga para recuperaciones automáticas. El valor se puede especificar en bytes.
(predeterminado), kilobytes (con k sufijo), o megabytes (con m sufijo).

Tenga en cuenta que la cuota nunca afectará la descarga de un solo archivo. Entonces, si especificas wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, toda la ls-lR.gz será descargado. los
Lo mismo ocurre incluso cuando se especifican varias URL en la línea de comandos. Sin embargo, la cuota es
respetado cuando se recupera de forma recursiva o de un archivo de entrada. Por lo tanto, puede
escriba con seguridad wget -Q2m -i sitios web--- la descarga se cancelará cuando se exceda la cuota.

Establecer la cuota en 0 o en inf ilimita la cuota de descarga.

--no-dns-caché
Desactive el almacenamiento en caché de las búsquedas de DNS. Normalmente, Wget recuerda las direcciones IP que buscaba.
desde DNS para que no tenga que ponerse en contacto repetidamente con el servidor DNS para el mismo
(normalmente pequeño) conjunto de hosts de los que se recupera. Esta caché solo existe en la memoria; a
la nueva ejecución de Wget se pondrá en contacto con DNS nuevamente.

Sin embargo, se ha informado que en algunas situaciones no es deseable almacenar en caché
nombres de host, incluso durante la duración de una aplicación de ejecución corta como Wget. Con este
La opción Wget emite una nueva búsqueda de DNS (más precisamente, una nueva llamada a "gethostbyname" o
"getaddrinfo") cada vez que realiza una nueva conexión. Tenga en cuenta que esta opción
no afectar el almacenamiento en caché que podría ser realizado por la biblioteca de resolución o por un externo
capa de almacenamiento en caché, como NSCD.

Si no comprende exactamente lo que hace esta opción, probablemente no la necesite.

--restrict-file-names =los modos
Cambie los caracteres que se encuentran en las URL remotas se deben escapar durante la generación de
nombres de archivos locales. Personajes que son límite por esta opción se escapan, es decir
reemplazadas con %S.S, Donde HH es el número hexadecimal que corresponde al
carácter restringido. Esta opción también se puede usar para forzar todos los casos alfabéticos a
ser minúsculas o mayúsculas.

De forma predeterminada, Wget escapa los caracteres que no son válidos o seguros como parte del archivo
nombres en su sistema operativo, así como caracteres de control que normalmente son
indecente. Esta opción es útil para cambiar estos valores predeterminados, quizás porque
está descargando a una partición no nativa, o porque desea deshabilitar el escape de
los caracteres de control, o desea restringir aún más los caracteres solo a aquellos en
el rango de valores ASCII.

La los modos son un conjunto de valores de texto separados por comas. Los valores aceptables son UNIX,
ventanas, NoControl, ascii, minúsculay mayúscula. Los valores UNIX y ventanas están
mutuamente excluyentes (uno anulará al otro), como son minúscula y mayúscula.
Estos últimos son casos especiales, ya que no cambian el conjunto de caracteres que
escapar, sino forzar la conversión de las rutas de archivos locales a
mayúsculas.

Cuando se especifica "unix", Wget escapa del carácter / y los personajes de control en
los rangos 0--31 y 128--159. Este es el valor predeterminado en los sistemas operativos similares a Unix.

Cuando se da "ventanas", Wget escapa de los personajes \, |, /, :, ?, ", *, <, >y
los caracteres de control en los rangos 0--31 y 128--159. Además de esto, Wget en
Usos del modo Windows + en lugar de : para separar host y puerto en nombres de archivos locales, y
usos @ en lugar de ? para separar la parte de consulta del nombre del archivo del resto.
Por lo tanto, una URL que se guardaría como www.xemacs.org:4300/search.pl?input=blah in
El modo Unix se guardaría como www.xemacs.org+4300/search.pl@input=blah en modo Windows.
Este modo es el predeterminado en Windows.

Si especifica NoControl, entonces el escape de los caracteres de control también se cambia
apagado. Esta opción puede tener sentido cuando descarga URL cuyos nombres contienen
Caracteres UTF-8, en un sistema que puede guardar y mostrar nombres de archivo en UTF-8 (algunos
posibles valores de bytes utilizados en secuencias de bytes UTF-8 caen en el rango de valores
designado por Wget como "controles").

La ascii El modo se utiliza para especificar que los bytes cuyos valores estén fuera del rango de
Los caracteres ASCII (es decir, mayores de 127) se escaparán. Esto puede resultar útil cuando
guardar nombres de archivo cuya codificación no coincide con la que se usa localmente.

-4
--inet4-solamente
-6
--inet6-solamente
Forzar la conexión a direcciones IPv4 o IPv6. Con --inet4-solamente or -4, Wget solo
conectarse a hosts IPv4, ignorar los registros AAAA en DNS y negarse a conectarse a IPv6
direcciones especificadas en URL. Por el contrario, con --inet6-solamente or -6, Wget solo
conéctese a hosts IPv6 e ignore los registros A y las direcciones IPv4.

Ninguna opción debería ser necesaria normalmente. De forma predeterminada, un Wget compatible con IPv6 utilizará
la familia de direcciones especificada por el registro DNS del host. Si el DNS responde con ambos
Direcciones IPv4 e IPv6, Wget las probará en secuencia hasta que encuentre una que pueda
conectar a. (Consulte también la opción "--prefer-family" que se describe a continuación).

Estas opciones se pueden utilizar para forzar deliberadamente el uso de direcciones IPv4 o IPv6.
familias en sistemas de familia dual, generalmente para ayudar a la depuración o para tratar problemas
configuración de la red. Solo uno de --inet6-solamente y --inet4-solamente puede especificarse en
al mismo tiempo. Ninguna opción está disponible en Wget compilado sin soporte para IPv6.

--prefer-family = none / IPv4 / IPv6
Cuando se le dé la opción de varias direcciones, conéctese a las direcciones con
dirigirse a la familia primero. El orden de direcciones devuelto por DNS se utiliza sin cambios por
predeterminado.

Esto evita errores espurios e intentos de conexión al acceder a hosts que resuelven
direcciones IPv6 e IPv4 de redes IPv4. Por ejemplo, www.kame.net resuelve
a 2001:200:0:8002:203:47ff:fea5:3085 y para 203.178.141.194. Cuando el preferido
familia es "IPv4", la dirección IPv4 se usa primero; cuando la familia preferida es "IPv6",
la dirección IPv6 se usa primero; si el valor especificado es "ninguno", el orden de la dirección
devuelto por DNS se utiliza sin cambios.

Diferente a la -4 y -6, esta opción no inhibe el acceso a ninguna familia de direcciones, solo
cambia el solicite en el que se accede a las direcciones. También tenga en cuenta que el reordenamiento
realizado por esta opción es estable--- no afecta el orden de direcciones de la misma
familia. Es decir, el orden relativo de todas las direcciones IPv4 y de todas las direcciones IPv6
permanece intacto en todos los casos.

--reintentar-connrechazado
Considere "conexión rechazada" como un error transitorio y vuelva a intentarlo. Normalmente, Wget se rinde
en una URL cuando no puede conectarse al sitio porque no se puede conectar
como una señal de que el servidor no se está ejecutando en absoluto y que los reintentos no ayudarían. Esta
La opción es para duplicar sitios no confiables cuyos servidores tienden a desaparecer por poco tiempo.
periodos de tiempo.

--user =usuario
--password =la contraseña
Especifique el nombre de usuario usuario y la contraseña la contraseña para la recuperación de archivos FTP y HTTP.
Estos parámetros se pueden anular utilizando el --ftp-usuario y --ftp-contraseña opciones para
Conexiones FTP y --http-usuario y --http-contraseña opciones para conexiones HTTP.

--pedir-contraseña
Solicitar una contraseña para cada conexión establecida. No se puede especificar cuando
--contraseña se está utilizando, porque son mutuamente excluyentes.

--no-iri
Desactive el soporte de URI internacionalizado (IRI). Usar --iri Encenderlo. El soporte de IRI es
activado por defecto.

Puede establecer el estado predeterminado de la compatibilidad con IRI mediante el comando "iri" en .wgetrc. Que
La configuración puede anularse desde la línea de comandos.

--local-encoding =codificación
Forzar el uso de Wget codificación como la codificación predeterminada del sistema. Eso afecta la forma en que Wget
convierte las URL especificadas como argumentos de la configuración regional a UTF-8 para compatibilidad con IRI.

Utilice la función "nl_langinfo ()" y luego la variable de entorno "CHARSET" para
obtener la configuración regional. Si falla, se usa ASCII.

Puede establecer la codificación local predeterminada mediante el comando "local_encoding" en .wgetrc.
Esa configuración puede anularse desde la línea de comandos.

--remote-encoding =codificación
Forzar el uso de Wget codificación como la codificación predeterminada del servidor remoto. Eso afecta como
Wget convierte los URI encontrados en archivos de codificación remota a UTF-8 durante un recursivo
ir a buscar. Esta opción solo es útil para el soporte de IRI, para la interpretación de
Caracteres ASCII.

Para HTTP, la codificación remota se puede encontrar en el encabezado HTTP "Content-Type" y en HTML
Metaetiqueta "Content-Type http-equiv".

Puede establecer la codificación predeterminada mediante el comando "codificación remota" en .wgetrc. Que
La configuración puede anularse desde la línea de comandos.

--desconectar
Obligar a Wget a desvincular el archivo en lugar de golpear el archivo existente. Esta opción es útil
para descargar al directorio con enlaces físicos.

Directorio Opciones
-Dakota del Norte
--no-directorios
No cree una jerarquía de directorios cuando recupere de forma recursiva. Con este
activada, todos los archivos se guardarán en el directorio actual, sin
clobbering (si un nombre aparece más de una vez, los nombres de archivo obtendrán extensiones .n).

-x
--force-directorios
Lo contrario a -Dakota del Norte--- crear una jerarquía de directorios, incluso si uno no hubiera
sido creado de otra manera. P.ej wget -x http://fly.srk.fer.hr/robots.txt salvará el
archivo descargado a fly.srk.fer.hr/robots.txt.

-Nueva Hampshire
--no-host-directorios
Deshabilite la generación de directorios con prefijo de host. De forma predeterminada, al invocar Wget con -r
http://fly.srk.fer.hr/ creará una estructura de directorios que comience con
fly.srk.fer.hr/. Esta opción desactiva dicho comportamiento.

--protocol-directorios
Utilice el nombre del protocolo como un componente de directorio de los nombres de archivos locales. Por ejemplo, con
esta opción, wget -r http://fortaleza salvará a http /fortaleza/ ... en lugar de solo para
fortaleza/ ....

--cut-dirs =número
pasar por alto número componentes de directorio. Esto es útil para obtener un control detallado
sobre el directorio donde se guardará la recuperación recursiva.

Tomemos, por ejemplo, el directorio en ftp://ftp.xemacs.org/pub/xemacs/. Si recuperas
con -r, se guardará localmente en ftp.xemacs.org/pub/xemacs/. Mientras que el -Nueva Hampshire
opción puede eliminar el ftp.xemacs.org/ parte, todavía estás atrapado con pub / xemacs. Esto
es donde --cut-dirs Viene muy bien; hace que Wget no "vea" número directorio remoto
componentes. Aquí hay varios ejemplos de cómo --cut-dirs la opción funciona.

Sin opciones -> ftp.xemacs.org/pub/xemacs/
-nH -> pub / xemacs /
-nH --cut-dirs = 1 -> xemacs /
-nH --cut-dirs = 2 ->.

--cut-dirs = 1 -> ftp.xemacs.org/xemacs/
...

Si solo desea deshacerse de la estructura del directorio, esta opción es similar a una
combinación de -Dakota del Norte y -P. Sin embargo, a diferencia -Dakota del Norte, --cut-dirs no pierde con
subdirectorios --- por ejemplo, con -Nueva Hampshire --cut-dirs = 1, beta/ subdirectorio será
colocado a xemacs / beta, como era de esperar.

-P prefijo
--directory-prefix =prefijo
Establecer prefijo de directorio en prefijo. directorio prefijo es el directorio donde todos los demás
Los archivos y subdirectorios se guardarán en, es decir, en la parte superior del árbol de recuperación. los
por defecto es . (el directorio actual).

HTTP Opciones
--default-page =nombre
Uso nombre como el nombre de archivo predeterminado cuando no se conoce (es decir, para las URL que terminan en un
barra), en lugar de index.html.

-E
--ajustar-extensión
Si un archivo de tipo aplicación / xhtml + xml or text / html se descarga y la URL no
no terminar con la expresión regular \. [Hh] [Tt] [Mm] [Ll]?, esta opción causará el sufijo . Html
que se agregará al nombre del archivo local. Esto es útil, por ejemplo, cuando estás
duplicando un sitio remoto que usa . Asp páginas, pero desea que las páginas reflejadas sean
visible en su servidor Apache estándar. Otro buen uso para esto es cuando estás
descarga de materiales generados por CGI. Una URL como http://site.com/article.cgi? 25 seguirá
ser salvo como article.cgi? 25.html.

Tenga en cuenta que los nombres de archivo cambiados de esta manera se volverán a descargar cada vez que vuelva a duplicar
un sitio, porque Wget no puede decir que el local X.html el archivo corresponde a la URL remota X
(ya que aún no sabe que la URL produce una salida de tipo text / html or
aplicación / xhtml + xml.

A partir de la versión 1.12, Wget también se asegurará de que cualquier archivo de tipo descargado texto / css
terminar en el sufijo . Css, y se cambió el nombre de la opción de --html-extensión, para mejorar
reflejar su nuevo comportamiento. El nombre de la opción anterior sigue siendo aceptable, pero ahora debería ser
considerado obsoleto.

En algún momento en el futuro, esta opción puede ampliarse para incluir sufijos para
otros tipos de contenido, incluidos los tipos de contenido que Wget no analiza.

--http-user =usuario
--http-contraseña =la contraseña
Especifique el nombre de usuario usuario y la contraseña la contraseña en un servidor HTTP. De acuerdo con la
tipo de desafío, Wget los codificará usando el "básico" (inseguro), el
"digest", o el esquema de autenticación "NTLM" de Windows.

Otra forma de especificar el nombre de usuario y la contraseña es en la propia URL. Cualquiera de los métodos
revela su contraseña a cualquiera que se moleste en ejecutar "ps". Para evitar las contraseñas
de ser visto, guárdelos en .wgetrc or .netrcy asegúrese de proteger esos archivos
de otros usuarios con "chmod". Si las contraseñas son realmente importantes, no las deje
ya sea en esos archivos --- edite los archivos y elimínelos después de que Wget haya
inició la descarga.

--no-http-mantener vivo
Desactive la función "mantener vivo" para las descargas HTTP. Normalmente, Wget pregunta al servidor
para mantener la conexión abierta para que, cuando descargue más de un documento del
mismo servidor, se transfieren a través de la misma conexión TCP. Esto ahorra tiempo y
al mismo tiempo reduce la carga en el servidor.

Esta opción es útil cuando, por alguna razón, las conexiones persistentes (mantener vivo) no
trabajar para usted, por ejemplo, debido a un error del servidor o debido a la incapacidad del lado del servidor
guiones para hacer frente a las conexiones.

--sin caché
Deshabilite la caché del lado del servidor. En este caso, Wget enviará al servidor remoto un
directiva apropiadapragma: no caché) para obtener el archivo del servicio remoto,
en lugar de devolver la versión en caché. Esto es especialmente útil para recuperar
y descarga de documentos obsoletos en servidores proxy.

El almacenamiento en caché está permitido de forma predeterminada.

--no galletas
Desactive el uso de cookies. Las cookies son un mecanismo para mantener el lado del servidor
estado. El servidor envía al cliente una cookie utilizando el encabezado "Set-Cookie", y el
el cliente responde con la misma cookie a más solicitudes. Dado que las cookies permiten
propietarios de servidores para realizar un seguimiento de los visitantes y para que los sitios intercambien esta información,
algunos los consideran una violación de la privacidad. El valor predeterminado es utilizar cookies; sin embargo,
almacenamiento las cookies no están activadas de forma predeterminada.

--cargar-cookies presentar
Cargar cookies desde presentar antes de la primera recuperación HTTP. presentar es un archivo textual en el
formato utilizado originalmente por Netscape cookies.txt archivo.

Por lo general, utilizará esta opción cuando refleje sitios que requieran que esté
iniciado sesión para acceder a todo o parte de su contenido. El proceso de inicio de sesión normalmente funciona
por el servidor web que emite una cookie HTTP al recibir y verificar su
cartas credenciales. El navegador reenvía la cookie al acceder a esa parte del
sitio, y así prueba su identidad.

La duplicación de un sitio de este tipo requiere que Wget envíe las mismas cookies que envía su navegador cuando
comunicarse con el sitio. Esto se logra por --cargar-cookies--- simplemente apunte Wget
a la ubicación de la cookies.txt archivo, y enviará las mismas cookies a su
el navegador enviaría en la misma situación. Diferentes navegadores mantienen cookies textuales
archivos en diferentes ubicaciones:

"Netscape 4.x."
Las cookies están en ~ / .netscape / cookies.txt.

"Mozilla y Netscape 6.x."
El archivo de cookies de Mozilla también se denomina cookies.txt, ubicado en algún lugar debajo
~ / .mozilla, en el directorio de su perfil. El camino completo generalmente termina
luciendo algo así como ~ / .mozilla / default / some-weird-string / cookies.txt.

"Explorador de Internet."
Puede producir un archivo de cookies que Wget puede usar usando el menú Archivo, Importar y
Exportar, exportar cookies. Esto se ha probado con Internet Explorer 5; No lo es
garantizado para trabajar con versiones anteriores.

"Otros navegadores."
Si está utilizando un navegador diferente para crear sus cookies, --cargar-cookies seguirá
sólo funciona si puede localizar o producir un archivo de cookies en el formato Netscape que
Wget espera.

Si no puede usar --cargar-cookies, todavía podría haber una alternativa. Si tu
navegador admite un "administrador de cookies", puede utilizarlo para ver las cookies utilizadas cuando
acceder al sitio que está duplicando. Anote el nombre y el valor de la cookie y
Indique manualmente a Wget que envíe esas cookies, sin pasar por el soporte de cookies "oficial":

wget --no-cookies --header "Cookie: = "

- guardar-cookies presentar
Guardar cookies en presentar antes de salir. Esto no guardará las cookies que hayan caducado o
que no tienen fecha de caducidad (las llamadas "cookies de sesión"), pero también ven
--mantener-sesión-cookies.

--mantener-sesión-cookies
Cuando se especifica, las causas - guardar-cookies para guardar también las cookies de sesión. Cookies de sesión
normalmente no se guardan porque deben guardarse en la memoria y olvidarse cuando
sale del navegador. Guardarlos es útil en sitios que requieren que inicie sesión o que
visite la página de inicio antes de poder acceder a algunas páginas. Con esta opción, múltiples Wget
las ejecuciones se consideran una única sesión de navegador en lo que respecta al sitio.

Dado que el formato de archivo de cookies normalmente no contiene cookies de sesión, Wget las marca
con una marca de tiempo de vencimiento de 0. Wget's --cargar-cookies reconoce esos como sesión
cookies, pero puede confundir a otros navegadores. También tenga en cuenta que las cookies tan cargadas
ser tratadas como otras cookies de sesión, lo que significa que si lo desea - guardar-cookies a
conservarlos de nuevo, debe utilizar --mantener-sesión-cookies de nuevo.

- ignorar-longitud
Desafortunadamente, algunos servidores HTTP (programas CGI, para ser más precisos) envían mensajes falsos.
Encabezados "Content-Length", lo que hace que Wget se vuelva loco, ya que cree que no todo el documento
fue recuperado. Puede detectar este síndrome si Wget vuelve a intentar obtener el mismo documento
una y otra vez, cada vez afirmando que la conexión (por lo demás normal) se ha cerrado
en el mismo byte.

Con esta opción, Wget ignorará el encabezado "Content-Length" --- como si nunca
existió.

--header =línea de cabecera
Enviar línea de cabecera junto con el resto de los encabezados de cada solicitud HTTP. los
El encabezado proporcionado se envía tal cual, lo que significa que debe contener el nombre y el valor separados por
dos puntos y no debe contener nuevas líneas.

Puede definir más de un encabezado adicional especificando --encabezamiento mas de una vez.

wget --header = 'Aceptar conjunto de caracteres: iso-8859-2' \
--header = 'Aceptar-Idioma: hr' \
http://fly.srk.fer.hr/

La especificación de una cadena vacía como valor del encabezado borrará todos los usuarios anteriores
encabezados definidos.

A partir de Wget 1.10, esta opción se puede utilizar para anular los encabezados generados de otro modo
automáticamente. Este ejemplo indica a Wget que se conecte a localhost, pero que especifique
foo.bar en el encabezado "Host":

wget --header = "Host: foo.bar" http://localhost/

En versiones de Wget anteriores a la 1.10, dicho uso de --encabezamiento provocó el envío de duplicados
encabezados.

--max-redirect =número
Especifica el número máximo de redirecciones a seguir para un recurso. El valor predeterminado es
20, que suele ser mucho más de lo necesario. Sin embargo, en aquellas ocasiones en las que
desea permitir más (o menos), esta es la opción a utilizar.

--proxy-user =usuario
--proxy-contraseña =la contraseña
Especifique el nombre de usuario usuario y la contraseña la contraseña para la autenticación en un servidor proxy.
Wget los codificará utilizando el esquema de autenticación "básico".

Consideraciones de seguridad similares a las de --http-contraseña pertenecen aquí también.

--referer =url
Incluya `Referer: url'encabezado en la solicitud HTTP. Útil para recuperar documentos con
procesamiento del lado del servidor que asume que siempre están siendo recuperados por web interactiva
navegadores y solo aparecen correctamente cuando Referer está configurado en una de las páginas que apuntan
a ellos.

--guardar-encabezados
Guarde los encabezados enviados por el servidor HTTP en el archivo, antes del contenido real,
con una línea vacía como separador.

-U agente-cadena
--user-agent =agente-cadena
Identificarse como agente-cadena al servidor HTTP.

El protocolo HTTP permite a los clientes identificarse mediante un "Agente de usuario"
campo de encabezado. Esto permite distinguir el software WWW, generalmente para fines estadísticos.
propósitos o para rastrear violaciones del protocolo. Wget normalmente se identifica como
Wget /versión, versión siendo el número de versión actual de Wget.

Sin embargo, se sabe que algunos sitios imponen la política de adaptar la salida
de acuerdo con la información proporcionada por el "Agente de usuario". Si bien esto no es tan mala idea
en teoría, ha sido abusado por servidores que niegan información a clientes que no sean
(históricamente) Netscape o, más frecuentemente, Microsoft Internet Explorer. Esta opción
le permite cambiar la línea "User-Agent" emitida por Wget. El uso de esta opción es
desanimado, a menos que realmente sepa lo que está haciendo.

Especificando un agente de usuario vacío con --user-agent = "" le indica a Wget que no envíe el
Encabezado "User-Agent" en solicitudes HTTP.

--post-data =cadena
--post-file =presentar
Utilice POST como método para todas las solicitudes HTTP y envíe los datos especificados en el
cuerpo de la solicitud. --post-datos envía cadena como datos, mientras que --post-archivo envía el
contenido de presentar. Aparte de eso, funcionan exactamente de la misma manera. En particular,
ellos ambas esperar contenido de la forma "clave1 = valor1 & clave2 = valor2", con codificación porcentual
para caracteres especiales; la única diferencia es que uno espera su contenido como un
parámetro de línea de comandos y el otro acepta su contenido de un archivo. En particular,
--post-archivo is no para transmitir archivos como archivos adjuntos de formularios: deben aparecer como
datos "clave = valor" (con la codificación de porcentaje adecuada) como todo lo demás. Wget
actualmente no es compatible con "multipart / form-data" para transmitir datos POST; solamente
"aplicación / x-www-form-urlencoded". Solo uno de --post-datos y --post-archivo debiera ser
especificado.

Tenga en cuenta que wget no requiere que el contenido tenga el formato
"key1 = value1 & key2 = value2", y tampoco lo prueba. Wget simplemente transmitirá
cualquier dato que se le proporcione. Sin embargo, la mayoría de los servidores esperan que los datos POST estén en
el formato anterior al procesar formularios HTML.

Al enviar una solicitud POST utilizando el --post-archivo opción, Wget trata el archivo como una
archivo binario y enviará todos los caracteres en la solicitud POST sin eliminar
caracteres de nueva línea o de avance de formulario al final. Cualquier otro carácter de control en el texto
también se enviará tal cual en la solicitud POST.

Tenga en cuenta que Wget necesita conocer el tamaño de los datos POST de antemano.
Por lo tanto, el argumento de "--post-file" debe ser un archivo normal; especificando un FIFO o
algo como / dev / stdin no funcionará. No está muy claro cómo solucionar este problema.
limitación inherente a HTTP / 1.0. Aunque HTTP / 1.1 introduce troceado transferir eso
no requiere conocer la longitud de la solicitud de antemano, un cliente no puede usar fragmentado
a menos que sepa que está hablando con un servidor HTTP / 1.1. Y no puede saber eso hasta que
recibe una respuesta, que a su vez requiere que la solicitud se haya completado, una
problema del huevo y la gallina.

Nota: A partir de la versión 1.15, si Wget se redirige después de que se completa la solicitud POST,
su comportamiento dependerá del código de respuesta devuelto por el servidor. En caso de
301 movido permanentemente, 302 movido temporalmente o 307 redireccionamiento temporal, Wget lo hará, en
de acuerdo con RFC2616, continúe enviando una solicitud POST. En caso de que un servidor quiera el
cliente para cambiar el método de solicitud en la redirección, debe enviar un 303 Ver otro
código de respuesta.

Este ejemplo muestra cómo iniciar sesión en un servidor mediante POST y luego proceder a la descarga.
las páginas deseadas, presumiblemente solo accesibles para usuarios autorizados:

# Inicie sesión en el servidor. Esto solo se puede hacer una vez.
wget --save-cookies cookies.txt \
--post-data 'usuario = foo & contraseña = bar' \
http://server.com/auth.php

# Ahora tome la página o páginas que nos interesan.
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php

Si el servidor está utilizando cookies de sesión para rastrear la autenticación del usuario, lo anterior
no funciona porque - guardar-cookies no los guardará (y tampoco los navegadores) y el
cookies.txt el archivo estará vacío. En ese caso use --mantener-sesión-cookies para cada año fiscal junto con la
- guardar-cookies para forzar el guardado de cookies de sesión.

--method =Método HTTP
Para el propósito de scripting RESTful, Wget permite el envío de otros métodos HTTP
sin la necesidad de establecerlos explícitamente usando --header = Línea de encabezado. Wget usará
cualquier cadena que se le pase después --método como el método HTTP al servidor.

--body-data =Cadena de datos
--body-file =Archivo de datos
Debe configurarse cuando sea necesario enviar datos adicionales al servidor junto con el método
especificado usando --método. - datos corporales envía cadena como datos, mientras que - archivo de cuerpo envía
los contenidos de presentar. Aparte de eso, funcionan exactamente de la misma manera.

Actualmente, - archivo de cuerpo is no para transmitir archivos en su conjunto. Wget no
actualmente soporta "multipart / form-data" para transmitir datos; solamente
"aplicación / x-www-form-urlencoded". En el futuro, esto puede cambiarse para que wget
envía el - archivo de cuerpo como un archivo completo en lugar de enviar su contenido al
servidor. Tenga en cuenta que Wget necesita conocer el contenido de BODY Data de antemano,
y de ahí el argumento para - archivo de cuerpo debe ser un archivo normal. Ver --post-archivo para agendar una
explicación más detallada. Solo uno de - datos corporales y - archivo de cuerpo debiera ser
especificado.

Si Wget se redirige después de que se completa la solicitud, Wget suspenderá el actual
y envíe una solicitud GET hasta que se complete la redirección. Esto es cierto para todos
Códigos de respuesta de redireccionamiento, excepto el redireccionamiento temporal 307, que se utiliza para explícitamente
especificar que el método de solicitud debe no cambio. Otra excepción es cuando el
El método se establece en "POST", en cuyo caso las reglas de redirección especificadas en
--post-datos son seguidos.

--contenido-disposición
Si está activado, el soporte experimental (no completamente funcional) para
Los encabezados "Content-Disposition" están habilitados. Actualmente, esto puede resultar en una ronda adicional
viajes al servidor para una solicitud "HEAD", y se sabe que sufre algunos errores,
razón por la cual actualmente no está habilitado de forma predeterminada.

Esta opción es útil para algunos programas CGI de descarga de archivos que utilizan
Encabezados "Content-Disposition" para describir cuál debe ser el nombre de un archivo descargado
ser.

--contenido en caso de error
Si está activado, wget no omitirá el contenido cuando el servidor responda con un
código de estado http que indica error.

--confianza-nombres-servidor
Si está activado, en un redireccionamiento, el último componente de la URL de redireccionamiento será
utilizado como nombre de archivo local. Por defecto se utiliza el último componente del original.
URL.

--autorización sin desafío
Si se da esta opción, Wget enviará información de autenticación HTTP básica
(nombre de usuario y contraseña en texto plano) para todas las solicitudes, al igual que Wget 1.10.2 y anteriores
lo hizo por defecto.

No se recomienda el uso de esta opción y solo está destinada a admitir algunos
servidores oscuros, que nunca envían desafíos de autenticación HTTP, pero aceptan
información de autenticación no solicitada, por ejemplo, además de la autenticación basada en formularios.

HTTPS (SSL / TLS) Opciones
Para admitir descargas HTTP cifradas (HTTPS), Wget debe compilarse con un SSL externo
Biblioteca. El valor predeterminado actual es GnuTLS. Además, Wget también es compatible con HSTS (HTTP Strict
Seguridad del transporte). Si Wget se compila sin soporte SSL, ninguna de estas opciones es
para todos.

--secure-protocol =protocolo
Elija el protocolo seguro que se utilizará. Los valores legales son auto, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 y PFS. Si auto se utiliza, la biblioteca SSL tiene la libertad de
elegir el protocolo apropiado automáticamente, lo cual se logra enviando un TLSv1
saludo. Este es el predeterminado.

Especificación SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 obliga al uso de la correspondiente
protocolo. Esto es útil cuando se habla de implementaciones de servidor SSL antiguas y con errores.
que dificultan que la biblioteca SSL subyacente elija el protocolo correcto
versión. Afortunadamente, estos servidores son bastante raros.

Especificación PFS impone el uso del cifrado denominado Perfect Forward Security
suites. En resumen, PFS agrega seguridad al crear una clave única para cada SSL
conexión. Tiene un poco más de impacto de CPU en el cliente y el servidor. Usamos conocido por ser
cifrados seguros (por ejemplo, sin MD4) y ​​el protocolo TLS.

--https-solo
Cuando está en modo recursivo, solo se siguen los enlaces HTTPS.

- certificado sin verificación
No compruebe el certificado del servidor con las autoridades de certificación disponibles.
Tampoco requiera que el nombre de host de la URL coincida con el nombre común presentado por el
certificado.

A partir de Wget 1.10, el valor predeterminado es verificar el certificado del servidor con el
autoridades certificadoras reconocidas, rompiendo el protocolo de enlace SSL y abortando la
descargar si la verificación falla. Aunque esto proporciona descargas más seguras,
rompe la interoperabilidad con algunos sitios que funcionaban con versiones anteriores de Wget,
particularmente aquellos que utilizan certificados autofirmados, caducados o no válidos.
Esta opción fuerza un modo de operación "inseguro" que convierte el certificado
errores de verificación en advertencias y le permite continuar.

Si encuentra errores de "verificación de certificado" o que digan que "nombre común
no coincide con el nombre de host solicitado ", puede utilizar esta opción para omitir la verificación
y continúe con la descarga. Solo utilizan el así opción if Usted están de otra manera convencido of
las del sitio autenticidad, or if Usted realmente Rechazar servicios sociales Sobre Nosotros las validez of su
certificado. Casi siempre es una mala idea no verificar los certificados cuando
transmitir datos confidenciales o importantes. Para certificados autofirmados / internos,
debe descargar el certificado y verificarlo en lugar de forzar esto
modo inseguro. Si está realmente seguro de no desear ninguna verificación de certificado,
puede especificar --check-certificate = quiet para decirle a wget que no imprima ninguna advertencia sobre
certificados no válidos, aunque en la mayoría de los casos esto es lo incorrecto.

--certificate =presentar
Utilice el certificado de cliente almacenado en presentar. Esto es necesario para servidores que son
configurado para requerir certificados de los clientes que se conectan a ellos. Normalmente un
no se requiere certificado y este conmutador es opcional.

--certificate-type =tipo
Especifique el tipo de certificado de cliente. Los valores legales son PEM (asumido por defecto)
y DER, también conocido como ASN1.

--private-key =presentar
Leer la clave privada de presentar. Esto le permite proporcionar la clave privada en un archivo.
separado del certificado.

--private-key-type =tipo
Especifique el tipo de clave privada. Los valores aceptados son PEM (el predeterminado) y DER.

--ca-certificado =presentar
Uso presentar como el archivo con el paquete de autoridades de certificación ("CA") para verificar el
compañeros. Los certificados deben estar en formato PEM.

Sin esta opción, Wget busca certificados de CA en las ubicaciones especificadas por el sistema,
elegido en el momento de la instalación de OpenSSL.

--ca-directorio =directorio
Especifica el directorio que contiene los certificados de CA en formato PEM. Cada archivo contiene uno
Certificado de CA, y el nombre del archivo se basa en un valor hash derivado de la
certificado. Esto se logra procesando un directorio de certificados con el
Utilidad "c_rehash" suministrada con OpenSSL. Utilizando --ca-directorio es más eficiente que
--ca-certificado cuando se instalan muchos certificados porque permite a Wget recuperar
Certificados bajo demanda.

Sin esta opción, Wget busca certificados de CA en las ubicaciones especificadas por el sistema,
elegido en el momento de la instalación de OpenSSL.

--crl-file =presentar
Especifica un archivo CRL en presentar. Esto es necesario para los certificados que se han
revocado por las AC.

- archivo-aleatorio =presentar
[Solo OpenSSL y LibreSSL] Utilizar presentar como fuente de datos aleatorios para sembrar
generador de números pseudoaleatorios en sistemas sin / Dev / urandom.

En tales sistemas, la biblioteca SSL necesita una fuente externa de aleatoriedad para inicializarse.
La aleatoriedad puede ser proporcionada por EGD (ver --archivo egd a continuación) o leer desde un
fuente especificada por el usuario. Si no se especifica esta opción, Wget busca aleatorio
datos en $ RANDFILE o, si no está configurado, en $ INICIO / .rnd.

Si recibe el mensaje "No se pudo inicializar OpenSSL PRNG; deshabilitar SSL". error, deberías
proporcionar datos aleatorios utilizando algunos de los métodos descritos anteriormente.

--egd-file =presentar
[Solo OpenSSL] Utilizar presentar como la toma EGD. EGD significa Entropía Reunión demonio,
programa de espacio de usuario que recopila datos de varias fuentes de sistema impredecibles y
lo pone a disposición de otros programas que puedan necesitarlo. Software de cifrado, como
la biblioteca SSL, necesita fuentes de aleatoriedad no repetida para generar el número aleatorio
generador utilizado para producir claves criptográficamente seguras.

OpenSSL permite al usuario especificar su propia fuente de entropía usando el "RAND_FILE"
Variable ambiental. Si esta variable no está establecida, o si el archivo especificado no
producir suficiente aleatoriedad, OpenSSL leerá datos aleatorios del socket EGD especificado
usando esta opción.

Si no se especifica esta opción (y no se utiliza el comando de inicio equivalente), EGD
nunca se contacta. EGD no es necesario en los sistemas Unix modernos que admiten
/ Dev / urandom.

--no-horas
Wget admite HSTS (HTTP Strict Transport Security, RFC 6797) de forma predeterminada. Usar
--no-horas para que Wget actúe como un UA no compatible con HSTS. Como consecuencia, Wget
ignorar todos los encabezados "Strict-Transport-Security", y no aplicaría ningún
Política de HSTS.

--hsts-file =presentar
De forma predeterminada, Wget almacena su base de datos HSTS en ~ / .wget-hsts. Usted puede utilizar --archivo-hsts a
anular esto. Wget utilizará el archivo suministrado como base de datos HSTS. Dicho archivo debe
se ajustan al formato de base de datos HSTS correcto utilizado por Wget. Si Wget no puede analizar el
archivo proporcionado, el comportamiento no está especificado.

La base de datos HSTS de Wget es un archivo de texto sin formato. Cada línea contiene una entrada HSTS (es decir, una
sitio que ha emitido un encabezado "Strict-Transport-Security" y que, por lo tanto, ha
especificó una política concreta de HSTS que se aplicará). Las líneas que comienzan con un guión ("#") son
ignorado por Wget. Tenga en cuenta que, a pesar de esta conveniente capacidad de lectura humana,
piratear la base de datos HSTS generalmente no es una buena idea.

Una línea de entrada HSTS consta de varios campos separados por uno o más espacios en blanco:

" SP [ ] SP SP SP "

La hostname y Puerto Los campos indican el nombre de host y el puerto al que el HSTS dado
se aplica la política. los Puerto El campo puede ser cero, y lo será en la mayoría de los casos. Ese
significa que el número de puerto no se tendrá en cuenta al decidir si tal
La política HSTS debe aplicarse a una solicitud determinada (solo se incluirá el nombre de host
evaluado). Cuando Puerto es diferente a cero, tanto el nombre de host de destino como el puerto
se evaluará y la política HSTS solo se aplicará si ambos coinciden. Esta
La función se ha incluido solo con fines de prueba / desarrollo. El testuite de Wget
(en testenv /) crea bases de datos HSTS con puertos explícitos con el fin de garantizar
El comportamiento correcto de Wget. Aplicar políticas HSTS a puertos distintos a los predeterminados
RFC 6797 lo desaconseja (consulte el Apéndice B "Diferencias entre la política HSTS y la misma
Política de origen "). Por lo tanto, esta funcionalidad no debe utilizarse en producción
entornos y Puerto normalmente será cero. Los últimos tres campos hacen lo que son
esperaba que. El campo incluir_subdominios puede ser 1 o 0 y señala si
los subdominios del dominio de destino también deben ser parte de la política HSTS dada.
La creado y edad máxima Los campos contienen los valores de la marca de tiempo de cuando dicha entrada fue
creado (visto por primera vez por Wget) y el valor definido por HSTS 'max-age', que establece cómo
mucho tiempo si esa política HSTS permanece activa, medida en segundos transcurridos desde la
marca de tiempo almacenada en creado. Una vez que haya pasado ese tiempo, esa política de HSTS no
ya sea válido y eventualmente será eliminado de la base de datos.

Si proporciona su propia base de datos HSTS a través de --archivo-hsts, tenga en cuenta que Wget puede modificar
el archivo proporcionado si se produce algún cambio entre las políticas HSTS solicitadas por el
servidores remotos y los del archivo. Cuando Wget existe, actualiza eficazmente el
Base de datos HSTS reescribiendo el archivo de la base de datos con las nuevas entradas.

Si el archivo proporcionado no existe, Wget creará uno. Este archivo contendrá el
nuevas entradas HSTS. Si no se generaron entradas HSTS (no "Seguridad de transporte estricta"
los encabezados fueron enviados por cualquiera de los servidores), entonces no se creará ningún archivo, ni siquiera un
uno vacío. Este comportamiento se aplica al archivo de base de datos predeterminado (~ / .wget-hsts) también:
no se creará hasta que algún servidor aplique una política HSTS.

Se tiene cuidado de no anular los posibles cambios realizados por otros procesos de Wget en el
mismo tiempo sobre la base de datos HSTS. Antes de descargar las entradas HSTS actualizadas en el archivo,
Wget lo volverá a leer y fusionará los cambios.

Se desaconseja utilizar una base de datos HSTS personalizada y / o modificar una existente. Para
Para obtener más información sobre las posibles amenazas a la seguridad derivadas de dicha práctica, consulte
sección 14 "Consideraciones de seguridad" de RFC 6797, especialmente la sección 14.9 "Creatividad
Manipulación del almacén de políticas HSTS ".

- archivo-warc =presentar
Uso presentar como archivo WARC de destino.

--warc-header =cadena
Uso cadena en como el registro de warcinfo.

--warc-max-size =tamaño
Establezca el tamaño máximo de los archivos WARC en tamaño.

--warc-cdx
Escribe archivos de índice CDX.

--warc-dedup =presentar
No almacene los registros enumerados en este archivo CDX.

--no-warc-compresión
No comprima archivos WARC con GZIP.

--no-warc-resúmenes
No calcule resúmenes de SHA1.

--no-warc-mantener-registro
No almacene el archivo de registro en un registro WARC.

--warc-tempdir =dir
Especifique la ubicación de los archivos temporales creados por el escritor WARC.

FTP Opciones
--ftp-usuario =usuario
--ftp-contraseña =la contraseña
Especifique el nombre de usuario usuario y la contraseña la contraseña en un servidor FTP. Sin esto, o
la opción de inicio correspondiente, la contraseña predeterminada es -wget @, normalmente utilizado para
FTP anónimo.

Otra forma de especificar el nombre de usuario y la contraseña es en la propia URL. Cualquiera de los métodos
revela su contraseña a cualquiera que se moleste en ejecutar "ps". Para evitar las contraseñas
de ser visto, guárdelos en .wgetrc or .netrcy asegúrese de proteger esos archivos
de otros usuarios con "chmod". Si las contraseñas son realmente importantes, no las deje
ya sea en esos archivos --- edite los archivos y elimínelos después de que Wget haya
inició la descarga.

--no-eliminar-listado
No elimines el temporal .listado archivos generados por recuperaciones de FTP. Normalmente,
estos archivos contienen los listados de directorios sin procesar recibidos de los servidores FTP. No
eliminarlos puede resultar útil para depurar errores o cuando desee
comprobar fácilmente el contenido de los directorios del servidor remoto (por ejemplo, para verificar que un
espejo que está ejecutando está completo).

Tenga en cuenta que aunque Wget escribe en un nombre de archivo conocido para este archivo, este no es un
agujero de seguridad en el escenario de un usuario haciendo .listado un enlace simbólico a / Etc / passwd
o algo y pidiendo a "root" que ejecute Wget en su directorio. Dependiendo de
opciones utilizadas, Wget se negará a escribir .listado, haciendo el
la operación de globbing / recursividad / sellado de tiempo falla, o el enlace simbólico se eliminará
y reemplazado con el actual .listado archivo, o la lista se escribirá en un
.número.de.listado archivo.

Aunque esta situación no es un problema, "root" nunca debería ejecutar Wget en un
directorio de usuarios no confiables. Un usuario puede hacer algo tan simple como vincular
index.html a / Etc / passwd y pedirle a "root" que ejecute Wget con -N or -r entonces el archivo lo hará
ser sobrescrito.

--no glob
Desactive la función global de FTP. Globbing se refiere al uso de caracteres especiales con forma de concha.
(comodines), me gusta *, ?, [ y ] para recuperar más de un archivo del mismo directorio
a la vez, como:

wget ftp://gnjilux.srk.fer.hr/* .msg

De forma predeterminada, el globbing se activará si la URL contiene un carácter globbing. Esta
La opción se puede utilizar para activar o desactivar el globbing de forma permanente.

Puede que tenga que citar la URL para evitar que su shell la expanda.
Globbing hace que Wget busque una lista de directorios, que es específica del sistema. Esto es
por qué actualmente solo funciona con servidores FTP de Unix (y los que emulan "ls" de Unix
producción).

--no-pasivo-ftp
Desactive el uso del pasivo Modo de transferencia FTP. FTP pasivo exige que el
el cliente se conecta al servidor para establecer la conexión de datos en lugar de la otra
camino alrededor.

Si la máquina está conectada a Internet directamente, FTP pasivo y activo
debería funcionar igualmente bien. Detrás de la mayoría de las configuraciones de firewall y NAT, el FTP pasivo
una mejor oportunidad de trabajar. Sin embargo, en algunas configuraciones de firewall raras, FTP activo
en realidad funciona cuando el FTP pasivo no lo hace. Si sospecha que este es el caso, use este
opción, o establezca "passive_ftp = off" en su archivo de inicio.

--preservar-permisos
Conserve los permisos de archivos remotos en lugar de los permisos establecidos por umask.

--retr-enlaces simbólicos
De forma predeterminada, cuando se recuperan directorios FTP de forma recursiva y se muestra un enlace simbólico
encontrado, se atraviesa el enlace simbólico y se recuperan los archivos apuntados.
Actualmente, Wget no atraviesa enlaces simbólicos a directorios para descargarlos.
de forma recursiva, aunque esta función puede agregarse en el futuro.

Cuándo --retr-symlinks = no se especifica, el archivo vinculado no se descarga. En lugar de,
se crea un enlace simbólico coincidente en el sistema de archivos local. La lima apuntada
no se recuperará a menos que esta recuperación recursiva lo haya encontrado por separado
y lo descargué de todos modos. Esta opción presenta un riesgo de seguridad cuando un FTP malicioso
El servidor puede hacer que Wget escriba en archivos fuera de los directorios previstos a través de un
archivo .LISTING especialmente diseñado.

Tenga en cuenta que al recuperar un archivo (no un directorio) porque se especificó en el
línea de comandos, en lugar de porque se haya recurrido a ella, esta opción no tiene ningún efecto.
En este caso, los enlaces simbólicos siempre se atraviesan.

FTPS Opciones
--ftps-implícito
Esta opción le dice a Wget que use FTPS implícitamente. FTPS implícito consiste en inicializar
SSL / TLS desde el principio de la conexión de control. Esta opción no envía
un comando "AUTH TLS": asume que el servidor habla FTPS e inicia directamente un
Conexión SSL / TLS. Si el intento tiene éxito, la sesión continúa como
FTPS regular (se envían "PBSZ" y "PROT", etc.). FTPS implícito ya no es un
requisito para las implementaciones de FTPS y, por lo tanto, es posible que muchos servidores no lo admitan. Si
--ftps-implícito se pasa y no se especifica un número de puerto explícito, el puerto predeterminado para
Se utilizará FTPS implícito, 990, en lugar del puerto predeterminado para el "normal"
(explícito) FTPS que es el mismo que el de FTP, 21.

--no-ftps-resume-ssl
No reanude la sesión SSL / TLS en el canal de datos. Al iniciar un dato
conexión, Wget intenta reanudar la sesión SSL / TLS iniciada previamente en el control
conexión. La reanudación de la sesión SSL / TLS evita realizar un protocolo de enlace completamente nuevo al
reutilizando los parámetros SSL / TLS de una sesión anterior. Normalmente, los servidores FTPS quieren
de esa manera, por lo que Wget lo hace de forma predeterminada. Sin embargo, en raras circunstancias, uno podría
desea iniciar una sesión SSL / TLS completamente nueva en cada conexión de datos. Esto es lo que
--no-ftps-resume-ssl es para.

--ftps-borrar-conexión-de-datos
Todas las conexiones de datos estarán en texto sin formato. Solo la conexión de control será
bajo SSL / TLS. Wget enviará un comando "PROT C" para lograr esto, que debe ser
aprobado por el servidor.

--ftps-fallback-a-ftp
Recurra a FTP si FTPS no es compatible con el servidor de destino. Por razones de seguridad,
esta opción no está activada por defecto. El comportamiento predeterminado es salir con un
error. Si un servidor no responde correctamente al comando "AUTH TLS" inicial, o
en el caso de FTPS implícito, si se rechaza el intento de conexión SSL / TLS inicial,
se considera que dicho servidor no es compatible con FTPS.

recursiva Recuperación Opciones
-r
--recursivo
Active la recuperación recursiva. La profundidad máxima predeterminada es 5.

-l profundidad
--level =profundidad
Especificar el nivel de profundidad máximo de recursividad profundidad.

--eliminar-después
Esta opción le dice a Wget que elimine todos los archivos que descarga, después de habiendo hecho eso.
Es útil para precargar páginas populares a través de un proxy, por ejemplo:

wget -r -nd --delete-después http://whatever.com/~popular/page/

La -r La opción es recuperar de forma recursiva y -Dakota del Norte no crear directorios.

Tenga en cuenta que --eliminar-después elimina archivos en la máquina local. No emite el
DELE comando a sitios FTP remotos, por ejemplo. También tenga en cuenta que cuando --eliminar-después is
especificado, --convertir-enlaces es ignorado, entonces .orig los archivos simplemente no se crean en el
primer lugar.

-k
--convertir-enlaces
Una vez completada la descarga, convierta los enlaces del documento para convertirlos
Apto para visualización local. Esto afecta no solo a los hipervínculos visibles, sino a cualquier
parte del documento que enlaza con contenido externo, como imágenes incrustadas, enlaces a
hojas de estilo, hipervínculos a contenido no HTML, etc.

Cada enlace se cambiará de una de las dos formas siguientes:

· Los enlaces a los archivos que Wget ha descargado se cambiarán para hacer referencia a
el archivo al que apuntan como un enlace relativo.

Ejemplo: si el archivo descargado /foo/doc.html enlaces a /bar/img.gif, Por lo tanto
descargado, luego el enlace en doc.html será modificado para apuntar a ../bar/img.gif.
Este tipo de transformación funciona de manera confiable para combinaciones arbitrarias de
directorios.

· Los enlaces a archivos que no han sido descargados por Wget se cambiarán a
incluir el nombre de host y la ruta absoluta de la ubicación a la que apuntan.

Ejemplo: si el archivo descargado /foo/doc.html enlaces a /bar/img.gif (o para
../bar/img.gif), luego el enlace en doc.html será modificado para apuntar a
http://hostname/bar/img.gif.

Debido a esto, la navegación local funciona de manera confiable: si se descargó un archivo vinculado, el
el enlace hará referencia a su nombre local; si no se descargó, el enlace hará referencia a
su dirección de Internet completa en lugar de presentar un enlace roto. El hecho de que el
Los enlaces anteriores se convierten en enlaces relativos, lo que garantiza que pueda mover el archivo descargado.
jerarquía a otro directorio.

Tenga en cuenta que solo al final de la descarga, Wget puede saber qué enlaces se han
descargado. Por eso, el trabajo realizado por -k se realizará al final de todo
las descargas.

--convertir-archivo-solo
Esta opción convierte solo la parte del nombre de archivo de las URL, dejando el resto de las URL
intacto. Esta parte del nombre de archivo a veces se denomina "nombre base", aunque
evite ese término aquí para no causar confusión.

Funciona particularmente bien junto con --ajustar-extensión, aunque esto
el acoplamiento no se aplica. Resulta útil para llenar los cachés de Internet con archivos.
descargado de diferentes hosts.

Ejemplo: si algún enlace apunta a //foo.com/bar.cgi?xyz --ajustar-extensión afirmado
y su destino local está destinado a ser ./foo.com/bar.cgi?xyz.css, luego el enlace
se convertiría en //foo.com/bar.cgi?xyz.css. Tenga en cuenta que solo la parte del nombre de archivo tiene
ha sido modificado. El resto de la URL no se ha modificado, incluida la ruta de red.
("//") que de otro modo sería procesado por Wget y convertido al efectivo
esquema (es decir, "http: //").

-K
--convertido en copia de seguridad
Al convertir un archivo, haga una copia de seguridad de la versión original con un .orig sufijo. Afecta el
comportamiento de -N.

-m
--espejo
Active las opciones adecuadas para la creación de reflejos. Esta opción activa la recursividad y el tiempo
estampado, establece una profundidad de recursividad infinita y mantiene listados de directorios FTP. Está
actualmente equivalente a -r -N -l inf --no-eliminar-listado.

-p
--requisitos de página
Esta opción hace que Wget descargue todos los archivos necesarios para
mostrar una página HTML determinada. Esto incluye cosas como imágenes en línea, sonidos y
hojas de estilo referenciadas.

Por lo general, al descargar una sola página HTML, cualquier documento necesario que pueda
necesarios para mostrarlo correctamente no se descargan. Utilizando -r Junto con -l poder ayudar,
pero dado que Wget normalmente no distingue entre documentos externos e insertados,
uno se queda generalmente con "documentos hoja" que no cumplen con sus requisitos.

Por ejemplo, diga documento 1.html contiene un " "etiqueta de referencia 1.gif y una
etiqueta " " que apunta a un documento externo 2.html. Dilo 2.html es similar pero eso
su imagen es 2.gif y se vincula a 3.html. Digamos que esto continúa hasta algunos arbitrariamente
Número alto.

Si uno ejecuta el comando:

wget -r -l 2 http: // /1.html

luego 1.html, 1.gif, 2.html, 2.gify 3.html será descargado. Como puedes ver,
3.html es sin su requisito 3.gif porque Wget simplemente está contando el número de
saltos (hasta 2) lejos de 1.html para determinar dónde detener la recursividad.
Sin embargo, con este comando:

wget -r -l 2 -p http: // /1.html

todos los archivos anteriores y 3.htmles requisito 3.gif será descargado. Similar,

wget -r -l 1 -p http: // /1.html

causará 1.html, 1.gif, 2.htmly 2.gif para ser descargado. Uno podría pensar que:

wget -r -l 0 -p http: // /1.html

descargaría solo 1.html y 1.gif, pero desafortunadamente este no es el caso, porque
-l 0 es equivalente a -l inf--- es decir, recursividad infinita. Para descargar un solo HTML
página (o un puñado de ellos, todos especificados en la línea de comandos o en un -i Entrada de URL
archivo) y sus (o sus) requisitos, simplemente deje -r y -l:

wget -p http: // /1.html

Tenga en cuenta que Wget se comportará como si -r se había especificado, pero sólo esa única página y
se descargarán sus requisitos. Los enlaces de esa página a documentos externos
no ser seguido. En realidad, para descargar una sola página y todos sus requisitos (aunque
existen en sitios web separados), y asegúrese de que el lote se muestre correctamente a nivel local,
a este autor le gusta usar algunas opciones además de -p:

wget -E -H -k -K -p http: // /

Para finalizar este tema, conviene saber que la idea de Wget de un documento externo
enlace es cualquier URL especificada en una " " etiqueta, una " "etiqueta o una" "etiquetar a otro
que " ".

- comentarios-estrictos
Active el análisis estricto de comentarios HTML. El valor predeterminado es terminar los comentarios en el
primera aparición de ->.

Según las especificaciones, los comentarios HTML se expresan como SGML declaraciones.
La declaración es un marcado especial que comienza con <! y termina con >, Tales como <!TIPO DE DOCTO
...>, que puede contener comentarios entre un par de -- delimitadores. Los comentarios HTML son
"declaraciones vacías", declaraciones SGML sin ningún texto sin comentarios. Por lo tanto,
es un comentario válido, y también lo es <!--uno-- --dos ->, pero no es.

Por otro lado, la mayoría de los escritores de HTML no perciben los comentarios como algo más que
texto delimitado con <!-- y ->, que no es exactamente lo mismo. Por ejemplo, algo
como funciona como un comentario válido siempre que el número de guiones sea un
múltiplo de cuatro (!). Si no, el comentario técnicamente dura hasta el próximo --, cual
puede estar en el otro extremo del documento. Debido a esto, muchos navegadores populares
ignore completamente la especificación e implemente lo que los usuarios esperan:
comentarios delimitados con <!-- y ->.

Hasta la versión 1.9, Wget interpretó los comentarios estrictamente, lo que resultó en enlaces faltantes
en muchas páginas web que se mostraban bien en los navegadores, pero tenían la desgracia de
que contiene comentarios que no cumplen. A partir de la versión 1.9, Wget se ha unido al
rangos de clientes que implementan comentarios "ingenuos", terminando cada comentario en el
primera aparición de ->.

Si, por cualquier motivo, desea un análisis estricto de comentarios, use esta opción para convertirlo
en.

recursiva Aceptar rechazar Opciones
-A aclista --aceptar aclista
-R lista de reserva --rechazar lista de reserva
Especifique listas separadas por comas de sufijos o patrones de nombres de archivo para aceptar o rechazar.
Tenga en cuenta que si alguno de los caracteres comodín, *, ?, [ or ], aparecen en un elemento de
aclista or lista de reserva, se tratará como un patrón, en lugar de un sufijo. En esto
caso, debe encerrar el patrón entre comillas para evitar que su shell se expanda
eso, como en -A "* .mp3" or -A '* .mp3'.

--aceptar-regex URLregex
--rechazo-expresión regular URLregex
Especifique una expresión regular para aceptar o rechazar la URL completa.

- tipo de expresión regular tipo de expresión regular
Especifique el tipo de expresión regular. Los tipos posibles son POSIX or pcre. Tenga en cuenta que para
ser capaz de usar pcre type, wget debe compilarse con soporte libpcre.

-D lista de dominios
--domains =lista de dominios
Configure los dominios que se seguirán. lista de dominios es una lista de dominios separados por comas. Nota
que lo hace no encender -H.

--excluir-dominios lista de dominios
Especifique los dominios que están no para ser seguido.

--seguir-ftp
Siga los enlaces FTP de los documentos HTML. Sin esta opción, Wget ignorará todas las
Enlaces FTP.

--follow-tags =lista
Wget tiene una tabla interna de pares de atributos / etiquetas HTML que considera cuando
buscando documentos vinculados durante una recuperación recursiva. Si un usuario solo quiere un
subconjunto de esas etiquetas a ser consideradas, sin embargo, él o ella debe especificar dichas etiquetas
en un espacio separado por comas lista con esta opción.

--ignore-tags =lista
Esto es lo opuesto al --seguir-etiquetas opción. Para omitir ciertas etiquetas HTML cuando
buscando de forma recursiva documentos para descargar, especifíquelos separados por comas lista.

En el pasado, esta opción era la mejor opción para descargar una sola página y su
requisitos, usando una línea de comando como:

wget --ignore-tags = a, área -H -k -K -r http: // /

Sin embargo, el autor de esta opción encontró una página con etiquetas como "
HREF = "/"> "y se dio cuenta de que especificar etiquetas para ignorar no era suficiente.
Uno no puede simplemente decirle a Wget que ignore " ", porque entonces las hojas de estilo no se
descargado. Ahora la mejor apuesta para descargar una sola página y sus requisitos es la
a dedicados --requisitos de página .

--ignorar caso
Ignore mayúsculas y minúsculas al hacer coincidir archivos y directorios. Esto influye en el comportamiento de -R,
-Opciones -A, -I y -X, así como globbing implementado al descargar desde FTP
sitios. Por ejemplo, con esta opción, -A "*.TXT" coincidirá archivo1.txt, pero también
archivo2.TXT, archivo3.TxT, y así. Las comillas en el ejemplo son para evitar que el shell
de expandir el patrón.

-H
--span-hosts
Habilite la expansión entre hosts cuando realice una recuperación recursiva.

-L
--relativo
Siga únicamente los enlaces relativos. Útil para recuperar una página de inicio específica sin ningún
distracciones, ni siquiera las de los mismos anfitriones.

-I lista
--include-directorios =lista
Especifique una lista separada por comas de los directorios que desea seguir al descargar.
Elementos de lista puede contener comodines.

-X lista
--excluir-directorios =lista
Especifique una lista separada por comas de los directorios que desea excluir de la descarga.
Elementos de lista puede contener comodines.

-notario público
--no padre
Nunca ascienda al directorio principal cuando recupere de forma recursiva. Esto es un
opción útil, ya que garantiza que solo los archivos a continuación una cierta jerarquía
ser descargado.

MEDIO AMBIENTE


Wget admite proxies para recuperaciones HTTP y FTP. La forma estándar de especificar proxy
location, que Wget reconoce, utiliza las siguientes variables de entorno:

http_proxy
https_proxy
Si está configurado, el http_proxy y https_proxy las variables deben contener las URL de la
proxies para conexiones HTTP y HTTPS respectivamente.

ftp_proxy
Esta variable debe contener la URL del proxy para las conexiones FTP. Es bastante
común que http_proxy y ftp_proxy están configurados en la misma URL.

no_proxy
Esta variable debe contener una lista separada por comas de extensiones de dominio que el proxy debe
no ser usado para. Por ejemplo, si el valor de no_proxy is .mit.edu, el proxy no
utilizarse para recuperar documentos del MIT.

SALIR ESTADO


Wget puede devolver uno de varios códigos de error si encuentra problemas.

0 No ocurrió ningún problema.

1 Código de error genérico.

2 Error de análisis --- por ejemplo, al analizar las opciones de la línea de comandos, el .wgetrc or
.netrc...

3 Error de E / S de archivo.

4 Fallo de la red.

5 Fallo de verificación SSL.

6 Error de autenticación de nombre de usuario / contraseña.

7 Errores de protocolo.

8 El servidor emitió una respuesta de error.

Con las excepciones de 0 y 1, los códigos de salida con números más bajos tienen prioridad sobre los más altos.
unos numerados, cuando se encuentran varios tipos de errores.

En las versiones de Wget anteriores a la 1.12, el estado de salida de Wget solía ser inútil y
inconsistente. Las descargas recursivas prácticamente siempre devolverían 0 (éxito), independientemente de
cualquier problema encontrado, y las recuperaciones no recursivas solo devolvieron el estado correspondiente
a la descarga más reciente.

Use wget en línea usando los servicios de onworks.net


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

Comandos de Linux

Ad