InglêsFrancêsEspanhol

Ad


favicon do OnWorks

wget - Online na nuvem

Execute o wget no provedor de hospedagem gratuita OnWorks no Ubuntu Online, Fedora Online, emulador online do Windows ou emulador online do MAC OS

Este é o comando wget que pode ser executado no provedor de hospedagem gratuita OnWorks usando uma de nossas várias estações de trabalho online gratuitas, como Ubuntu Online, Fedora Online, emulador online do Windows ou emulador online do MAC OS

PROGRAMA:

NOME


Wget - O downloader de rede não interativo.

SINOPSE


wget [opção] ... [URL] ...

DESCRIÇÃO


GNU Wget é um utilitário gratuito para download não interativo de arquivos da web. Isto
suporta protocolos HTTP, HTTPS e FTP, bem como recuperação por meio de proxies HTTP.

Wget não é interativo, o que significa que pode funcionar em segundo plano, enquanto o usuário não
logado. Isso permite que você inicie uma recuperação e desconecte-se do sistema, permitindo
Vamos terminar o trabalho. Por outro lado, a maioria dos navegadores da Web exige do usuário constante
presença, o que pode ser um grande obstáculo ao transferir muitos dados.

O Wget pode seguir links em páginas HTML, XHTML e CSS para criar versões locais de
sites da Web, recriando totalmente a estrutura de diretórios do site original. Isto é
às vezes referido como "download recursivo". Ao fazer isso, Wget respeita o
Padrão de exclusão de robô (/robôs.txt) Wget pode ser instruído a converter os links em
arquivos baixados para apontar para os arquivos locais, para visualização offline.

Wget foi projetado para ser robusto em conexões de rede lentas ou instáveis; se um
o download falha devido a um problema de rede, ele continuará tentando até que todo o arquivo tenha
foi recuperado. Se o servidor suportar regetting, ele o instruirá a continuar
o download de onde parou.

O Wget não oferece suporte a listas de revogação de cliente (CRLs), então o certificado HTTPS que você possui
a conexão com pode ser revogada pelo proprietário do site.

OPÇÕES


Opção Sintaxe
Uma vez que Wget usa GNU getopt para processar argumentos de linha de comando, cada opção tem um formato longo
junto com o curto. Opções longas são mais convenientes de lembrar, mas reserve um tempo para
modelo. Você pode misturar livremente estilos de opções diferentes ou especificar opções após o comando-
argumentos de linha. Assim, você pode escrever:

wget -r --tries = 10 http://fly.srk.fer.hr/ -o logar

O espaço entre a opção que aceita um argumento e o argumento pode ser omitido.
Em vez de -o log você pode escrever -olog.

Você pode colocar várias opções que não requerem argumentos juntas, como:

wget -drc

Isso é completamente equivalente a:

wget -d -r -c

Uma vez que as opções podem ser especificadas após os argumentos, você pode encerrá-los com --.
Então, o seguinte tentará fazer o download do URL -x, relatando falha para log:

wget -o log - -x

Todas as opções que aceitam listas separadas por vírgulas respeitam a convenção que especifica
uma lista vazia limpa seu valor. Isso pode ser útil para limpar o .wgetrc definições. Por
exemplo, se o seu .wgetrc define "exclude_directories" para / cgi-bin, o seguinte exemplo
irá primeiro redefini-lo e, em seguida, defini-lo para excluir / ~ ninguém e / ~ alguém. Você também pode
limpar as listas em .wgetrc.

wget -X "-X / ~ ninguém, / ~ alguém

A maioria das opções que não aceitam argumentos são booleano opções, assim chamadas porque seus
o estado pode ser capturado com uma variável sim ou não ("booleana"). Por exemplo, --follow-ftp
diz ao Wget para seguir links de FTP de arquivos HTML e, por outro lado, --sem globo diz isso
não realizar o globbing de arquivo em URLs de FTP. Uma opção booleana é afirmativo or
negativo (começando com --não) Todas essas opções compartilham várias propriedades.

Salvo indicação em contrário, assume-se que o comportamento padrão é o oposto do que
a opção cumpre. Por exemplo, a existência documentada de --follow-ftp assume
que o padrão é não siga os links de FTP das páginas HTML.

As opções afirmativas podem ser negadas acrescentando-se o --não- ao nome da opção; negativo
opções podem ser negadas omitindo o --não- prefixo. Isso pode parecer supérfluo --- se o
o padrão para uma opção afirmativa é não fazer algo, então por que fornecer uma maneira de
desligá-lo explicitamente? Mas o arquivo de inicialização pode de fato alterar o padrão. Por
instância, usando "follow_ftp = on" em .wgetrc faz Wget seguir Links de FTP por padrão e
utilização --no-follow-ftp é a única maneira de restaurar o padrão de fábrica a partir do comando
linha.

Basico Comece Opções
-V
--versão
Mostra a versão do Wget.

-h
--Socorro
Imprima uma mensagem de ajuda descrevendo todas as opções de linha de comando do Wget.

-b
--fundo
Vá para o segundo plano imediatamente após a inicialização. Se nenhum arquivo de saída for especificado por meio do
-o, a saída é redirecionada para wget-log.

-e comando
--executar comando
Execute comando como se fosse parte de .wgetrc. Um comando assim invocado será
executado depois de os comandos em .wgetrc, tendo assim precedência sobre eles. Se você precisar
para especificar mais de um comando wgetrc, use várias instâncias de -e.

Logging e Entrada Envie o Opções
-o arquivo de log
--output-file =arquivo de log
Registrar todas as mensagens em arquivo de log. As mensagens normalmente são reportadas ao erro padrão.

-a arquivo de log
--append-output =arquivo de log
Anexar a arquivo de log. Este é o mesmo que -o, apenas anexa a arquivo de log em vez de
sobrescrever o arquivo de log antigo. Se arquivo de log não existe, um novo arquivo é criado.

-d
--depurar
Ative a saída de depuração, o que significa várias informações importantes para os desenvolvedores do Wget
se não funcionar corretamente. O administrador do sistema pode ter optado por compilar
Wget sem suporte para depuração, caso em que -d não funciona. Por favor, note que
compilar com suporte para depuração é sempre seguro --- Wget compilado com suporte para depuração
precisarão não imprimir qualquer informação de depuração, a menos que solicitada com -d.

-q
--quieto
Desligue a saída do Wget.

-v
--verbose
Ative a saída detalhada, com todos os dados disponíveis. A saída padrão é detalhada.

-nv
--não verboso
Desligue o verboso sem ficar completamente quieto (use -q para isso), o que significa que
mensagens de erro e informações básicas ainda são impressas.

--report-speed =tipo
Largura de banda de saída como tipo. O único valor aceito é pedaços.

-i lima
--input-file =lima
Leia URLs de um local ou externo lima. Se - é especificado como lima, URLs são lidos
da entrada padrão. (Usar ./- ler de um arquivo chamado literalmente -.)

Se esta função for usada, nenhum URL precisa estar presente na linha de comando. Se houver
URLs na linha de comando e em um arquivo de entrada, aqueles nas linhas de comando serão
os primeiros a serem recuperados. Se --force-html não é especificado, então lima rede de apoio social
consistem em uma série de URLs, um por linha.

No entanto, se você especificar --force-html, o documento será considerado como html. Naquilo
caso você tenha problemas com links relativos, que podem ser resolvidos adicionando
"url ">" aos documentos ou especificando --base =url na linha de comando.

Se o lima é externo, o documento será tratado automaticamente como html if
as correspondências de Content-Type text / html. Além disso, o limaa localização de será
usado implicitamente como base href se nenhum for especificado.

--input-metalink =lima
Faz o download de arquivos cobertos no Metalink local lima. Metalink versão 3 e 4 são
suportado.

--metalink-sobre-http
Emite solicitação HTTP HEAD em vez de GET e extrai metadados Metalink da resposta
cabeçalhos. Em seguida, muda para o download do Metalink. Se nenhum metadado Metalink válido for
encontrado, ele volta ao download HTTP comum.

--Local preferido
Defina o local preferido para recursos Metalink. Isso tem efeito se vários recursos
com a mesma prioridade estão disponíveis.

-F
--force-html
Quando a entrada é lida de um arquivo, force-o a ser tratado como um arquivo HTML. Isso permite
você a recuperar links relativos de arquivos HTML existentes em seu disco local, adicionando
"url ">" para HTML ou usando o --base opção de linha de comando.

-B URL
--base =URL
Resolve links relativos usando URL como ponto de referência, ao ler links de
um arquivo HTML especificado por meio do -i/--Arquivo de entrada opção (junto com --force-htmlou
quando o arquivo de entrada foi obtido remotamente de um servidor que o descreve como HTML). Isto é
equivalente à presença de uma tag "BASE" no arquivo de entrada HTML, com URL como o
valor para o atributo "href".

Por exemplo, se você especificar http://foo/bar/a.html para URL, e Wget lê
../baz/b.html do arquivo de entrada, seria resolvido para http://foo/baz/b.html.

--config =ARQUIVO
Especifique a localização de um arquivo de inicialização que deseja usar.

--rejected-log =arquivo de log
Registra todas as rejeições de URL para arquivo de log como valores separados por vírgula. Os valores incluem o
motivo da rejeição, o URL e o URL pai em que foi encontrado.

Baixar Opções
--bind-address =ENDEREÇO
Ao fazer conexões TCP / IP do cliente, vincule-se a ENDEREÇO na máquina local. ENDEREÇO
pode ser especificado como um nome de host ou endereço IP. Esta opção pode ser útil se o seu
máquina está ligada a vários IPs.

-t número
--tries =número
Defina o número de tentativas para número. Especifique 0 ou inf para tentativas infinitas. O padrão é
tentar novamente 20 vezes, com exceção de erros fatais como "conexão recusada" ou
"não encontrado" (404), que não são repetidas.

-O lima
--output-document =lima
Os documentos não serão gravados nos arquivos apropriados, mas todos serão
concatenados e escritos para lima. Se - é usado como lima, os documentos serão
impresso na saída padrão, desativando a conversão de link. (Usar ./- imprimir em um arquivo
literalmente nomeado -.)

Uso de -O is não pretendia significar simplesmente "use o nome lima em vez daquele no
URL; "em vez disso, é análogo ao redirecionamento de shell: wget -O lima http://foo is
pretendia funcionar como wget -O - http://foo > lima; lima será truncado imediatamente,
e todos os o conteúdo baixado será gravado lá.

Por esta razão, -N (para verificação de carimbo de data / hora) não é suportado em combinação com -O:
desde lima é sempre criado recentemente, sempre terá um carimbo de data / hora muito novo. UMA
um aviso será emitido se esta combinação for usada.

Da mesma forma, usando -r or -p com -O pode não funcionar como você espera: o Wget não apenas baixa
o primeiro arquivo para lima e baixe o resto com seus nomes normais: todos os
o conteúdo baixado será colocado em lima. Isso foi desativado na versão 1.11, mas foi
foi reintegrado (com um aviso) em 1.11.2, pois há alguns casos em que este
o comportamento pode realmente ter alguma utilidade.

Uma combinação com -nc só é aceito se o arquivo de saída fornecido não existir.

Observe que uma combinação com -k só é permitido ao baixar um único documento,
como nesse caso, ele apenas converterá todos os URIs relativos em externos; -k não faz
sentido para vários URIs quando todos estão sendo baixados para um único arquivo; -k pode ser
usado apenas quando a saída é um arquivo normal.

-nc
--no-clobber
Se um arquivo é baixado mais de uma vez no mesmo diretório, o comportamento do Wget depende
em algumas opções, incluindo -nc. Em certos casos, o arquivo local será espancado,
ou sobrescrito, após download repetido. Em outros casos, será preservado.

Ao executar o Wget sem -N, -nc, -rou -p, baixando o mesmo arquivo no mesmo
diretório resultará na cópia original de lima sendo preservado e a segunda cópia
sendo nomeado lima.1. Se esse arquivo for baixado novamente, a terceira cópia será
nomeado lima.2, e assim por diante. (Este também é o comportamento com -WL, mesmo se -r or -p estão em
efeito.) Quando -nc for especificado, esse comportamento será suprimido e Wget se recusará a
baixar cópias mais recentes de lima. Portanto, "" no-clobber "" é na verdade um nome impróprio em
este modo --- não é a sobreposição que é evitada (visto que os sufixos numéricos já estavam
prevenção de sobreposição), mas sim o salvamento de várias versões que é impedido.

Ao executar o Wget com -r or -p, Mas sem -N, -WLou -nc, baixando novamente um arquivo
resultará na nova cópia simplesmente substituindo a antiga. Adicionando -nc vai prevenir isso
comportamento, em vez de fazer com que a versão original seja preservada e quaisquer cópias mais recentes em
o servidor a ser ignorado.

Ao executar o Wget com -N, com ou sem -r or -p, a decisão de se ou não
baixar uma cópia mais recente de um arquivo depende do carimbo de data / hora local e remoto e tamanho
do arquivo. -nc não pode ser especificado ao mesmo tempo que -N.

Uma combinação com -O/--documento de saída só é aceito se o arquivo de saída fornecido
não existe.

Note que quando -nc é especificado, arquivos com os sufixos .html or Htm. será carregado
do disco local e analisados ​​como se tivessem sido recuperados da web.

--backups =backups
Antes de (sobrescrever) um arquivo, faça backup de um arquivo existente adicionando um .1 sufixo (_1 on
VMS) ao nome do arquivo. Esses arquivos de backup são girados para .2, .3, e assim por diante, até
backups (e perdido além disso).

-c
--Prosseguir
Continue obtendo um arquivo baixado parcialmente. Isso é útil quando você deseja terminar
um download iniciado por uma instância anterior do Wget, ou por outro programa. Por
instância:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Se houver um arquivo chamado ls-lR.Z no diretório atual, Wget irá assumir que é
a primeira parte do arquivo remoto e pedirá ao servidor para continuar a
recuperação de um deslocamento igual ao comprimento do arquivo local.

Observe que você não precisa especificar esta opção se quiser apenas o atual
invocação do Wget para tentar novamente o download de um arquivo caso a conexão seja perdida no meio do caminho
Através dos. Este é o comportamento padrão. -c afeta apenas a retomada dos downloads
começado prévio a esta invocação do Wget, e cujos arquivos locais ainda estão sentados
por aí.

Sem -c, o exemplo anterior apenas baixaria o arquivo remoto para ls-lR.Z.1,
deixando o truncado ls-lR.Z arquivo sozinho.

Começando com Wget 1.7, se você usar -c em um arquivo não vazio, e acontece que o
servidor não suporta download continuado, Wget se recusará a iniciar o download
do zero, o que efetivamente arruinaria o conteúdo existente. Se você realmente quer o
baixe para começar do zero, remova o arquivo.

Também começando com Wget 1.7, se você usar -c em um arquivo que é do mesmo tamanho que o
um no servidor, o Wget se recusará a baixar o arquivo e imprimir uma explicação
mensagem. O mesmo acontece quando o arquivo é menor no servidor do que localmente
(provavelmente porque foi alterado no servidor desde o seu último download
tentativa) --- porque "continuar" não é significativo, nenhum download ocorre.

Do outro lado da moeda, ao usar -c, qualquer arquivo que seja maior no servidor
do que localmente será considerado um download incompleto e apenas "(comprimento (remoto) -
length (local)) "bytes serão baixados e colocados no final do arquivo local.
Este comportamento pode ser desejável em certos casos --- por exemplo, você pode usar wget -c para
baixe apenas a nova parte que foi anexada a uma coleção de dados ou arquivo de log.

No entanto, se o arquivo for maior no servidor porque foi mudado, em oposição a
apenas por anexado para, você acabará com um arquivo truncado. Wget não tem como verificar
que o arquivo local é realmente um prefixo válido do arquivo remoto. Você precisa ser
especialmente cuidado com isso ao usar -c em conjunção com -r, uma vez que cada arquivo irá
ser considerado um candidato a "download incompleto".

Outra instância em que você obterá um arquivo truncado se tentar usar -c é se você tem um
Proxy HTTP coxo que insere uma string de "transferência interrompida" no arquivo local. Dentro
no futuro, uma opção de "reversão" pode ser adicionada para lidar com este caso.

Observe que -c só funciona com servidores FTP e com servidores HTTP que suportam o
Cabeçalho "Range".

--start-pos =DESVIO
Comece a baixar na posição zero DESVIO. O deslocamento pode ser expresso em bytes,
kilobytes com o sufixo `k ', ou megabytes com o sufixo` m', etc.

--start-pos tem maior precedência sobre --Prosseguir. Quando --start-pos e --Prosseguir
são especificados, o wget irá emitir um aviso e proceder como se --Prosseguir estava ausente.

O suporte do servidor para download contínuo é necessário, caso contrário --start-pos Não posso ajudar.
See -c para obter detalhes.

--progress =tipo
Selecione o tipo de indicador de progresso que deseja usar. Os indicadores legais são "ponto"
e "bar".

O indicador "barra" é usado por padrão. Ele desenha um gráfico de barra de progresso ASCII
(também conhecido como display de "termômetro") indicando o status de recuperação. Se a saída for
não é um TTY, a barra "ponto" será usada por padrão.

Use --progress = ponto para mudar para a exibição de "ponto". Ele rastreia a recuperação por
impressão de pontos na tela, cada ponto representando uma quantidade fixa de dados baixados.

O progresso tipo também pode ter um ou mais parâmetros. Os parâmetros variam com base em
que o tipo selecionado. Parâmetros para tipo são passados ​​anexando-os ao tipo
esperada por dois pontos (:) assim: --progress =tipo:parameter1:parameter2.

Ao usar a recuperação pontilhada, você pode definir o estilo especificando o tipo como
ponto:estilo. Estilos diferentes atribuem significados diferentes a um ponto. Com o "padrão"
estilo cada ponto representa 1K, há dez pontos em um cluster e 50 pontos em uma linha.
O estilo "binário" tem uma orientação mais parecida com a do "computador" --- 8 mil pontos, clusters de 16 pontos
e 48 pontos por linha (o que perfaz 384 mil linhas). O estilo "mega" é adequado para
baixando arquivos grandes --- cada ponto representa 64K recuperados, há oito pontos em um
cluster e 48 pontos em cada linha (portanto, cada linha contém 3M). Se "mega" não for suficiente
então você pode usar o estilo "giga" --- cada ponto representa 1 milhão recuperado, há oito
pontos em um cluster e 32 pontos em cada linha (portanto, cada linha contém 32M).

Com o --progress = bar, existem atualmente dois parâmetros possíveis, força e rolar o nariz.

Quando a saída não é um TTY, a barra de progresso sempre volta para "ponto", mesmo que
--progress = bar foi passado para o Wget durante a invocação. Este comportamento pode ser substituído
e a saída "bar" forçada usando o parâmetro "force" como --progress = bar: force.

Por padrão, o Barra barra de progresso de estilo rola o nome do arquivo da esquerda para a direita
para o arquivo que está sendo baixado, se o nome do arquivo exceder o comprimento máximo alocado para
sua exibição. Em certos casos, como com --progress = bar: force, pode-se não querer
o nome do arquivo de rolagem na barra de progresso. Ao passar o parâmetro "noscroll", Wget
pode ser forçado a exibir o máximo possível do nome do arquivo sem rolar
.

Observe que você pode definir o estilo padrão usando o comando "progresso" em .wgetrc. que
A configuração pode ser substituída na linha de comando. Por exemplo, para forçar a saída da barra
sem rolar, use --progress = bar: force: noscroll.

--show-progresso
Força o wget a exibir a barra de progresso em qualquer verbosidade.

Por padrão, o wget exibe apenas a barra de progresso no modo detalhado. Pode-se, no entanto,
deseja que o wget exiba a barra de progresso na tela em conjunto com qualquer outro
modos de verbosidade como --não verboso or --quieto. Muitas vezes, é uma propriedade desejada quando
invocando o wget para baixar vários arquivos pequenos / grandes. Nesse caso, wget poderia
simplesmente ser chamado com este parâmetro para obter uma saída muito mais limpa na tela.

Esta opção também forçará a barra de progresso a ser impressa para stderr quando usado
ao lado do --arquivo de log opção.

-N
-- timestamp
Ative a marcação de tempo.

- não-se-modificado-desde
Não enviar cabeçalho If-Modified-Since em -N modo. Enviar pedido HEAD preliminar
em vez de. Isso só tem efeito em -N modo.

--no-use-server-timestamps
Não defina o carimbo de data / hora do arquivo local pelo do servidor.

Por padrão, quando um arquivo é baixado, seus carimbos de data / hora são definidos para corresponder aos do
arquivo remoto. Isso permite o uso de -- timestamp em invocações subsequentes de wget.
No entanto, às vezes é útil basear a data e hora do arquivo local em quando ele era
realmente baixado; para esse propósito, o --no-use-server-timestamps opção foi
forneceu.

-S
--server-resposta
Imprima os cabeçalhos enviados por servidores HTTP e as respostas enviadas por servidores FTP.

--aranha
Quando chamado com esta opção, o Wget se comportará como um Web aranha, o que significa que
não irá baixar as páginas, apenas verifique se elas estão lá. Por exemplo, você pode usar
Vamos verificar seus favoritos:

wget --spider --force-html -i favoritos.html

Este recurso precisa de muito mais trabalho para o Wget chegar perto da funcionalidade do real
aranhas da web.

-T segundo
--timeout =segundo
Defina o tempo limite da rede para segundo segundos. Isso é equivalente a especificar
--dns-tempo limite, --connect-tempo limite e --tempo de ler esgotado, Tudo ao mesmo tempo.

Ao interagir com a rede, Wget pode verificar o tempo limite e abortar a operação
se demorar muito. Isso evita anomalias como leituras suspensas e infinitas
conecta. O único tempo limite habilitado por padrão é um tempo limite de leitura de 900 segundos. Contexto
um tempo limite para 0 o desativa completamente. A menos que você saiba o que está fazendo, é melhor
para não alterar as configurações de tempo limite padrão.

Todas as opções relacionadas ao tempo limite aceitam valores decimais, bem como valores de subsegundos. Por
exemplo, 0.1 segundos é uma escolha legal (embora imprudente) de tempo limite. Tempo limite de subsegundo
são úteis para verificar os tempos de resposta do servidor ou para testar a latência da rede.

--dns-timeout =segundo
Defina o tempo limite de pesquisa de DNS para segundo segundos. Pesquisas DNS que não são concluídas dentro
o tempo especificado falhará. Por padrão, não há tempo limite nas pesquisas DNS, outros
do que aquele implementado pelas bibliotecas do sistema.

--connect-timeout =segundo
Defina o tempo limite de conexão para segundo segundos. Conexões TCP que demoram mais para
estabelecer será abortado. Por padrão, não há tempo limite de conexão, exceto
implementado pelas bibliotecas do sistema.

--read-timeout =segundo
Defina o tempo limite de leitura (e gravação) para segundo segundos. O "tempo" deste tempo limite
refere-se a inativo tempo: se, em qualquer ponto do download, nenhum dado for recebido para mais
do que o número especificado de segundos, a leitura falha e o download é reiniciado.
Esta opção não afeta diretamente a duração de todo o download.

Claro, o servidor remoto pode optar por encerrar a conexão antes disso
opção requer. O tempo limite de leitura padrão é 900 segundos.

--limit-rate =quantidade
Limite a velocidade de download a quantidade bytes por segundo. A quantidade pode ser expressa em
bytes, kilobytes com o k sufixo, ou megabytes com o m sufixo. Por exemplo,
- taxa-limite = 20k limitará a taxa de recuperação a 20 KB / s. Isso é útil quando, para
por qualquer motivo, você não quer que o Wget consuma toda a largura de banda disponível.

Esta opção permite o uso de números decimais, geralmente em conjunto com o poder
sufixos; por exemplo, - taxa-limite = 2.5k é um valor legal.

Observe que Wget implementa a limitação dormindo a quantidade adequada de tempo
após uma leitura de rede que levou menos tempo do que o especificado pela taxa. Eventualmente, este
A estratégia faz com que a transferência do TCP diminua para aproximadamente a taxa especificada.
No entanto, pode levar algum tempo para que esse equilíbrio seja alcançado, então não se surpreenda
se limitar a taxa não funciona bem com arquivos muito pequenos.

-w segundo
--wait =segundo
Aguarde o número especificado de segundos entre as recuperações. O uso desta opção é
recomendado, pois alivia a carga do servidor, tornando as solicitações menos frequentes.
Em vez de segundos, o tempo pode ser especificado em minutos usando o sufixo "m", em
horas usando o sufixo "h", ou em dias usando o sufixo "d".

Especificar um valor grande para esta opção é útil se a rede ou o destino
host está inativo, de modo que Wget pode esperar o tempo suficiente para esperar razoavelmente o erro de rede
a ser corrigido antes da nova tentativa. O intervalo de espera especificado por esta função é
influenciado por "--random-wait", que ver.

--waitretria =segundo
Se você não quer que o Wget espere entre cada recuperação, mas apenas entre tentativas de
downloads falhados, você pode usar esta opção. Wget vai usar linear saia de perto, esperando 1
segundo após a primeira falha em um determinado arquivo, em seguida, aguardando 2 segundos após o
segunda falha nesse arquivo, até o número máximo de segundo você especifica.

Por padrão, Wget assumirá um valor de 10 segundos.

--espera aleatória
Alguns sites podem realizar análises de log para identificar programas de recuperação como o Wget por
procurando semelhanças estatisticamente significativas no tempo entre as solicitações. Isto
opção faz com que o tempo entre as solicitações varie entre 0.5 e 1.5 * esperar segundos,
onde esperar foi especificado usando o --esperar opção, a fim de mascarar a presença de Wget
a partir de tal análise.

Um artigo de 2001 em uma publicação dedicada ao desenvolvimento em uma plataforma de consumo popular
forneceu o código para realizar essa análise em tempo real. Seu autor sugeriu bloquear em
o nível de endereço de classe C para garantir que os programas de recuperação automatizada sejam bloqueados, apesar
alterando endereços fornecidos por DHCP.

A --espera aleatória opção foi inspirada por esta recomendação imprudente de bloquear muitos
usuários não relacionados de um site devido às ações de um.

--sem proxy
Não use proxies, mesmo se a variável de ambiente * _proxy apropriada estiver definida.

-Q quota
--quota =quota
Especifique a cota de download para recuperações automáticas. O valor pode ser especificado em bytes
(padrão), kilobytes (com k sufixo) ou megabytes (com m sufixo).

Observe que a cota nunca afetará o download de um único arquivo. Então, se você especificar wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, todos os ls-lR.gz será baixado. o
mesmo acontece quando vários URLs são especificados na linha de comando. No entanto, a cota é
respeitado ao recuperar recursivamente ou de um arquivo de entrada. Assim você pode
digite com segurança wget -Q2m -i locais--- o download será abortado quando a cota for excedida.

Definindo a cota para 0 ou para inf limita a cota de download.

--no-dns-cache
Desative o cache de pesquisas DNS. Normalmente, o Wget lembra os endereços IP que olhou
do DNS para que não precise contatar repetidamente o servidor DNS para obter o mesmo
(normalmente pequeno) conjunto de hosts do qual ele recupera. Este cache existe apenas na memória; uma
A nova execução do Wget entrará em contato com o DNS novamente.

No entanto, foi relatado que em algumas situações não é desejável armazenar em cache
nomes de host, mesmo durante um aplicativo de execução curta como Wget. Com isso
opção Wget emite uma nova pesquisa DNS (mais precisamente, uma nova chamada para "gethostbyname" ou
"getaddrinfo") cada vez que faz uma nova conexão. Observe que esta opção irá
não afetam o cache que pode ser executado pela biblioteca de resolução ou por um externo
camada de cache, como NSCD.

Se você não entender exatamente o que essa opção faz, provavelmente não precisará dela.

--restrict-file-names =modos
Alterar quais caracteres encontrados em URLs remotos devem ser escapados durante a geração de
nomes de arquivos locais. Personagens que são restringido por esta opção são escapados, ou seja,
substituído por % HH, Onde HH é o número hexadecimal que corresponde ao
caráter restrito. Esta opção também pode ser usada para forçar todos os casos alfabéticos para
ser maiúsculo ou minúsculo.

Por padrão, Wget escapa os caracteres que não são válidos ou seguros como parte do arquivo
nomes em seu sistema operacional, bem como caracteres de controle que são normalmente
não imprimível. Esta opção é útil para alterar esses padrões, talvez porque você
estão baixando para uma partição não nativa ou porque deseja desativar o escape de
os caracteres de controle, ou você deseja restringir ainda mais os caracteres a apenas aqueles em
o intervalo de valores ASCII.

A modos são um conjunto de valores de texto separados por vírgula. Os valores aceitáveis ​​são unix,
Windows, nenhum controle, ascii, minúsculas e maiúsculas. Os valores unix e Windows e guarante que os mesmos estão
mutuamente exclusivos (um substituirá o outro), como são minúsculas e maiúsculas.
Esses últimos são casos especiais, pois não alteram o conjunto de caracteres que
ser escapado, mas sim forçar os caminhos de arquivos locais a serem convertidos para inferior ou
maiúsculas.

Quando "unix" é especificado, Wget escapa do caractere / e os personagens de controle em
os intervalos 0--31 e 128--159. Este é o padrão em sistemas operacionais do tipo Unix.

Quando "windows" é fornecido, Wget escapa dos caracteres \, |, /, :, ?, ", *, <, > e
os caracteres de controle nos intervalos 0--31 e 128--159. Além disso, Wget em
O modo Windows usa + em vez de : separar o host e a porta em nomes de arquivos locais, e
usos @ em vez de ? para separar a parte da consulta do nome do arquivo do resto.
Portanto, um URL que seria salvo como www.xemacs.org:4300/search.pl?input=blah in
O modo Unix seria salvo como www.xemacs.org+4300/search.pl@input=blah no modo Windows.
Este modo é o padrão no Windows.

Se você especificar nenhum controle, então o escape dos caracteres de controle também é alterado
fora. Esta opção pode fazer sentido quando você está baixando URLs cujos nomes contêm
Caracteres UTF-8, em um sistema que pode salvar e exibir nomes de arquivos em UTF-8 (alguns
possíveis valores de byte usados ​​em sequências de bytes UTF-8 caem na faixa de valores
designados por Wget como "controles").

A ascii modo é usado para especificar que quaisquer bytes cujos valores estão fora do intervalo de
Caracteres ASCII (ou seja, maiores que 127) devem ser escapados. Isso pode ser útil quando
salvar nomes de arquivos cuja codificação não corresponda à usada localmente.

-4
--inet4-somente
-6
--inet6-somente
Força a conexão a endereços IPv4 ou IPv6. Com --inet4-somente or -4, Wget vai apenas
conectar-se a hosts IPv4, ignorando registros AAAA no DNS e recusando-se a conectar-se a IPv6
endereços especificados em URLs. Por outro lado, com --inet6-somente or -6, Wget vai apenas
conectar-se a hosts IPv6 e ignorar registros A e endereços IPv4.

Nenhuma das opções deve ser necessária normalmente. Por padrão, um Wget compatível com IPv6 usará
a família de endereços especificada pelo registro DNS do host. Se o DNS responder com ambos
Endereços IPv4 e IPv6, Wget irá experimentá-los em sequência até encontrar um que possa
conectar a. (Veja também a opção "--prefer-family" descrita abaixo.)

Essas opções podem ser usadas para forçar deliberadamente o uso de endereços IPv4 ou IPv6
famílias em sistemas de família dupla, geralmente para ajudar na depuração ou para lidar com problemas
configuração de rede. Apenas um de --inet6-somente e --inet4-somente pode ser especificado em
o mesmo tempo. Nenhuma das opções está disponível no Wget compilado sem suporte IPv6.

--prefer-family = none / IPv4 / IPv6
Quando tiver a opção de vários endereços, conecte-se aos endereços com os
dirija-se primeiro à família. A ordem de endereço retornada pelo DNS é usada sem alteração por
padrão.

Isso evita erros espúrios e tentativas de conexão ao acessar hosts que resolvem
endereços IPv6 e IPv4 de redes IPv4. Por exemplo, www.kame.net resolve
para 2001:200:0:8002:203:47ff:fea5:3085 e para 203.178.141.194. Quando o preferido
família é "IPv4", o endereço IPv4 é usado primeiro; quando a família preferida é "IPv6",
o endereço IPv6 é usado primeiro; se o valor especificado for "nenhum", a ordem do endereço
retornado pelo DNS é usado sem alterações.

Diferentemente dos -4 e -6, esta opção não inibe o acesso a qualquer família de endereços, apenas
muda o ordem em que os endereços são acessados. Observe também que o reordenamento
realizado por esta opção é estável--- não afeta a ordem dos endereços do mesmo
família. Ou seja, a ordem relativa de todos os endereços IPv4 e de todos os endereços IPv6
permanece intacto em todos os casos.

--retry-connrefused
Considere "conexão recusada" um erro temporário e tente novamente. Normalmente Wget desiste
em um URL quando ele não consegue se conectar ao site porque ocorreu uma falha de conexão
como um sinal de que o servidor não está funcionando e que novas tentativas não ajudariam. Isto
opção é para espelhar sites não confiáveis ​​cujos servidores tendem a desaparecer para breve
períodos de tempo.

--user =usuário
--password =senha
Especifique o nome de usuário usuário e senha senha para recuperação de arquivos FTP e HTTP.
Esses parâmetros podem ser substituídos usando o --ftp-usuário e --ftp-senha opções para
Conexões FTP e o --http-usuário e --http-senha opções para conexões HTTP.

--pergunta-senha
Solicita uma senha para cada conexão estabelecida. Não pode ser especificado quando
--senha está sendo usado, porque eles são mutuamente exclusivos.

--no-iri
Desative o suporte de URI internacionalizado (IRI). Usar --iri para ligar. Suporte IRI é
ativado por padrão.

Você pode definir o estado padrão de suporte IRI usando o comando "iri" em .wgetrc. que
A configuração pode ser substituída na linha de comando.

--local-encoding =codificação
Forçar o Wget a usar codificação como a codificação do sistema padrão. Isso afeta como Wget
converte URLs especificados como argumentos de local para UTF-8 para suporte IRI.

Vamos usar a função "nl_langinfo ()" e depois a variável de ambiente "CHARSET" para
obtenha a localidade. Se falhar, o ASCII é usado.

Você pode definir a codificação local padrão usando o comando "local_encoding" em .wgetrc.
Essa configuração pode ser substituída na linha de comando.

--remote-encoding =codificação
Forçar o Wget a usar codificação como a codificação de servidor remoto padrão. Isso afeta como
Wget converte URIs encontrados em arquivos de codificação remota em UTF-8 durante um período recursivo
buscar. Esta opção é útil apenas para suporte IRI, para a interpretação de
Caracteres ASCII.

Para HTTP, a codificação remota pode ser encontrada no cabeçalho HTTP "Content-Type" e em HTML
Metatag "Content-Type http-equiv".

Você pode definir a codificação padrão usando o comando "remoteencoding" em .wgetrc. que
A configuração pode ser substituída na linha de comando.

--desvincular
Força o Wget a desvincular o arquivo em vez de destruir o arquivo existente. Esta opção é útil
para fazer o download para o diretório com hardlinks.

Diretório Opções
-WL
--não-diretórios
Não crie uma hierarquia de diretórios ao recuperar recursivamente. Com isso
opção ativada, todos os arquivos serão salvos no diretório atual, sem
clobbering (se um nome aparecer mais de uma vez, os nomes dos arquivos receberão extensões .n).

-x
--force-diretórios
O oposto de -WL--- criar uma hierarquia de diretórios, mesmo que não haja
sido criado de outra forma. Por exemplo wget -x http://fly.srk.fer.hr/robots.txt vai salvar o
arquivo baixado para fly.srk.fer.hr/robots.txt.

-nH
--no-host-directory
Desative a geração de diretórios com prefixo de host. Por padrão, invocar Wget com -r
http://fly.srk.fer.hr/ irá criar uma estrutura de diretórios começando com
fly.srk.fer.hr/. Esta opção desativa tal comportamento.

--protocol-diretórios
Use o nome do protocolo como um componente do diretório dos nomes dos arquivos locais. Por exemplo, com
esta opção, wget -r http://hospedeiro vai salvar para http /hospedeiro/ ... ao invés de apenas para
hospedeiro/ ....

--cut-dirs =número
ignorar número componentes do diretório. Isso é útil para obter um controle refinado
sobre o diretório onde a recuperação recursiva será salva.

Veja, por exemplo, o diretório em ftp://ftp.xemacs.org/pub/xemacs/. Se você recuperar
com -r, será salvo localmente em ftp.xemacs.org/pub/xemacs/. Enquanto o -nH
opção pode remover o ftp.xemacs.org/ parte, você ainda está preso com pub / xemacs. Este
é onde --cut-dirs vem a calhar; faz com que Wget não "veja" número diretório remoto
componentes. Aqui estão vários exemplos de como --cut-dirs opção funciona.

Sem opções -> ftp.xemacs.org/pub/xemacs/
-nH -> pub / xemacs /
-nH --cut-dirs = 1 -> xemacs /
-nH --cut-dirs = 2 ->.

--cut-dirs = 1 -> ftp.xemacs.org/xemacs/
...

Se você apenas deseja se livrar da estrutura do diretório, esta opção é semelhante a um
combinação de -WL e -P. No entanto, ao contrário -WL, --cut-dirs não perde com
subdiretórios --- por exemplo, com -nH --cut-dirs = 1, um beta/ subdiretório será
colocado para xemacs / beta, como seria de esperar.

-P prefixo
--directory-prefix =prefixo
Defina o prefixo do diretório para prefixo. O anuário prefixo é o diretório onde todos os outros
os arquivos e subdiretórios serão salvos, ou seja, no topo da árvore de recuperação. O
padrão é . (o diretório atual).

HTTP Opções
--default-page =nome
Use nome como o nome de arquivo padrão quando não for conhecido (ou seja, para URLs que terminam em um
barra), em vez de index.html.

-E
--ajuste-extensão
Se um arquivo do tipo aplicativo / xhtml + xml or text / html é baixado e o URL
não termina com o regexp \. [Hh] [Tt] [Mm] [Ll]?, esta opção fará com que o sufixo .html
para ser anexado ao nome do arquivo local. Isso é útil, por exemplo, quando você está
espelhar um site remoto que usa asp páginas, mas você quer que as páginas espelhadas sejam
visualizável em seu servidor Apache de estoque. Outro bom uso para isso é quando você está
download de materiais gerados por CGI. Um URL como http://site.com/article.cgi? 25 precisarão
ser salvo como article.cgi? 25.html.

Observe que os nomes dos arquivos alterados desta forma serão baixados novamente toda vez que você espelhar novamente
um site, porque Wget não pode dizer que o local X.html arquivo corresponde ao URL remoto X
(uma vez que ainda não sabe que o URL produz saída do tipo text / html or
aplicativo / xhtml + xml.

A partir da versão 1.12, o Wget também garantirá que todos os arquivos baixados do tipo texto / css
termine com o sufixo . Css, e a opção foi renomeada de --html-extensão, para melhor
refletem seu novo comportamento. O nome da opção antiga ainda é aceitável, mas agora deve ser
considerado obsoleto.

Em algum momento no futuro, esta opção pode muito bem ser expandida para incluir sufixos para
outros tipos de conteúdo, incluindo tipos de conteúdo que não são analisados ​​pelo Wget.

--http-user =usuário
--http-password =senha
Especifique o nome de usuário usuário e senha senha em um servidor HTTP. De acordo com
tipo de desafio, Wget irá codificá-los usando o "básico" (inseguro), o
"digest" ou o esquema de autenticação "NTLM" do Windows.

Outra forma de especificar o nome de usuário e a senha é no próprio URL. Qualquer método
revela sua senha para qualquer um que se incomode em rodar "ps". Para evitar as senhas
de serem vistos, armazene-os em .wgetrc or .netrce certifique-se de proteger esses arquivos
de outros usuários com "chmod". Se as senhas forem realmente importantes, não saia
eles estão nesses arquivos --- edite os arquivos e exclua-os após o Wget ter
iniciou o download.

--no-http-keep-alive
Desative o recurso "keep-alive" para downloads HTTP. Normalmente, Wget pergunta ao servidor
para manter a conexão aberta para que, quando você baixar mais de um documento do
mesmo servidor, eles são transferidos pela mesma conexão TCP. Isso economiza tempo e
ao mesmo tempo, reduz a carga no servidor.

Esta opção é útil quando, por algum motivo, conexões persistentes (keep-alive) não
funcionar para você, por exemplo, devido a um bug do servidor ou devido à incapacidade do servidor
scripts para lidar com as conexões.

--sem cache
Desative o cache do lado do servidor. Neste caso, o Wget irá enviar ao servidor remoto um
diretiva apropriada (Pragma: sem cache) para obter o arquivo do serviço remoto,
em vez de retornar a versão em cache. Isso é especialmente útil para recuperar
e liberando documentos desatualizados em servidores proxy.

O armazenamento em cache é permitido por padrão.

--nada de biscoitos
Desative o uso de cookies. Os cookies são um mecanismo para manter o lado do servidor
Estado. O servidor envia ao cliente um cookie usando o cabeçalho "Set-Cookie", e o
o cliente responde com o mesmo cookie mediante solicitações adicionais. Uma vez que os cookies permitem o
proprietários de servidores para acompanhar os visitantes e para que os sites troquem essas informações,
alguns os consideram uma violação de privacidade. O padrão é usar cookies; Contudo,
armazenar cookies não está ativado por padrão.

--carregar-cookies lima
Carregar cookies de lima antes da primeira recuperação HTTP. lima é um arquivo textual no
formato originalmente usado por Netscape's biscoitos.txt arquivo.

Você normalmente usará esta opção ao espelhar sites que exigem que você seja
logado para acessar parte ou todo o seu conteúdo. O processo de login normalmente funciona
pelo servidor da web emitindo um cookie HTTP ao receber e verificar o seu
credenciais. O cookie é então reenviado pelo navegador ao acessar essa parte do
site, e assim prova sua identidade.

O espelhamento de tal site requer que o Wget envie os mesmos cookies que o seu navegador envia quando
comunicar-se com o site. Isso é alcançado por --carregar-cookies--- simplesmente aponte o Wget
para a localização do biscoitos.txt arquivo, e ele irá enviar os mesmos cookies para o seu
navegador enviaria na mesma situação. Navegadores diferentes mantêm cookies textuais
arquivos em locais diferentes:

"Netscape 4.x."
Os cookies estão em ~ / .netscape / cookies.txt.

"Mozilla e Netscape 6.x."
O arquivo de cookie do Mozilla também é denominado biscoitos.txt, localizado em algum lugar sob
~ / .mozilla, no diretório do seu perfil. O caminho completo geralmente termina
parecendo um pouco com ~ / .mozilla / default / some-weird-string / cookies.txt.

"Internet Explorer."
Você pode produzir um arquivo de cookie que o Wget pode usar usando o menu Arquivo, Importar e
Exportar, Exportar Cookies. Isso foi testado com o Internet Explorer 5; não é
garantido para funcionar com versões anteriores.

"Outros navegadores."
Se você estiver usando um navegador diferente para criar seus cookies, --carregar-cookies precisarão
só funcionará se você puder localizar ou produzir um arquivo de cookie no formato Netscape que
Wget espera.

Se você não pode usar --carregar-cookies, ainda pode haver uma alternativa. Se seu
navegador suporta um "gerenciador de cookies", você pode usá-lo para ver os cookies usados ​​quando
acessando o site que você está espelhando. Anote o nome e o valor do cookie e
instrua manualmente o Wget a enviar esses cookies, ignorando o suporte de cookies "oficial":

wget --no-cookies --header "Cookie: = "

--salvar-cookies lima
Salvar cookies em lima antes de sair. Isso não salvará os cookies que expiraram ou
que não têm tempo de expiração (os chamados "cookies de sessão"), mas também ver
--keep-sessão-cookies.

--keep-sessão-cookies
Quando especificado, causa --salvar-cookies para também salvar cookies de sessão. Cookies de sessão
normalmente não são salvos porque devem ser mantidos na memória e esquecidos quando
você sai do navegador. Salvá-los é útil em sites que exigem login ou para
visite a página inicial antes de acessar algumas páginas. Com esta opção, vários Wget
as corridas são consideradas uma única sessão do navegador no que diz respeito ao site.

Uma vez que o formato de arquivo de cookie normalmente não carrega cookies de sessão, Wget os marca
com um carimbo de data / hora de expiração de 0. Wget's --carregar-cookies reconhece aqueles como sessão
cookies, mas pode confundir outros navegadores. Observe também que os cookies carregados
ser tratado como outros cookies de sessão, o que significa que se você quiser --salvar-cookies para
preservá-los novamente, você deve usar --keep-sessão-cookies novamente.

--ignore-comprimento
Infelizmente, alguns servidores HTTP (programas CGI, para ser mais preciso) enviam falsos
Cabeçalhos "Content-Length", o que faz Wget enlouquecer, pois ele pensa que nem todo o documento
foi recuperado. Você pode detectar esta síndrome se Wget tentar obter o mesmo documento novamente
uma e outra vez, sempre alegando que a conexão (de outra forma normal) foi fechada
no mesmo byte.

Com esta opção, o Wget irá ignorar o cabeçalho "Content-Length" --- como se nunca
existia.

--header =linha de cabeçalho
ENVIAR linha de cabeçalho junto com o restante dos cabeçalhos em cada solicitação HTTP. O
o cabeçalho fornecido é enviado no estado em que se encontra, o que significa que deve conter nome e valor separados por
dois pontos e não deve conter novas linhas.

Você pode definir mais de um cabeçalho adicional, especificando --cabeçalho mais de uma vez.

wget --header = 'Accept-Charset: iso-8859-2' \
--header = 'Aceitar-Idioma: hr' \
http://fly.srk.fer.hr/

A especificação de uma string vazia como o valor do cabeçalho irá limpar todos os usuários anteriores
cabeçalhos definidos.

A partir do Wget 1.10, esta opção pode ser usada para substituir os cabeçalhos gerados de outra forma
automaticamente. Este exemplo instrui o Wget a se conectar ao host local, mas a especificar
foo.bar no cabeçalho "Host":

wget --header = "Host: foo.bar" http://localhost/

Em versões do Wget anteriores a 1.10, o uso de --cabeçalho causou o envio de duplicado
cabeçalhos.

--max-redirect =número
Especifica o número máximo de redirecionamentos a seguir para um recurso. O padrão é
20, o que geralmente é muito mais do que o necessário. No entanto, nas ocasiões em que você
deseja permitir mais (ou menos), esta é a opção a ser usada.

--proxy-user =usuário
--proxy-password =senha
Especifique o nome de usuário usuário e senha senha para autenticação em um servidor proxy.
Wget irá codificá-los usando o esquema de autenticação "básico".

Considerações de segurança semelhantes àquelas com --http-senha pertencem aqui também.

--referer =url
Incluir `Referer: url'cabeçalho na solicitação HTTP. Útil para recuperar documentos com
processamento do lado do servidor que assume que eles estão sempre sendo recuperados pela web interativa
navegadores e só sairá corretamente quando o Referer for definido para uma das páginas que apontam
para eles.

--save-cabeçalhos
Salve os cabeçalhos enviados pelo servidor HTTP para o arquivo, precedendo o conteúdo real,
com uma linha vazia como separador.

-U string de agente
--user-agent =string de agente
Identificar como string de agente para o servidor HTTP.

O protocolo HTTP permite que os clientes se identifiquem usando um "User-Agent"
campo de cabeçalho. Isso permite distinguir o software WWW, geralmente para estatísticas
para fins ou para rastreamento de violações de protocolo. Wget normalmente se identifica como
Wget /versão, versão sendo o número da versão atual do Wget.

No entanto, alguns sites são conhecidos por impor a política de adaptação da produção
de acordo com as informações fornecidas pelo "Agente do Usuário". Embora isso não seja uma ideia tão ruim
em teoria, tem sido abusado por servidores que negam informações a clientes que não sejam
(historicamente) Netscape ou, mais freqüentemente, Microsoft Internet Explorer. Esta opção
permite que você altere a linha "User-Agent" emitida pelo Wget. O uso desta opção é
desanimado, a menos que você realmente saiba o que está fazendo.

Especificando o agente de usuário vazio com --user-agent = "" instrui Wget a não enviar o
Cabeçalho "User-Agent" em solicitações HTTP.

--post-data =corda
--post-file =lima
Use POST como o método para todas as solicitações HTTP e envie os dados especificados no
corpo da solicitação. --dados de postagem envia corda como dados, enquanto --post-arquivo envia o
conteúdo de lima. Fora isso, eles funcionam exatamente da mesma maneira. Em particular,
deles ambos esperar conteúdo no formato "chave1 = valor1 & chave2 = valor2", com codificação de porcentagem
para caracteres especiais; a única diferença é que se espera seu conteúdo como um
parâmetro de linha de comando e o outro aceita seu conteúdo de um arquivo. Em particular,
--post-arquivo is não para transmitir arquivos como anexos de formulário: aqueles devem aparecer como
dados "chave = valor" (com codificação percentual apropriada), assim como todo o resto. Wget
atualmente não suporta "multipart / form-data" para transmissão de dados POST; só
"application / x-www-form-urlencoded". Apenas um de --dados de postagem e --post-arquivo deveria estar
Especificadas.

Por favor, note que wget não exige que o conteúdo seja da forma
"key1 = value1 & key2 = value2", e também não faz o teste. Wget irá simplesmente transmitir
quaisquer dados fornecidos a ele. A maioria dos servidores, entretanto, espera que os dados POST estejam em
o formato acima ao processar formulários HTML.

Ao enviar uma solicitação POST usando o --post-arquivo opção, Wget trata o arquivo como um
arquivo binário e enviará todos os caracteres na solicitação POST sem remover
caracteres de nova linha ou alimentação de formulário à direita. Quaisquer outros caracteres de controle no texto irão
também pode ser enviado no estado em que se encontra na solicitação POST.

Esteja ciente de que Wget precisa saber o tamanho dos dados POST com antecedência.
Portanto, o argumento para "--post-file" deve ser um arquivo normal; especificando um FIFO ou
algo como / dev / stdin não vai funcionar. Não está muito claro como contornar isso
limitação inerente ao HTTP / 1.0. Embora HTTP / 1.1 introduza em pedaços transferir isso
não requer saber o comprimento da solicitação com antecedência, um cliente não pode usar
a menos que saiba que está se comunicando com um servidor HTTP / 1.1. E não pode saber disso até que
recebe uma resposta, que por sua vez exige que a solicitação tenha sido concluída - um
problema do ovo e da galinha.

Observação: a partir da versão 1.15, se Wget for redirecionado após a solicitação POST ser concluída,
seu comportamento dependerá do código de resposta retornado pelo servidor. No caso de um
301 movidos permanentemente, 302 movidos temporariamente ou 307 redirecionado temporário, Wget irá, em
de acordo com RFC2616, continue a enviar uma solicitação POST. No caso de um servidor querer o
cliente para alterar o método de solicitação no redirecionamento, ele deve enviar um 303 Ver Outro
Código de resposta.

Este exemplo mostra como fazer login em um servidor usando POST e, em seguida, fazer o download
as páginas desejadas, presumivelmente acessíveis apenas a usuários autorizados:

# Faça login no servidor. Isso pode ser feito apenas uma vez.
wget --save-cookies cookies.txt\
--post-data 'user = foo & password = bar' \
http://server.com/auth.php

# Agora pegue a página ou páginas de nosso interesse.
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php

Se o servidor estiver usando cookies de sessão para rastrear a autenticação do usuário, o acima
não funciona porque --salvar-cookies não os salvará (e nem os navegadores) e o
biscoitos.txt o arquivo estará vazio. Nesse caso, use --keep-sessão-cookies e o
--salvar-cookies para forçar o salvamento de cookies de sessão.

--method =Método HTTP
Para o propósito de script RESTful, Wget permite o envio de outros métodos HTTP
sem a necessidade de defini-los explicitamente usando --header = Header-Line. Wget vai usar
qualquer string é passada para ele depois --método como o método HTTP para o servidor.

--body-data =String de dados
--body-file =Arquivo de dados
Deve ser definido quando dados adicionais precisam ser enviados ao servidor junto com o Método
especificado usando --método. --body-dados envia corda como dados, enquanto --body-file envia
o conteúdo de lima. Fora isso, eles funcionam exatamente da mesma maneira.

Atualmente, --body-file is não para transmitir arquivos como um todo. Wget não
atualmente suporta "multipart / form-data" para transmissão de dados; só
"application / x-www-form-urlencoded". No futuro, isso pode ser alterado para que wget
envia o --body-file como um arquivo completo em vez de enviar seu conteúdo para o
servidor. Esteja ciente de que Wget precisa saber o conteúdo de BODY Data com antecedência,
e, portanto, o argumento para --body-file deve ser um arquivo normal. Ver --post-arquivo para uma
explicação mais detalhada. Apenas um de --body-dados e --body-file deveria estar
Especificadas.

Se Wget for redirecionado depois que a solicitação for concluída, Wget irá suspender o atual
e enviar uma solicitação GET até que o redirecionamento seja concluído. Isso é verdade para todos
códigos de resposta de redirecionamento, exceto 307 Redirecionamento temporário, que é usado para explicitamente
especificar que o método de solicitação deve não mudança. Outra exceção é quando o
método é definido como "POST", caso em que as regras de redirecionamento especificadas em
--dados de postagem São seguidos.

--disposição de conteúdo
Se estiver ativado, suporte experimental (não totalmente funcional) para
Os cabeçalhos "Content-Disposition" estão habilitados. Atualmente, isso pode resultar em uma rodada extra
viaja para o servidor para uma solicitação "HEAD" e é conhecido por sofrer de alguns bugs,
é por isso que não está habilitado por padrão.

Esta opção é útil para alguns programas CGI de download de arquivos que usam
Cabeçalhos "Content-Disposition" para descrever como deve ser o nome de um arquivo baixado
estar.

--conteúdo em erro
Se estiver ativado, o wget não ignorará o conteúdo quando o servidor responder com um
código de status http que indica erro.

--trust-server-names
Se estiver ativado, em um redirecionamento, o último componente do URL de redirecionamento será
usado como o nome do arquivo local. Por padrão é usado o último componente do original
URL.

--auth-no-challenge
Se esta opção for fornecida, o Wget enviará informações de autenticação HTTP básica
(nome de usuário e senha em texto simples) para todas as solicitações, assim como Wget 1.10.2 e anteriores
fez por padrão.

O uso desta opção não é recomendado e destina-se apenas a oferecer suporte a alguns
servidores obscuros, que nunca enviam desafios de autenticação HTTP, mas aceitam
informações de autenticação não solicitadas, digamos, além da autenticação baseada em formulário.

HTTPS (SSL / TLS) Opções
Para suportar downloads criptografados de HTTP (HTTPS), o Wget deve ser compilado com um SSL externo
biblioteca. O padrão atual é GnuTLS. Além disso, o Wget também suporta HSTS (HTTP Strict
Segurança de transporte). Se Wget for compilado sem suporte SSL, nenhuma dessas opções será
disponível.

--secure-protocol =protocolo
Escolha o protocolo seguro a ser usado. Os valores legais são auto, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 e PFS. Se auto é usado, a biblioteca SSL tem a liberdade de
escolher o protocolo apropriado automaticamente, o que é conseguido enviando um TLSv1
saudações. Este é o padrão.

Especificando SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 força o uso do correspondente
protocolo. Isso é útil ao falar com implementações de servidor SSL antigas e com bugs
que tornam difícil para a biblioteca SSL subjacente escolher o protocolo correto
versão. Felizmente, esses servidores são bastante raros.

Especificando PFS impõe o uso da chamada cifra Perfect Forward Security
suites. Resumindo, o PFS adiciona segurança criando uma chave única para cada SSL
conexão. Tem um pouco mais de impacto sobre a CPU no cliente e no servidor. Usamos conhecido por ser
cifras seguras (por exemplo, sem MD4) e o protocolo TLS.

--somente https
Quando em modo recursivo, apenas links HTTPS são seguidos.

--não-verificar-certificado
Não compare o certificado do servidor com as autoridades de certificação disponíveis.
Além disso, não exija que o nome do host do URL corresponda ao nome comum apresentado pelo
certificado.

A partir do Wget 1.10, o padrão é verificar o certificado do servidor em relação ao
autoridades de certificação reconhecidas, quebrando o handshake SSL e abortando o
baixe se a verificação falhar. Embora isso forneça downloads mais seguros,
quebra a interoperabilidade com alguns sites que funcionavam com versões anteriores do Wget,
particularmente aqueles que usam certificados autoassinados, expirados ou de outra forma inválidos.
Esta opção força um modo de operação "inseguro" que transforma o certificado
erros de verificação em avisos e permite que você continue.

Se você encontrar erros de "verificação de certificado" ou aqueles dizendo que "nome comum
não corresponde ao nome de host solicitado ", você pode usar esta opção para ignorar a verificação
e prossiga com o download. Somente usar isto opção if Você e guarante que os mesmos estão de outra forma convencido of
que o Site (s autenticidade, or if Você clientes não Cuidado  sobre que o validade of Está
certificado. Quase sempre é uma má ideia não verificar os certificados quando
transmitir dados confidenciais ou importantes. Para certificados autoassinados / internos,
você deve baixar o certificado e verificar em vez de forçar este
modo inseguro. Se você tem certeza de que não deseja nenhuma verificação de certificado,
você pode especificar --check-certificate = quiet para dizer ao wget para não imprimir nenhum aviso sobre
certificados inválidos, embora na maioria dos casos isso seja a coisa errada a fazer.

--certificate =lima
Use o certificado do cliente armazenado em lima. Isso é necessário para servidores que são
configurado para exigir certificados dos clientes que se conectam a eles. Normalmente um
o certificado não é necessário e esta opção é opcional.

--certificate-type =tipo
Especifique o tipo de certificado do cliente. Os valores legais são PEM (assumido por padrão)
e DER, também conhecido como ASN1.

--private-key =lima
Leia a chave privada de lima. Isso permite que você forneça a chave privada em um arquivo
separado do certificado.

--private-key-type =tipo
Especifique o tipo de chave privada. Os valores aceitos são PEM (o padrão) e DER.

--ca-certificate =lima
Use lima como o arquivo com o pacote de autoridades de certificação ("CA") para verificar o
pares. Os certificados devem estar no formato PEM.

Sem esta opção, o Wget procura certificados CA nos locais especificados pelo sistema,
escolhido no momento da instalação do OpenSSL.

--ca-directory =anuário
Especifica o diretório que contém certificados CA no formato PEM. Cada arquivo contém um
Certificado CA, e o nome do arquivo é baseado em um valor hash derivado do
certificado. Isso é obtido através do processamento de um diretório de certificado com o
Utilitário "c_rehash" fornecido com OpenSSL. Usando - diretório-ca é mais eficiente do que
--ca-certificado quando muitos certificados são instalados porque permite que o Wget busque
certificados sob demanda.

Sem esta opção, o Wget procura certificados CA nos locais especificados pelo sistema,
escolhido no momento da instalação do OpenSSL.

--crl-file =lima
Especifica um arquivo CRL em lima. Isso é necessário para certificados que foram
revogado pelas CAs.

--random-file =lima
[OpenSSL e LibreSSL apenas] Use lima como fonte de dados aleatórios para semear o
gerador de números pseudo-aleatórios em sistemas sem / Dev / urandom.

Em tais sistemas, a biblioteca SSL precisa de uma fonte externa de aleatoriedade para inicializar.
A aleatoriedade pode ser fornecida pelo EGD (ver --arquivo-egd abaixo) ou leia de um externo
fonte especificada pelo usuário. Se esta opção não for especificada, Wget procura por
dados em $ RANDFILE ou, se não estiver definido, em $ HOME / .rnd.

Se estiver recebendo a mensagem "Não foi possível semear o OpenSSL PRNG; desabilitando SSL." erro, você deveria
fornecer dados aleatórios usando alguns dos métodos descritos acima.

--egd-file =lima
[OpenSSL apenas] Use lima como o soquete EGD. EGD significa Entropia Coleta Daemon, um
programa de espaço do usuário que coleta dados de várias fontes de sistema imprevisíveis e
o disponibiliza para outros programas que possam precisar dele. Software de criptografia, como
a biblioteca SSL, precisa de fontes de aleatoriedade não repetida para propagar o número aleatório
gerador usado para produzir chaves criptograficamente fortes.

OpenSSL permite ao usuário especificar sua própria fonte de entropia usando o "RAND_FILE"
variável de ambiente. Se esta variável não estiver definida ou se o arquivo especificado não
produzir aleatoriedade suficiente, o OpenSSL lerá dados aleatórios do soquete EGD especificado
usando esta opção.

Se esta opção não for especificada (e o comando de inicialização equivalente não for usado), EGD
nunca é contatado. EGD não é necessário em sistemas Unix modernos que suportam
/ Dev / urandom.

--no-hsts
O Wget oferece suporte a HSTS (HTTP Strict Transport Security, RFC 6797) por padrão. Usar
--no-hsts para fazer o Wget agir como um UA não compatível com HSTS. Como consequência, Wget iria
ignora todos os cabeçalhos "Strict-Transport-Security" e não impõe qualquer
Política HSTS.

--hsts-file =lima
Por padrão, o Wget armazena seu banco de dados HSTS em ~ / .wget-hsts. Você pode usar --hsts-arquivo para
substituir isso. Wget usará o arquivo fornecido como banco de dados HSTS. Esse arquivo deve
em conformidade com o formato de banco de dados HSTS correto usado pelo Wget. Se Wget não pode analisar o
arquivo fornecido, o comportamento não é especificado.

O banco de dados HSTS do Wget é um arquivo de texto simples. Cada linha contém uma entrada HSTS (ou seja, um
site que emitiu um cabeçalho "Strict-Transport-Security" e que, portanto, tem
especificou uma política HSTS concreta a ser aplicada). As linhas que começam com um traço ("#") são
ignorado por Wget. Por favor, note que, apesar desta conveniente legibilidade humana -
hackear o banco de dados HSTS geralmente não é uma boa ideia.

Uma linha de entrada HSTS consiste em vários campos separados por um ou mais espaços em branco:

" SP [ ] SP SP SP "

A hostname e porta campos indicam o nome do host e a porta para a qual o HSTS fornecido
política se aplica. O porta campo pode ser zero, e será, na maioria dos casos. que
significa que o número da porta não será levado em consideração ao decidir se tal
A política HSTS deve ser aplicada em uma determinada solicitação (apenas o nome do host será
avaliados). Quando porta é diferente de zero, tanto o nome do host de destino quanto a porta
ser avaliada e a política de HSTS só será aplicada se as duas coincidirem. Isto
recurso foi incluído apenas para fins de teste / desenvolvimento. A suíte de teste Wget
(em testenv /) cria bancos de dados HSTS com portas explícitas com o objetivo de garantir
Comportamento correto de Wget. Aplicação de políticas HSTS a portas diferentes das padrão
é desencorajado pela RFC 6797 (consulte o Apêndice B "Diferenças entre a política HSTS e a mesma-
Política de Origem "). Portanto, esta funcionalidade não deve ser usada na produção
ambientes e porta normalmente será zero. Os últimos três campos fazem o que são
Espera-se. O campo include_subdomains pode ser 1 ou 0 e sinaliza se
os subdomínios do domínio de destino também devem fazer parte da política HSTS fornecida.
A criado e idade máxima campos contêm os valores de carimbo de data / hora de quando tal entrada foi
criado (visto pela primeira vez por Wget) e o valor definido pelo HSTS 'max-age', que indica como
tempo deve a política HSTS permanecer ativa, medido em segundos decorridos desde o
carimbo de data / hora armazenado em criado. Depois que esse tempo tiver passado, essa política HSTS não
serão válidos e serão removidos eventualmente do banco de dados.

Se você fornecer seu próprio banco de dados HSTS via --hsts-arquivo, esteja ciente de que Wget pode modificar
o arquivo fornecido se ocorrer alguma alteração entre as políticas HSTS solicitadas pelo
servidores remotos e aqueles no arquivo. Quando o Wget existe, ele efetivamente atualiza o
Banco de dados HSTS reescrevendo o arquivo de banco de dados com as novas entradas.

Se o arquivo fornecido não existir, o Wget criará um. Este arquivo conterá o
novas entradas HSTS. Se nenhuma entrada HSTS foi gerada (sem "Strict-Transport-Security"
cabeçalhos foram enviados por qualquer um dos servidores), nenhum arquivo será criado, nem mesmo um
um vazio. Este comportamento se aplica ao arquivo de banco de dados padrão (~ / .wget-hsts) também:
ele não será criado até que algum servidor aplique uma política de HSTS.

Cuidado para não substituir possíveis alterações feitas por outros processos Wget no
mesmo tempo no banco de dados HSTS. Antes de despejar as entradas HSTS atualizadas no arquivo,
Wget irá relê-lo e mesclar as alterações.

Não é recomendável usar um banco de dados HSTS personalizado e / ou modificar um existente. Por
mais informações sobre as ameaças de segurança potenciais decorrentes de tal prática, consulte
seção 14 "Considerações de segurança" da RFC 6797, especialmente seção 14.9 "Criativo
Manipulação do HSTS Policy Store ".

--warc-file =lima
Use lima como o arquivo WARC de destino.

--warc-header =corda
Use corda em como o registro warcinfo.

--warc-max-size =tamanho
Defina o tamanho máximo dos arquivos WARC para tamanho.

--warc-cdx
Grave arquivos de índice CDX.

--warc-dedup =lima
Não armazene os registros listados neste arquivo CDX.

--no-warc-compressão
Não compacte arquivos WARC com GZIP.

--no-warc-digest
Não calcule resumos SHA1.

--no-warc-keep-log
Não armazene o arquivo de log em um registro WARC.

--warc-tempdir =dir
Especifique a localização dos arquivos temporários criados pelo gravador WARC.

FTP Opções
--ftp-user =usuário
--ftp-password =senha
Especifique o nome de usuário usuário e senha senha em um servidor FTP. Sem isso, ou
a opção de inicialização correspondente, o padrão de senha é -wget @, normalmente usado para
FTP anônimo.

Outra forma de especificar o nome de usuário e a senha é no próprio URL. Qualquer método
revela sua senha para qualquer um que se incomode em rodar "ps". Para evitar as senhas
de serem vistos, armazene-os em .wgetrc or .netrce certifique-se de proteger esses arquivos
de outros usuários com "chmod". Se as senhas forem realmente importantes, não saia
eles estão nesses arquivos --- edite os arquivos e exclua-os após o Wget ter
iniciou o download.

--no-remove-listagem
Não remova o temporário .listagem arquivos gerados por recuperações de FTP. Normalmente,
esses arquivos contêm as listagens de diretório brutas recebidas de servidores FTP. Não
removê-los pode ser útil para fins de depuração ou quando você quiser ser capaz de
verificar facilmente o conteúdo dos diretórios do servidor remoto (por exemplo, para verificar se um
espelho que você está executando está completo).

Observe que, embora Wget grave em um nome de arquivo conhecido para este arquivo, este não é um
brecha de segurança no cenário de um usuário fazendo .listagem um link simbólico para / Etc / passwd
ou algo assim e pedindo ao "root" para executar o Wget em seu diretório. Dependendo do
opções usadas, o Wget se recusará a escrever para .listagem, Fazendo o
Falha na operação globbing / recursão / carimbo de data / hora ou o link simbólico será excluído
e substituído pelo real .listagem arquivo, ou a listagem será gravada em um
.listagem.number arquivo.

Embora esta situação não seja um problema, "root" nunca deve executar Wget em um
diretório do usuário não confiável. Um usuário poderia fazer algo tão simples como vincular
index.html para / Etc / passwd e pedindo "root" para executar o Wget com -N or -r então o arquivo irá
ser sobrescrito.

--sem globo
Desative o globbing de FTP. Globbing refere-se ao uso de caracteres especiais semelhantes a shell
(curingas), gostar *, ?, [ e ] para recuperar mais de um arquivo do mesmo diretório
de uma vez, como:

wget ftp://gnjilux.srk.fer.hr/* .msg

Por padrão, o globbing será ativado se a URL contiver um caractere globbing. Isto
A opção pode ser usada para ativar ou desativar o globbing permanentemente.

Você pode ter que citar o URL para protegê-lo de ser expandido pelo seu shell.
Globbing faz Wget procurar uma lista de diretórios, que é específica do sistema. Isto é
porque ele atualmente funciona apenas com servidores FTP Unix (e aqueles emulando Unix "ls"
resultado).

--no-passivo-ftp
Desative o uso do passiva Modo de transferência FTP. O FTP passivo exige que o
o cliente se conecta ao servidor para estabelecer a conexão de dados em vez do outro
caminho ao redor.

Se a máquina estiver conectada à Internet diretamente, FTP passivo e ativo
deve funcionar igualmente bem. Por trás da maioria das configurações de firewall e NAT, o FTP passivo tem
uma melhor chance de trabalhar. No entanto, em algumas configurações raras de firewall, o FTP ativo
realmente funciona quando o FTP passivo não funciona. Se você suspeitar que este seja o caso, use este
opção, ou defina "passive_ftp = off" em seu arquivo init.

--preserve-permissões
Preserve as permissões de arquivo remoto em vez das permissões definidas por umask.

--retr-links simbólicos
Por padrão, ao recuperar diretórios FTP recursivamente e um link simbólico é
encontrado, o link simbólico é percorrido e os arquivos apontados são recuperados.
Atualmente, o Wget não atravessa links simbólicos para diretórios para baixá-los
recursivamente, embora esse recurso possa ser adicionado no futuro.

Quando --retr-symlinks = no for especificado, o arquivo vinculado não será baixado. Em vez de,
um link simbólico correspondente é criado no sistema de arquivos local. O arquivo apontado irá
não ser recuperado a menos que esta recuperação recursiva o tivesse encontrado separadamente
e baixei mesmo assim. Esta opção representa um risco de segurança quando um FTP malicioso
O servidor pode fazer com que o Wget grave em arquivos fora dos diretórios pretendidos por meio de um
arquivo .LISTING especialmente criado.

Observe que, ao recuperar um arquivo (não um diretório), porque foi especificado no
linha de comando, em vez de porque foi redirecionada, esta opção não tem efeito.
Links simbólicos são sempre percorridos neste caso.

FTPS Opções
--ftps-implícito
Esta opção diz ao Wget para usar FTPS implicitamente. O FTPS implícito consiste na inicialização
SSL / TLS desde o início da conexão de controle. Esta opção não envia
um comando "AUTH TLS": ele assume que o servidor fala FTPS e inicia diretamente um
Conexão SSL / TLS. Se a tentativa for bem-sucedida, a sessão continua exatamente como
FTPS regular ("PBSZ" e "PROT" são enviados, etc.). FTPS implícito não é mais um
requisito para implementações FTPS e, portanto, muitos servidores podem não suportá-lo. Se
--ftps-implícito é passado e nenhum número de porta explícito especificado, a porta padrão para
FTPS implícito, 990, será usado, em vez da porta padrão para o "normal"
(explícito) FTPS que é o mesmo que FTP, 21.

--no-ftps-resume-ssl
Não retome a sessão SSL / TLS no canal de dados. Ao iniciar um dado
conexão, o Wget tenta retomar a sessão SSL / TLS iniciada anteriormente no controle
conexão. A retomada da sessão SSL / TLS evita a realização de um handshake totalmente novo por
reutilizando os parâmetros SSL / TLS de uma sessão anterior. Normalmente, os servidores FTPS querem
assim, Wget faz isso por padrão. Em raras circunstâncias, no entanto, pode-se
deseja iniciar uma sessão SSL / TLS inteiramente nova em cada conexão de dados. Isso é o que
--no-ftps-resume-ssl é para.

--ftps-clear-data-connection
Todas as conexões de dados serão em texto simples. Apenas a conexão de controle será
em SSL / TLS. O Wget irá enviar um comando "PROT C" para conseguir isso, que deve ser
aprovado pelo servidor.

--ftps-fallback-para-ftp
Retorne ao FTP se o FTPS não for compatível com o servidor de destino. Por razões de segurança,
esta opção não é declarada por padrão. O comportamento padrão é sair com um
erro. Se um servidor não responder com sucesso ao comando inicial "AUTH TLS", ou
no caso de FTPS implícito, se a tentativa de conexão SSL / TLS inicial for rejeitada,
considera-se que tal servidor não suporta FTPS.

Recursivo Recuperação Opções
-r
--recursivo
Ative a recuperação recursiva. A profundidade máxima padrão é 5.

-l profundidade
--level =profundidade
Especifique o nível de profundidade máxima de recursão profundidade.

--delete-depois
Esta opção diz ao Wget para excluir todos os arquivos que ele baixa, depois de tendo feito isso.
É útil para pré-buscar páginas populares por meio de um proxy, por exemplo:

wget -r -nd --delete-após http://whatever.com/~popular/page/

A -r opção é recuperar recursivamente, e -WL para não criar diretórios.

Observe que --delete-depois exclui arquivos na máquina local. Não emite o
DELE comando para sites FTP remotos, por exemplo. Observe também que quando --delete-depois is
Especificadas, --convert-links é ignorado, então .orig os arquivos simplesmente não são criados no
primeiro lugar.

-k
--convert-links
Depois que o download for concluído, converta os links no documento para torná-los
adequado para visualização local. Isso afeta não apenas os hiperlinks visíveis, mas qualquer
parte do documento com links para conteúdo externo, como imagens incorporadas, links para
folhas de estilo, hiperlinks para conteúdo não HTML, etc.

Cada link será alterado de uma das seguintes maneiras:

· Os links para arquivos que foram baixados pelo Wget serão alterados para se referir a
o arquivo para o qual eles apontam como um link relativo.

Exemplo: se o arquivo baixado /foo/doc.html links para /bar/img.gifEntão
baixado e, em seguida, o link em doc.html será modificado para apontar para ../bar/img.gif.
Este tipo de transformação funciona de forma confiável para combinações arbitrárias de
diretórios.

· Os links para arquivos que não foram baixados pelo Wget serão alterados para
incluem o nome do host e o caminho absoluto do local para o qual eles apontam.

Exemplo: se o arquivo baixado /foo/doc.html links para /bar/img.gif (ou para
../bar/img.gif), o link em doc.html será modificado para apontar para
http://hostname/bar/img.gif.

Por causa disso, a navegação local funciona de forma confiável: se um arquivo vinculado foi baixado, o
o link se referirá ao seu nome local; se não foi baixado, o link fará referência a
seu endereço de Internet completo em vez de apresentar um link quebrado. O fato de que
links anteriores são convertidos em links relativos garante que você possa mover o arquivo baixado
hierarquia para outro diretório.

Observe que somente ao final do download o Wget pode saber quais links foram
baixado. Por causa disso, o trabalho realizado por -k será realizado no final de todos
os downloads.

--converter-somente arquivo
Esta opção converte apenas a parte do nome do arquivo dos URLs, deixando o restante dos URLs
intocado. Esta parte do nome do arquivo às vezes é chamada de "nome de base", embora nós
evite esse termo aqui para não causar confusão.

Funciona particularmente bem em conjunto com --ajuste-extensão, embora isso
o acoplamento não é imposto. É útil preencher caches da Internet com arquivos
baixado de hosts diferentes.

Exemplo: se algum link aponta para //foo.com/bar.cgi?xyz com --ajuste-extensão afirmou
e seu destino local se destina a ser ./foo.com/bar.cgi?xyz.css, então o link
seria convertido para //foo.com/bar.cgi?xyz.css. Observe que apenas a parte do nome do arquivo tem
foi modificado. O resto do URL não foi alterado, incluindo o caminho da rede
("//") que de outra forma seria processado pelo Wget e convertido para o efetivo
esquema (ou seja, "http: //").

-K
--backup convertido
Ao converter um arquivo, faça backup da versão original com um .orig sufixo. Afeta o
Comportamento de -N.

-m
--espelho
Ative as opções adequadas para espelhamento. Esta opção ativa a recursão e tempo-
carimbo, define profundidade de recursão infinita e mantém listas de diretórios de FTP. Isto é
atualmente equivalente a -r -N -l inf --no-remove-listagem.

-p
--page-requisitos
Esta opção faz com que o Wget baixe todos os arquivos necessários para
exibir uma determinada página HTML. Isso inclui coisas como imagens embutidas, sons e
folhas de estilo referenciadas.

Normalmente, ao baixar uma única página HTML, todos os documentos necessários que podem ser
necessário para exibi-lo corretamente não são baixados. Usando -r Juntamente com -l pode ajudar,
mas como o Wget normalmente não distingue entre documentos externos e embutidos,
geralmente fica-se com "documentos folha" que não têm seus requisitos.

Por exemplo, diga documento 1.html contém um " "referência de tag 1.gif e um
tag " " apontando para documento externo 2.html. Diz isso 2.html é semelhante, mas isso
sua imagem é 2.gif e se conecta a 3.html. Diga que isso continua até alguns arbitrariamente
Número alto.

Se alguém executar o comando:

wget -r -l 2 http: // /1.html

então 1.html, 1.gif, 2.html, 2.gif e 3.html será baixado. Como você pode ver,
3.html está sem o seu requisito 3.gif porque Wget está simplesmente contando o número de
saltos (até 2) de distância de 1.html a fim de determinar onde parar a recursão.
No entanto, com este comando:

wget -r -l 2 -p http: // /1.html

todos os arquivos acima e 3.htmlrequisito de 3.gif será baixado. Similarmente,

wget -r -l 1 -p http: // /1.html

vai causar 1.html, 1.gif, 2.html e 2.gif para ser baixado. Alguém pode pensar que:

wget -r -l 0 -p http: // /1.html

baixaria apenas 1.html e 1.gif, mas infelizmente não é o caso, porque
-l 0 é equivalente a -l inf--- isto é, recursão infinita. Para baixar um único HTML
página (ou um punhado deles, todos especificados na linha de comando ou em um -i Entrada de URL
arquivo) e seus (ou seus) requisitos, basta deixar de fora -r e -l:

wget -p http: // /1.html

Observe que Wget se comportará como se -r foi especificado, mas apenas aquela única página e
seus requisitos serão baixados. Links dessa página para documentos externos irão
não ser seguido. Na verdade, para baixar uma única página e todos os seus requisitos (mesmo que
eles existem em sites separados), e certifique-se de que o lote seja exibido adequadamente no local,
este autor gosta de usar algumas opções além de -p:

wget -E -H -k -K -p http: // /

Para encerrar este tópico, é importante saber que a ideia de Wget de um documento externo
link é qualquer URL especificado em uma tag " ", um " "tag ou um" "marcar outro
que " "

--comentários estritos
Ative a análise estrita de comentários HTML. O padrão é encerrar os comentários no
primeira ocorrência de ->.

De acordo com as especificações, os comentários HTML são expressos como SGML declarações.
Declaração é uma marcação especial que começa com <! e termina com >, como <!DOCTYPE
...>, que pode conter comentários entre um par de -- delimitadores. Comentários HTML são
"declarações vazias", declarações SGML sem nenhum texto que não seja de comentário. Portanto,
é um comentário válido, e então é <!--um-- --dois ->, mas não é.

Por outro lado, a maioria dos escritores de HTML não percebe os comentários como outra coisa senão
texto delimitado com <!-- e ->, que não é exatamente o mesmo. Por exemplo, algo
como funciona como um comentário válido, desde que o número de travessões seja um
múltiplo de quatro (!). Caso contrário, o comentário durará tecnicamente até o próximo --, o qual
pode estar na outra extremidade do documento. Por causa disso, muitos navegadores populares
ignore completamente a especificação e implemente o que os usuários esperam:
comentários delimitados com <!-- e ->.

Até a versão 1.9, o Wget interpretava os comentários estritamente, o que resultava em links ausentes
em muitas páginas da web que eram exibidas bem nos navegadores, mas tiveram o azar de
contendo comentários não compatíveis. A partir da versão 1.9, o Wget se juntou ao
classificações de clientes que implementam comentários "ingênuos", encerrando cada comentário no
primeira ocorrência de ->.

Se, por algum motivo, você deseja uma análise estrita do comentário, use esta opção para transformá-la
em.

Recursivo Aceitar rejeitar Opções
-A lista de acesso --aceitar lista de acesso
-R lista de reabastecimento --rejeitar lista de reabastecimento
Especifique listas separadas por vírgulas de sufixos ou padrões de nome de arquivo para aceitar ou rejeitar.
Observe que se algum dos caracteres curinga, *, ?, [ or ], aparecem em um elemento de
lista de acesso or lista de reabastecimento, será tratado como um padrão, em vez de um sufixo. Nisso
caso, você deve colocar o padrão entre aspas para evitar que seu shell se expanda
isso, como em -A "* .mp3" or -A '* .mp3'.

--aceite-regex urlregex
--rejeitar-regex urlregex
Especifique uma expressão regular para aceitar ou rejeitar o URL completo.

--regex-type tipo de expressão regular
Especifique o tipo de expressão regular. Tipos possíveis são posix or pcre. Observe que para
ser capaz de usar pcre tipo, wget deve ser compilado com suporte libpcre.

-D lista de domínios
--domains =lista de domínios
Defina os domínios a serem seguidos. lista de domínios é uma lista de domínios separados por vírgulas. Observação
que faz não Ligar -H.

--excluir-domínios lista de domínios
Especifique os domínios que são não para ser seguido.

--follow-ftp
Siga os links de FTP de documentos HTML. Sem esta opção, Wget irá ignorar todos os
Links de FTP.

--follow-tags =Lista
Wget tem uma tabela interna de pares de tag / atributo HTML que considera quando
procurando documentos vinculados durante uma recuperação recursiva. Se um usuário deseja apenas um
subconjunto dessas tags a serem considerados, no entanto, ele ou ela deve especificar tais tags
separados por vírgulas Lista com esta opção.

--ignore-tags =Lista
Este é o oposto do --follow-tags opção. Para pular certas tags HTML quando
procurando recursivamente por documentos para baixar, especifique-os separados por vírgulas Lista.

No passado, essa opção era a melhor aposta para baixar uma única página e seu
requisitos, usando uma linha de comando como:

wget --ignore-tags = a, área -H -k -K -r http: // /

No entanto, o autor desta opção encontrou uma página com tags como "
HREF = "/"> "e chegou à conclusão de que especificar as tags a serem ignoradas não era suficiente.
Não se pode simplesmente dizer a Wget para ignorar " ", porque então as folhas de estilo não serão
baixado. Já a melhor aposta para baixar uma única página e seus requisitos é o
dedicado --page-requisitos opção.

--ignorar caso
Ignore maiúsculas e minúsculas ao combinar arquivos e diretórios. Isso influencia o comportamento de -R,
Opções -A, -I e -X, bem como globbing implementado ao baixar do FTP
sites. Por exemplo, com esta opção, -A "*.TXT" vai combinar file1.txt, Mas também
arquivo2.TXT, arquivo3.TxT, e assim por diante. As aspas no exemplo são para evitar o shell
de expandir o padrão.

-H
--span-hosts
Habilite a abrangência entre hosts ao fazer a recuperação recursiva.

-L
--relativo
Siga apenas links relativos. Útil para recuperar uma página inicial específica sem qualquer
distrações, nem mesmo aquelas dos mesmos hospedeiros.

-I Lista
--include-directory =Lista
Especifique uma lista separada por vírgulas de diretórios que deseja seguir durante o download.
Elementos de Lista pode conter curingas.

-X Lista
--exclude-directory =Lista
Especifique uma lista separada por vírgulas de diretórios que deseja excluir do download.
Elementos de Lista pode conter curingas.

-np
- nenhum pai
Nunca suba para o diretório pai ao recuperar recursivamente. Isto é um
opção útil, pois garante que apenas os arquivos abaixo uma certa hierarquia irá
ser baixado.

MEIO AMBIENTE


Wget oferece suporte a proxies para recuperações HTTP e FTP. A forma padrão de especificar proxy
local, que o Wget reconhece, está usando as seguintes variáveis ​​de ambiente:

proxy HTTP
https_proxy
Se definido, o proxy HTTP e https_proxy variáveis ​​devem conter os URLs do
proxies para conexões HTTP e HTTPS, respectivamente.

ftp_proxy
Esta variável deve conter o URL do proxy para conexões FTP. É bastante
comum isso proxy HTTP e ftp_proxy estão configurados para o mesmo URL.

sem_proxy
Esta variável deve conter uma lista separada por vírgulas de extensões de domínio que o proxy deve
não ser usado para. Por exemplo, se o valor de sem_proxy is .mit.edu, o proxy não vai
ser usado para recuperar documentos do MIT.

SAIR STATUS


Wget pode retornar um dos vários códigos de erro se encontrar problemas.

0 Nenhum problema ocorreu.

1 Código de erro genérico.

2 Erro de análise --- por exemplo, ao analisar opções de linha de comando, o .wgetrc or
.netrc...

3 Erro de E / S de arquivo.

4 Falha de rede.

5 Falha de verificação SSL.

6 Falha de autenticação de nome de usuário / senha.

7 Erros de protocolo.

8 O servidor emitiu uma resposta de erro.

Com as exceções de 0 e 1, os códigos de saída de numeração inferior têm precedência sobre
numerados, quando vários tipos de erros são encontrados.

Em versões do Wget anteriores a 1.12, o status de saída do Wget tendia a ser inútil e
inconsistente. Downloads recursivos virtualmente sempre retornariam 0 (sucesso), independentemente de
quaisquer problemas encontrados e as buscas não recursivas retornaram apenas o status correspondente
para a tentativa de download mais recente.

Use wget online usando serviços onworks.net


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad