АнглийскийФранцузскийИспанский

Ad


Значок OnWorks

wget - Интернет в облаке

Запустите wget в бесплатном хостинг-провайдере OnWorks через Ubuntu Online, Fedora Online, онлайн-эмулятор Windows или онлайн-эмулятор MAC OS

Это команда wget, которую можно запустить в бесплатном хостинг-провайдере OnWorks, используя одну из наших многочисленных бесплатных онлайн-рабочих станций, таких как Ubuntu Online, Fedora Online, онлайн-эмулятор Windows или онлайн-эмулятор MAC OS.

ПРОГРАММА:

ИМЯ


Wget - неинтерактивный сетевой загрузчик.

СИНТАКСИС


получить [вариант] ... [URL] ...

ОПИСАНИЕ


GNU Wget - это бесплатная утилита для неинтерактивной загрузки файлов из Интернета. Это
поддерживает протоколы HTTP, HTTPS и FTP, а также поиск через HTTP-прокси.

Wget не интерактивен, что означает, что он может работать в фоновом режиме, в то время как пользователь не
вошел. Это позволяет вам начать поиск и отключиться от системы, позволяя
Wget закончить работу. Напротив, большинство веб-браузеров требуют постоянного пользователя
присутствие, которое может стать большой помехой при передаче большого количества данных.

Wget может переходить по ссылкам на страницах HTML, XHTML и CSS для создания локальных версий удаленных
веб-сайты, полностью воссоздающие структуру каталогов исходного сайта. Это
иногда называется «рекурсивной загрузкой». При этом Wget уважает
Стандарт исключения роботов (/роботы.txt). Wget может быть проинструктирован преобразовать ссылки в
загруженные файлы, чтобы указать на локальные файлы для просмотра в автономном режиме.

Wget был разработан для обеспечения устойчивости к медленным или нестабильным сетевым соединениям; если
загрузка не удалась из-за проблем с сетью, повторная попытка будет продолжаться до тех пор, пока не будет сохранен весь файл.
был получен. Если сервер поддерживает регистрацию, он проинструктирует сервер продолжить
загрузка с того места, где она была остановлена.

Wget не поддерживает списки отзыва клиентов (CRL), поэтому сертификат HTTPS, которым вы являетесь
подключение к может быть отменено владельцем сайта.

ДОПОЛНИТЕЛЬНЫЕ УСЛУГИ, НЕ ВКЛЮЧЕННЫЕ В ПАКЕТ


Опция Синтаксис
Поскольку Wget использует GNU getopt для обработки аргументов командной строки, каждая опция имеет длинную форму
вместе с коротким. Длинные варианты удобнее запоминать, но нужно время, чтобы
тип. Вы можете свободно смешивать разные стили опций или указывать опции после команды -
строковые аргументы. Таким образом, вы можете написать:

wget -r --tries = 10 http://fly.srk.fer.hr/ -o журнал

Пробел между опцией, принимающей аргумент, и аргументом может быть опущен.
Вместо -o журнал ты можешь написать -олог.

Вы можете объединить несколько параметров, не требующих аргументов, например:

wget -drc

Это полностью эквивалентно:

wget -d -r -c

Поскольку параметры могут быть указаны после аргументов, вы можете завершить их с помощью --.
Таким образом, следующее попытается загрузить URL-адрес -x, сообщая об отказе журнал:

wget -o журнал - -x

Все параметры, которые принимают списки, разделенные запятыми, соблюдают соглашение, определяющее
пустой список очищает свое значение. Это может быть полезно для очистки .wgetrc настройки. Для
например, если ваш .wgetrc устанавливает "exclude_directories" на / cgi-bin, следующий пример
сначала сбросит его, а затем установит исключение / ~ никто и / ~ кто-нибудь. Вы также можете
очистить списки в .wgetrc.

wget -X "-X / ~ никто, / ~ кто-то

Большинство опций, которые не принимают аргументы, логический варианты, названные так потому, что их
состояние может быть зафиксировано с помощью переменной типа «да» или «нет» («логической»). Например, --follow-ftp
сообщает Wget следовать FTP-ссылкам из файлов HTML и, с другой стороны, --no-glob говорит это
не выполнять подстановку файлов на URL-адресах FTP. Логический вариант - это либо утвердительный or
отрицательный (начиная с --нет). Все такие варианты имеют несколько общих свойств.

Если не указано иное, предполагается, что поведение по умолчанию противоположно тому, что
вариант выполняется. Например, документально подтвержденное существование --follow-ftp предполагает,
что по умолчанию не переходите по FTP-ссылкам со страниц HTML.

Утвердительные варианты могут быть отменены, если перед --нет- к названию опции; отрицательный
параметры можно отменить, опуская --нет- приставка. Это может показаться излишним --- если
по умолчанию утвердительный вариант - ничего не делать, тогда зачем предоставлять способ
явно выключить? Но на самом деле файл запуска может изменить значение по умолчанию. Для
например, используя "follow_ftp = on" в .wgetrc делает Wget следовать Ссылки FTP по умолчанию, и
через --no-follow-ftp это единственный способ восстановить заводские настройки по умолчанию с помощью команды
линии.

Базовый Стартап Опции
-V
--версия
Отобразите версию Wget.

-h
--Помогите
Распечатайте справочное сообщение, описывающее все параметры командной строки Wget.

-b
--фон
Перейти в фоновый режим сразу после запуска. Если выходной файл не указан через
-o, вывод перенаправляется на wget-журнал.

-e команду
--выполнять команду
Выполнить команду как если бы это было частью .wgetrc. Вызванная таким образом команда будет
выполненный после команды в .wgetrc, таким образом имея приоритет над ними. Если тебе нужно
чтобы указать более одной команды wgetrc, используйте несколько экземпляров -e.

Запись и вход Файл Опции
-o журнальный файл
--output-file =журнальный файл
Записывать все сообщения в журнальный файл. Сообщения обычно передаются стандартной ошибке.

-a журнальный файл
--append-output =журнальный файл
Добавить в журнальный файл. Это то же самое, что и -o, только он добавляется к журнальный файл вместо
перезапись старого файла журнала. Если журнальный файл не существует, создается новый файл.

-d
--отлаживать
Включите вывод отладки, что означает различную информацию, важную для разработчиков Wget.
если он не работает должным образом. Ваш системный администратор, возможно, решил скомпилировать
Wget без поддержки отладки, и в этом случае -d не будет работать. Обратите внимание, что
компиляция с поддержкой отладки всегда безопасна --- Wget скомпилирован с поддержкой отладки
будете не распечатайте любую отладочную информацию, если не запрошено с -d.

-q
--тихий
Отключите вывод Wget.

-v
--подробный
Включите подробный вывод со всеми доступными данными. По умолчанию вывод является подробным.

-nv
- без подробностей
Отключите подробный вывод, не будучи полностью тихим (используйте -q для этого), что означает, что
сообщения об ошибках и основная информация по-прежнему печатаются.

--report-speed =напишите
Выходная полоса пропускания как напишите. Единственное допустимое значение - биты.

-i файл
--input-file =файл
Чтение URL-адресов с локального или внешнего файл. Если - указывается как файл, URL читаются
со стандартного ввода. (Использовать ./- читать из файла с буквальным именем -.)

Если используется эта функция, в командной строке указывать URL-адреса не требуется. Если есть
URL-адреса как в командной строке, так и во входном файле, URL-адреса в командной строке будут
первые будут извлечены. Если --force-html не указывается, тогда файл должен
состоят из серии URL-адресов, по одному в каждой строке.

Однако, если вы укажете --force-html, документ будет считаться HTML. В этом
Если у вас могут возникнуть проблемы с относительными ссылками, которые вы можете решить, добавив
"url ">" к документам или указав --base =URL в командной строке.

Если же линия индикатора файл является внешним, документ будет автоматически рассматриваться как HTML if
Content-Type соответствует Текст / HTML, Кроме того, файлместонахождение будет
неявно используется как базовый href, если ничего не указано.

--input-metalink =файл
Загружает файлы, размещенные в местном Metalink файл. Metalink версии 3 и 4
поддерживается.

--metalink-через-http
Выдает HTTP-запрос HEAD вместо GET и извлекает метаданные Metalink из ответа
заголовки. Затем он переключается на загрузку Metalink. Если действительные метаданные Metalink не указаны
обнаружено, он возвращается к обычной загрузке HTTP.

--Предпочтительное Местоположение
Установите предпочтительное местоположение для ресурсов Metalink. Это действует, если несколько ресурсов
с таким же приоритетом доступны.

-F
--force-html
Когда ввод считывается из файла, принудительно обрабатывать его как файл HTML. Это позволяет
вы можете получить относительные ссылки из существующих файлов HTML на вашем локальном диске, добавив
"url ">" в HTML или с помощью --база параметр командной строки.

-B URL
--base =URL
Разрешает относительные ссылки с помощью URL как ориентир при чтении ссылок из
файл HTML, указанный через -i/- входной файл вариант (вместе с --force-htmlили
когда входной файл был получен удаленно с сервера, описывающего его как HTML). Это
эквивалентно наличию тега "BASE" во входном файле HTML, с URL как
значение атрибута "href".

Например, если вы укажете http://foo/bar/a.html для URL, а Wget читает
../баз/b.html из входного файла будет разрешено http://foo/baz/b.html.

--config =ФАЙЛОВ
Укажите расположение файла запуска, который вы хотите использовать.

--rejected-log =журнальный файл
Регистрирует все отклоненные URL-адреса в журнальный файл как значения, разделенные запятыми. Значения включают
причина отказа, URL-адрес и родительский URL-адрес, в котором он был найден.

Скачать Опции
--bind-адрес =АДРЕС
При создании клиентских подключений TCP / IP привяжите к АДРЕС на локальной машине. АДРЕС
может быть указан как имя хоста или IP-адрес. Эта опция может быть полезна, если ваш
машина привязана к нескольким IP-адресам.

-t номер
--tries =номер
Установить количество попыток номер. Укажите 0 или инф для бесконечных повторных попыток. По умолчанию
повторить попытку 20 раз, за ​​исключением фатальных ошибок, таких как «соединение отклонено» или
«не найдено» (404), которые не выполняются повторно.

-O файл
--output-document =файл
Документы не будут записаны в соответствующие файлы, но все будут
соединены вместе и записаны в файл. Если - используется как файл, документы будут
распечатывается в стандартный вывод, отключая преобразование ссылок. (Использовать ./- распечатать в файл
буквально названный -.)

использование -O is не означает просто "использовать имя файл вместо того, что в
URL; "скорее аналогично перенаправлению оболочки: Wget -O файл http://foo is
предназначен для работы как Wget -O - http://foo > файл; файл будет немедленно усечен,
и Найти загруженный контент будет записан туда.

По этой причине, -N (для проверки отметки времени) не поддерживается в сочетании с -O:
с файл всегда создается заново, у него всегда будет очень новая отметка времени. А
при использовании этой комбинации будет выдано предупреждение.

Аналогично, используя -r or -p -O может работать не так, как вы ожидаете: Wget не просто скачает
первый файл для файл а затем загрузите остальные под их обычными именами: Найти
загруженный контент будет помещен в файл. Это было отключено в версии 1.11, но
был восстановлен (с предупреждением) в 1.11.2, так как в некоторых случаях это
поведение действительно может иметь некоторую пользу.

Комбинация с -нк принимается только в том случае, если данный выходной файл не существует.

Обратите внимание, что комбинация с -k разрешено только при загрузке одного документа,
поскольку в этом случае он просто преобразует все относительные URI во внешние; -k не делает нет
смысл для нескольких URI, когда все они загружаются в один файл; -k может быть
используется только тогда, когда на выходе получается обычный файл.

-нк
- не затирать
Если файл загружается более одного раза в один и тот же каталог, поведение Wget зависит от
на несколько вариантов, в том числе -нк. В некоторых случаях локальный файл будет затерт,
или перезаписываются при повторной загрузке. В остальных случаях он будет сохранен.

При запуске Wget без -N, -нк, -rили -p, скачивая тот же файл в том же
каталог приведет к исходной копии файл сохраняется, а вторая копия
быть названным файл.1. Если этот файл будет загружен еще раз, третья копия будет
названный файл.2, и так далее. (Это также поведение с , даже если -r or -p есть
эффект.) Когда -нк указано, это поведение подавляется, и Wget откажется
скачать новые копии файл. Следовательно, "no-clobber" на самом деле неправильное употребление
этот режим --- это не мешает затиранию (поскольку числовые суффиксы уже были
предотвращение затирания), а скорее предотвращенное сохранение нескольких версий.

При запуске Wget с -r or -p, Но без -N, или -нк, повторная загрузка файла
приведет к тому, что новая копия просто перезапишет старую. Добавление -нк предотвратит это
поведение, вместо этого сохраняя исходную версию и все новые копии на
игнорируемый сервер.

При запуске Wget с -N, с или без -r or -p, решение о том, следует ли
загрузка более новой копии файла зависит от локальной и удаленной метки времени и размера
файла. -нк нельзя указывать одновременно с -N.

Комбинация с -O/--выходной-документ принимается только в том случае, если данный выходной файл
не существует.

Обратите внимание, что когда -нк указано, файлы с суффиксами . HTML or . Htm будет загружен
с локального диска и анализируются, как если бы они были получены из Интернета.

--backups =Операции резервного копирования
Перед (перед) записью файла сделайте резервную копию существующего файла, добавив .1 суффикс (_1 on
VMS) к имени файла. Такие файлы резервных копий поворачиваются в .2, .3и так далее до
Операции резервного копирования (и потеряли сверх того).

-c
--Продолжить
Продолжайте получать частично загруженный файл. Это полезно, когда вы хотите закончить
вверх загрузку, начатую предыдущим экземпляром Wget или другой программой. Для
пример:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Если есть файл с именем лс-лр.з в текущем каталоге Wget будет считать, что это
первая часть удаленного файла и попросит сервер продолжить
извлечение со смещения, равного длине локального файла.

Обратите внимание, что вам не нужно указывать этот параметр, если вам просто нужен текущий
вызов Wget для повторной загрузки файла, если соединение будет потеряно на полпути
через. Это поведение по умолчанию. -c влияет только на возобновление загрузок
и политические лидеры предшествующий к этому вызову Wget, и чьи локальные файлы все еще сидят
вокруг.

Без -c, в предыдущем примере удаленный файл просто загружался в лс-лР.З.1,
оставив усеченный лс-лр.з файл в одиночку.

Начиная с Wget 1.7, если вы используете -c на непустом файле, и оказывается, что
сервер не поддерживает дальнейшую загрузку, Wget откажется начать загрузку
с нуля, что фактически испортит существующее содержимое. Если ты действительно хочешь
скачать для начала с нуля удалите файл.

Также начиная с Wget 1.7, если вы используете -c в файле того же размера, что и
один на сервере, Wget откажется загрузить файл и напечатает пояснительную
сообщение. То же самое происходит, когда файл на сервере меньше, чем локально
(предположительно потому, что он был изменен на сервере с момента вашей последней загрузки
попытка) --- поскольку "продолжение" не имеет смысла, загрузка не выполняется.

С другой стороны, при использовании -c, любой файл большего размера на сервере
чем локально будет считаться неполной загрузкой и только "(длина (удаленная) -
length (local)) "байты будут загружены и прикреплены к концу локального файла.
Такое поведение может быть желательным в определенных случаях - например, вы можете использовать Wget -c в
загрузите только новую часть, которая была добавлена ​​в сборник данных или файл журнала.

Однако, если файл на сервере больше, потому что он был менялась, в отличие от
всего прилагается к, вы получите искаженный файл. Wget не может проверить
что локальный файл действительно является допустимым префиксом удаленного файла. Ты должен быть
особенно осторожно с этим при использовании -c в сочетании с -r, так как каждый файл будет
рассматриваться как кандидат на "неполную загрузку".

Другой случай, когда вы получите искаженный файл, если попытаетесь использовать -c если у вас есть
хромой HTTP-прокси, который вставляет строку «передача прервана» в локальный файл. В
в будущем может быть добавлена ​​опция «отката», чтобы справиться с этим случаем.

Обратите внимание, что -c работает только с FTP-серверами и с HTTP-серверами, которые поддерживают
Заголовок «Диапазон».

--start-pos =OFFSET
Начать загрузку с нулевой позиции OFFSET. Смещение может быть выражено в байтах,
килобайты с суффиксом `k 'или мегабайты с суффиксом` m' и т. д.

--start-pos имеет более высокий приоритет перед --Продолжить. Когда --start-pos и --Продолжить
оба указаны, wget выдаст предупреждение, а затем продолжит работу, как если бы --Продолжить отсутствовал

Для продолжения загрузки требуется поддержка сервера, в противном случае --start-pos не могу помочь.
Читать -c для получения информации.

--progress =напишите
Выберите тип индикатора прогресса, который вы хотите использовать. Юридические индикаторы - «точка»
и «бар».

По умолчанию используется индикатор «бар». Он рисует графику индикатора выполнения в формате ASCII
(он же «дисплей термометра»), указывающий на статус поиска. Если на выходе
не телетайп, по умолчанию будет использоваться "точечная" полоса.

Используйте --progress = точка для переключения на "точечный" дисплей. Отслеживает поиск по
печать точек на экране, каждая точка представляет фиксированный объем загруженных данных.

Прогресс напишите также может принимать один или несколько параметров. Параметры различаются в зависимости от
домен напишите выбрано. Параметры для напишите передаются путем добавления их к типу
через двоеточие (:) вот так: --progress =напишите:parameter1:parameter2.

При использовании точечного поиска вы можете установить стиль указав тип как
точка:стиль. В разных стилях одной точке присваивается разное значение. При "дефолте"
стиль: каждая точка представляет 1К, десять точек в кластере и 50 точек в строке.
«Бинарный» стиль имеет более «компьютерную» ориентацию - 8 тыс. Точек, кластеры из 16 точек.
и 48 точек на строку (что составляет 384 тыс. строк). Стиль «мега» подходит для
загрузка больших файлов - каждая точка соответствует полученным 64 КБ, восемь точек в
кластер и 48 точек в каждой строке (так что каждая строка содержит 3M). Если "мега" мало
тогда вы можете использовать стиль "гига" - каждая точка представляет 1M извлеченных, есть восемь
точек в кластере и 32 точки в каждой строке (таким образом, каждая строка содержит 32M).

Доступно --progress = bar, в настоящее время есть два возможных параметра, сила и нет свитка.

Если вывод не является телетайпом, индикатор выполнения всегда возвращается к "точке", даже если
--progress = bar был передан Wget во время вызова. Это поведение можно переопределить
и выход "bar" принудительно с использованием параметра "force" как --progress = bar: force.

По умолчанию, бар стиль индикатора выполнения прокрутите имя файла слева направо
для загружаемого файла, если имя файла превышает максимальную длину, отведенную для
его отображение. В некоторых случаях, например, с --progress = bar: force, можно не хотеть
прокручиваемое имя файла на индикаторе выполнения. Передавая параметр "noscroll", Wget
можно заставить отображать как можно больше имени файла без прокрутки
его.

Обратите внимание, что вы можете установить стиль по умолчанию, используя команду "progress" в .wgetrc. Что
настройка может быть переопределена из командной строки. Например, чтобы заставить вывод бара
без прокрутки используйте --progress = bar: force: noscroll.

--show-прогресс
Заставить wget отображать индикатор выполнения с любой подробностью.

По умолчанию wget отображает индикатор выполнения только в подробном режиме. Однако можно
хотите, чтобы wget отображал индикатор выполнения на экране вместе с любыми другими
режимы многословности, такие как - без подробностей or --тихий. Это часто желаемое свойство, когда
вызов wget для загрузки нескольких маленьких / больших файлов. В таком случае wget может
просто вызывайтесь с этим параметром, чтобы получить более чистый вывод на экране.

Эта опция также приведет к тому, что индикатор выполнения будет напечатан на STDERR при использовании
наряду с --лог-файл опцию.

-N
- отметка времени
Включите отметку времени.

- нет-если-изменено-с тех пор
Не отправлять заголовок If-Modified-Since в -N режим. Отправить предварительный запрос HEAD
вместо. Это действует только в -N Режим.

--no-use-server-timestamps
Не устанавливайте метку времени локального файла по метке на сервере.

По умолчанию, когда файл загружается, его временные метки устанавливаются в соответствии с метками из
удаленный файл. Это позволяет использовать - отметка времени при последующих вызовах wget.
Однако иногда полезно основывать временную метку локального файла на том, когда он был
фактически скачано; с этой целью --no-use-server-timestamps вариант был
при условии.

-S
- сервер-ответ
Распечатайте заголовки, отправленные HTTP-серверами, и ответы, отправленные FTP-серверами.

- паук
При вызове с этой опцией Wget будет вести себя как веб-сайт. паук, что означает, что это
не будет загружать страницы, просто проверьте, что они есть. Например, вы можете использовать
Wget, чтобы проверить свои закладки:

wget --spider --force-html -i bookmarks.html

Эта функция требует гораздо большей работы, чтобы Wget приблизился к функциональности реальной
веб-пауки.

-T секунды
--timeout =секунды
Установите время ожидания сети на секунды секунд. Это эквивалентно указанию
--dns-тайм-аут, --connect-тайм-ауткачества --read-тайм-аут, Все одновременно.

При взаимодействии с сетью Wget может проверить тайм-аут и прервать операцию.
если это займет слишком много времени. Это предотвращает такие аномалии, как зависание чтения и бесконечное
соединяет. Единственный включенный по умолчанию тайм-аут - это 900-секундный тайм-аут чтения. Параметр
таймаут до 0 полностью отключает его. Если вы не знаете, что делаете, это лучше
не изменять настройки тайм-аута по умолчанию.

Все параметры, связанные с тайм-аутом, принимают десятичные значения, а также субсекундные значения. Для
пример, 0.1 секунды - это законный (хотя и неразумный) выбор тайм-аута. Субсекундные таймауты
полезны для проверки времени ответа сервера или для проверки задержки в сети.

--dns-timeout =секунды
Установите тайм-аут поиска DNS на секунды секунд. Поиск DNS, который не завершается в
указанное время не удастся. По умолчанию при поиске DNS тайм-аут отсутствует, другие
чем то, что реализовано системными библиотеками.

--connect-timeout =секунды
Установите тайм-аут подключения на секунды секунд. TCP-соединения, для которых требуется больше времени
установка будет прервана. По умолчанию нет тайм-аута подключения, кроме этого
реализуется системными библиотеками.

--read-timeout =секунды
Установите тайм-аут чтения (и записи) на секунды секунд. «Время» этого тайм-аута
относится к холостой ход время: если в какой-либо момент загрузки данные для большего количества не получены
чем указанное количество секунд, чтение завершится ошибкой и загрузка будет перезапущена.
Этот параметр не влияет напрямую на продолжительность всей загрузки.

Конечно, удаленный сервер может решить прервать соединение раньше, чем это
вариант требует. Таймаут чтения по умолчанию составляет 900 секунд.

--limit-rate =количество
Ограничьте скорость загрузки до количество байтов в секунду. Сумма может быть выражена в
байты, килобайты с k суффикс или мегабайты с m суффикс. Например,
--limit-rate = 20 тыс. ограничит скорость извлечения до 20 КБ / с. Это полезно, когда для
по какой-то причине вы не хотите, чтобы Wget занимал всю доступную полосу пропускания.

Эта опция позволяет использовать десятичные числа, обычно в сочетании с степенями.
суффиксы; Например, --limit-rate = 2.5 тыс. юридическое значение.

Обратите внимание, что Wget реализует ограничение, засыпая соответствующее количество времени.
после чтения сети, которое заняло меньше времени, чем указано в скорости. В конце концов это
Стратегия заставляет передачу TCP замедляться примерно до указанной скорости.
Однако для достижения этого баланса может потребоваться некоторое время, поэтому не удивляйтесь.
если ограничение скорости не работает с очень маленькими файлами.

-w секунды
--wait =секунды
Подождите указанное количество секунд между извлечениями. Использование этой опции
рекомендуется, так как это снижает нагрузку на сервер, делая запросы менее частыми.
Вместо секунд можно указать время в минутах с помощью суффикса «m» в
часов с суффиксом «h» или в днях с суффиксом «d».

Задание большого значения для этого параметра полезно, если сеть или пункт назначения
хост не работает, поэтому Wget может ждать достаточно долго, чтобы разумно ожидать ошибки сети
будет исправлено перед повторной попыткой. Интервал ожидания, заданный этой функцией, равен
под влиянием "--random-wait", которое видит.

--waitretry =секунды
Если вы не хотите, чтобы Wget ждал между каждую поиск, но только между повторными попытками
неудачные загрузки, вы можете использовать эту опцию. Wget будет использовать линейный отвали, ожидание 1
второй после первого сбоя в данном файле, затем подождите 2 секунды после
второй сбой в этом файле, до максимального количества секунды вы указываете.

По умолчанию Wget принимает значение 10 секунд.

- случайное ожидание
Некоторые веб-сайты могут выполнять анализ журналов для выявления программ поиска, таких как Wget,
ищет статистически значимое сходство во времени между запросами. Этот
опция приводит к тому, что время между запросами варьируется от 0.5 до 1.5 * ждать секунды,
в котором ждать был указан с использованием --ждать опция, чтобы замаскировать присутствие Wget
из такого анализа.

Статья 2001 года в публикации, посвященная разработке на популярной потребительской платформе.
предоставленный код для выполнения этого анализа на лету. Его автор предложил заблокировать на
уровень адреса класса C, чтобы гарантировать, что программы автоматического поиска были заблокированы, несмотря на
изменение адресов, предоставленных DHCP.

Ассоциация - случайное ожидание вариант был вдохновлен этой опрометчивой рекомендацией заблокировать многие
несвязанные пользователи с веб-сайта из-за действий одного.

--без прокси
Не используйте прокси, даже если определена соответствующая переменная среды * _proxy.

-Q квота
--quota =квота
Укажите квоту загрузки для автоматического получения. Значение может быть указано в байтах
(по умолчанию), килобайты (с k суффикс) или мегабайты (с m суффикс).

Обратите внимание, что квота никогда не влияет на загрузку одного файла. Итак, если вы укажете Wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, все из ls-lR.gz будет загружен. В
то же самое происходит, даже когда в командной строке указано несколько URL-адресов. Однако квота
соблюдается при извлечении рекурсивно или из входного файла. Таким образом, вы можете
безопасно печатать Wget -Q2м -i места--- загрузка будет прервана при превышении квоты.

Установка квоты на 0 или на инф не ограничивает квоту на скачивание.

--нет-dns-кэш
Отключите кеширование запросов DNS. Обычно Wget запоминает IP-адреса, которые он искал.
из DNS, поэтому ему не нужно повторно связываться с DNS-сервером для того же
(обычно небольшой) набор хостов, с которых он извлекается. Этот кеш существует только в памяти; а
новый запуск Wget снова свяжется с DNS.

Однако сообщалось, что в некоторых ситуациях кэшировать
имена хостов, даже на время работы краткосрочного приложения, такого как Wget. С этим
опция Wget выполняет новый поиск DNS (точнее, новый вызов "gethostbyname" или
"getaddrinfo") каждый раз, когда он устанавливает новое соединение. Обратите внимание, что эта опция
не влияют на кеширование, которое может выполняться библиотекой разрешения или внешним
слой кеширования, такой как NSCD.

Если вы не совсем понимаете, что делает эта опция, вероятно, она вам не понадобится.

--restrict-file-names =Режимы
Измените, какие символы, найденные в удаленных URL-адресах, должны быть экранированы во время генерации
локальные имена файлов. Персонажи, которые ограниченный по этой опции экранируются, т.е.
заменено на % ЧЧ, Где HH шестнадцатеричное число, соответствующее
ограниченный характер. Эту опцию также можно использовать для принудительного использования всех алфавитных регистров.
быть в нижнем или верхнем регистре.

По умолчанию Wget экранирует символы, которые недопустимы или безопасны как часть файла.
имена в вашей операционной системе, а также управляющие символы, которые обычно
непечатный. Эта опция полезна для изменения этих значений по умолчанию, возможно, потому что вы
загружаются в чужой раздел или потому, что вы хотите отключить экранирование
управляющие символы, или вы хотите дополнительно ограничить символы только теми, которые находятся в
диапазон значений ASCII.

Ассоциация Режимы представляют собой набор текстовых значений, разделенных запятыми. Допустимые значения: Юникс,
окна, NoControl, ASCII, в нижнем регистрекачества верхний регистр, Ценности Юникс и окна Он
взаимоисключающие (один будет преобладать над другим), как и в нижнем регистре и верхний регистр.
Последние являются частными случаями, поскольку они не меняют набор символов, которые могут
быть экранированным, а скорее принудительно преобразовать локальные пути к файлам в более низкие или
верхний регистр.

Когда указано "unix", Wget экранирует символ / и управляющие символы в
диапазоны 0-31 и 128-159. Это значение по умолчанию в Unix-подобных операционных системах.

Когда задано "windows", Wget экранирует символы \, |, /, :, ?, ", *, <, >качества
управляющие символы в диапазонах 0-31 и 128-159. В дополнение к этому, Wget в
В режиме Windows используется + вместо : для разделения хоста и порта в именах локальных файлов и
использования @ вместо ? чтобы отделить запрашиваемую часть имени файла от остальной части.
Следовательно, URL-адрес, который будет сохранен как www.xemacs.org:4300/search.pl?input=blah in
Режим Unix будет сохранен как www.xemacs.org+4300/search.pl@input=blah в режиме Windows.
Этот режим установлен в Windows по умолчанию.

Если вы укажете NoControl, то также переключается экранирование управляющих символов
выключенный. Эта опция может иметь смысл, когда вы загружаете URL-адреса, имена которых содержат
Символы UTF-8 в системе, которая может сохранять и отображать имена файлов в UTF-8 (некоторые
возможные значения байтов, используемые в байтовых последовательностях UTF-8, попадают в диапазон значений
обозначается Wget как «контроль»).

Ассоциация ASCII режим используется, чтобы указать, что любые байты, значения которых находятся вне диапазона
Символы ASCII (то есть больше 127) должны быть экранированы. Это может быть полезно, когда
сохранение имен файлов, кодировка которых не совпадает с используемой локально.

-4
--inet4-только
-6
--inet6-только
Принудительно подключиться к адресам IPv4 или IPv6. С участием --inet4-только or -4, Wget будет только
подключаться к хостам IPv4, игнорируя записи AAAA в DNS и отказываясь подключаться к IPv6
адреса, указанные в URL. И наоборот, с --inet6-только or -6, Wget будет только
подключаться к хостам IPv6 и игнорировать записи A и адреса IPv4.

Никаких опций обычно не требуется. По умолчанию Wget с поддержкой IPv6 будет использовать
семейство адресов, указанное DNS-записью хоста. Если DNS отвечает обоими
Адреса IPv4 и IPv6, Wget будет пробовать их последовательно, пока не найдет подходящий.
подключиться к. (Также см. Параметр "--prefer-family", описанный ниже.)

Эти параметры могут использоваться для преднамеренного принудительного использования адреса IPv4 или IPv6.
семейства в системах с двойным семейством, обычно для помощи в отладке или для устранения неисправных
конфигурация сети. Только один из --inet6-только и --inet4-только может быть указано на
в то же время. Ни один из вариантов недоступен в Wget, скомпилированном без поддержки IPv6.

--prefer-family = нет / IPv4 / IPv6
Когда предоставляется выбор из нескольких адресов, подключаться к адресам с указанными
сначала обратитесь к семье. Порядок адресов, возвращаемый DNS, используется без изменений
по умолчанию.

Это позволяет избежать ложных ошибок и попыток подключения при доступе к хостам, которые разрешают
адреса IPv6 и IPv4 из сетей IPv4. Например, www.kame.net сборник законов
в 2001:200:0:8002:203:47ff:fea5:3085 и 203.178.141.194. Когда предпочтительнее
семейство «IPv4», первым используется адрес IPv4; когда предпочтительным семейством является «IPv6»,
адрес IPv6 используется первым; если указанное значение равно "none", порядок адресов
возвращенный DNS используется без изменений.

В отличие от -4 и -6, эта опция не запрещает доступ к какому-либо семейству адресов, а только
изменяет заказ в котором осуществляется доступ к адресам. Также обратите внимание, что переупорядочивание
выполняется по этой опции стабильный--- это не влияет на порядок адресов одного и того же
семья. То есть относительный порядок всех адресов IPv4 и всех адресов IPv6
остается неизменным во всех случаях.

--retry-connrefused
Считайте «соединение отклонено» временной ошибкой и попробуйте еще раз. Обычно Wget сдается
по URL-адресу, когда он не может подключиться к сайту, потому что не удается подключиться
как признак того, что сервер вообще не работает и повторные попытки не помогут. Этот
вариант предназначен для зеркалирования ненадежных сайтов, серверы которых имеют тенденцию к кратковременному исчезновению
периоды времени.

--user =пользователь
--password =password
Укажите имя пользователя пользователь и пароль password для получения файлов как по FTP, так и по HTTP.
Эти параметры можно переопределить с помощью --ftp-пользователь и --ftp-пароль варианты для
FTP-соединения и --http-пользователь и --http-пароль параметры для HTTP-соединений.

--ask-пароль
Запрашивать пароль для каждого установленного соединения. Не может быть указано, когда
--пароль используется, потому что они исключают друг друга.

--но-ири
Отключите поддержку интернационализированного URI (IRI). Использовать --ири включить это. Поддержка IRI
активировано по умолчанию.

Вы можете установить состояние поддержки IRI по умолчанию, используя команду "iri" в .wgetrc. Что
настройка может быть переопределена из командной строки.

--local-encoding =кодирование
Заставить Wget использовать кодирование в качестве системной кодировки по умолчанию. Это влияет на то, как Wget
преобразует URL-адреса, указанные в качестве аргументов, из локали в UTF-8 для поддержки IRI.

Wget использует функцию "nl_langinfo ()", а затем переменную среды "CHARSET", чтобы
получить локаль. Если это не удается, используется ASCII.

Вы можете установить локальную кодировку по умолчанию с помощью команды "local_encoding" в .wgetrc.
Этот параметр можно изменить из командной строки.

--remote-encoding =кодирование
Заставить Wget использовать кодирование в качестве кодировки удаленного сервера по умолчанию. Это влияет на то, как
Wget преобразует найденные в файлах URI из удаленной кодировки в UTF-8 во время рекурсивного
принести. Эта опция полезна только для поддержки IRI, для интерпретации не-
Символы ASCII.

Для HTTP удаленное кодирование можно найти в заголовке HTTP Content-Type и в HTML.
Мета-тег Content-Type http-Equiv.

Вы можете установить кодировку по умолчанию, используя команду "remoteencoding" в .wgetrc. Что
настройка может быть переопределена из командной строки.

--отключить
Заставить Wget отключить файл вместо того, чтобы затирать существующий файл. Эта опция полезна
для скачивания в каталог с жесткими ссылками.

Каталог Опции

--no-каталоги
Не создавайте иерархию каталогов при рекурсивном извлечении. С этим
опция включена, все файлы будут сохранены в текущий каталог, без
затирание (если имя появляется более одного раза, имена файлов будут иметь расширения .n).

-x
--force-каталоги
Противоположно --- создать иерархию каталогов, даже если бы ее не было
был создан иначе. Например Wget -x http://fly.srk.fer.hr/robots.txt сохранит
загруженный файл в fly.srk.fer.hr/robots.txt.

-nH
--no-host-каталогов
Отключить создание каталогов с префиксом хоста. По умолчанию вызов Wget с -r
http://fly.srk.fer.hr/ создаст структуру каталогов, начинающуюся с
fly.srk.fer.hr/. Эта опция отключает такое поведение.

--protocol-каталоги
Используйте имя протокола как компонент каталога для имен локальных файлов. Например, с
этот вариант, Wget -r http://кашель сохраню в HTTP /кашель/ ... а не просто
кашель/ ....

--cut-dirs =номер
Игнорировать номер компоненты каталога. Это полезно для получения детального контроля
над каталогом, в котором будет сохранен рекурсивный поиск.

Возьмем, к примеру, каталог по адресу ftp://ftp.xemacs.org/pub/xemacs/. Если вы получите
это с -r, он будет сохранен локально в ftp.xemacs.org/pub/xemacs/. В то время как -nH
вариант может удалить ftp.xemacs.org/ часть, ты все еще застрял с pub / xemacs. Это
это здесь --cut-диры пригодится; это заставляет Wget не "видеть" номер удаленный каталог
компоненты. Вот несколько примеров того, как --cut-диры вариант работает.

Без параметров -> ftp.xemacs.org/pub/xemacs/
-nH -> pub / xemacs /
-nH --cut-dirs = 1 -> xemacs /
-nH --cut-dirs = 2 ->.

--cut-dirs = 1 -> ftp.xemacs.org/xemacs/
...

Если вы просто хотите избавиться от структуры каталогов, этот параметр похож на
комбинация и -P, Однако, в отличие от , --cut-диры не проигрывает с
подкаталоги --- например, с -nH --cut-dirs = 1, чтобы бета/ подкаталог будет
помещен в xemacs / бета, как и следовало ожидать.

-P префикс
- префикс-каталога =префикс
Установите префикс каталога на префикс, каталог префикс это каталог, в котором находятся все остальные
файлы и подкаталоги будут сохранены, т. е. в верхнюю часть дерева поиска. В
по умолчанию . (текущий каталог).

HTTP Опции
--default-page =имя
Используйте имя в качестве имени файла по умолчанию, когда оно неизвестно (например, для URL-адресов, заканчивающихся на
косая черта) вместо index.html.

-E
--adjust-расширение
Если файл типа приложение / XHTML + XML or Текст / HTML загружается, а URL-адрес
не заканчиваться регулярным выражением \. [Hh] [Tt] [Mm] [Ll]?, эта опция вызовет суффикс . HTML
добавляется к локальному имени файла. Это полезно, например, когда вы
зеркалирование удаленного сайта, который использует . Asp страниц, но вы хотите, чтобы зеркальные страницы были
доступны для просмотра на вашем стандартном сервере Apache. Еще одно хорошее применение для этого - когда вы
загрузка материалов, созданных с помощью компьютерной графики. URL типа http://site.com/article.cgi? 25 будете
быть сохраненным как article.cgi? 25.html.

Обратите внимание, что имена файлов, измененные таким образом, будут повторно загружаться каждый раз при повторном зеркалировании.
сайт, потому что Wget не может сказать, что локальный X.html файл соответствует удаленному URL X
(поскольку он еще не знает, что URL-адрес производит вывод типа Текст / HTML or
приложение / XHTML + XML.

Начиная с версии 1.12, Wget также гарантирует, что все загруженные файлы типа текст / css
заканчиваться суффиксом . Css, и вариант был переименован с --html-расширение, к лучшему
отражать его новое поведение. Старое имя опции по-прежнему приемлемо, но теперь должно быть
считается устаревшим.

В какой-то момент в будущем этот параметр вполне может быть расширен за счет включения суффиксов для
другие типы контента, включая типы контента, которые не анализируются Wget.

--http-user =пользователь
--http-password =password
Укажите имя пользователя пользователь и пароль password на HTTP-сервере. Согласно
типа вызова, Wget закодирует их, используя либо "базовый" (небезопасный), либо
"дайджест" или схема проверки подлинности Windows NTLM.

Другой способ указать имя пользователя и пароль - в самом URL. Любой метод
показывает ваш пароль всем, кто пытается запустить «ps». Чтобы предотвратить пароли
от того, чтобы их видели, храните их в .wgetrc or .netrc, и убедитесь, что эти файлы защищены
от других пользователей с помощью «chmod». Если пароли действительно важны, не оставляйте
они либо лежат в этих файлах --- отредактируйте файлы и удалите их после того, как Wget
начал загрузку.

--no-http-держать в живых
Отключите функцию поддержки активности для загрузок по протоколу HTTP. Обычно Wget запрашивает у сервера
чтобы соединение оставалось открытым, чтобы при загрузке более одного документа из
один и тот же сервер, они передаются через одно и то же TCP-соединение. Это экономит время и
в то же время снижает нагрузку на сервер.

Эта опция полезна, когда по какой-то причине постоянные (поддерживающие) соединения не работают.
работать на вас, например, из-за ошибки сервера или из-за невозможности серверной части
скрипты, чтобы справиться с подключениями.

--без кеша
Отключить кеш на стороне сервера. В этом случае Wget отправит удаленному серверу сообщение
соответствующая директива (Прагма: без кеша), чтобы получить файл из удаленной службы,
вместо того, чтобы возвращать кешированную версию. Это особенно полезно для получения
и удаление устаревших документов на прокси-серверах.

Кеширование разрешено по умолчанию.

--нет печенья
Отключите использование файлов cookie. Файлы cookie - это механизм поддержки на стороне сервера.
штат. Сервер отправляет клиенту файл cookie, используя заголовок "Set-Cookie", а
клиент отвечает тем же файлом cookie на дальнейшие запросы. Поскольку файлы cookie позволяют
владельцы серверов для отслеживания посетителей и для обмена этой информацией между сайтами,
некоторые считают их нарушением конфиденциальности. По умолчанию используются файлы cookie; тем не мение,
хранение куки не включены по умолчанию.

--load-cookies файл
Загрузить файлы cookie из файл перед первым HTTP-запросом. файл текстовый файл в
формат, первоначально используемый Netscape куки.txt .

Обычно вы используете эту опцию при зеркалировании сайтов, требующих вашего
вошли в систему, чтобы получить доступ к некоторой или всей их информации. Процесс входа в систему обычно работает
веб-сервером, выдающим HTTP-куки при получении и проверке вашего
реквизиты для входа. Затем файл cookie повторно отправляется браузером при доступе к этой части
site, и таким образом подтверждает вашу личность.

Для зеркалирования такого сайта Wget должен отправлять те же файлы cookie, которые отправляет ваш браузер, когда
общение с сайтом. Это достигается --load-cookies--- просто укажите Wget
к месту нахождения куки.txt файл, и он отправит те же файлы cookie, что и ваш
браузер отправит в такой же ситуации. Различные браузеры хранят текстовые файлы cookie
файлы в разных местах:

"Netscape 4.x."
Файлы cookie находятся в ~ / .netscape / cookies.txt.

"Mozilla и Netscape 6.x."
Файл cookie Mozilla также называется куки.txt, расположенный где-то под
~ / .mozilla, в каталоге вашего профиля. Полный путь обычно заканчивается
похоже на ~ / .mozilla / по умолчанию / какая-то странная-строка / cookies.txt.

«Internet Explorer».
Вы можете создать файл cookie, который Wget может использовать, используя меню Файл, Импорт и
Экспорт, экспорт файлов cookie. Это было протестировано с Internet Explorer 5; нет
гарантированно работает с более ранними версиями.

"Другие браузеры."
Если вы используете другой браузер для создания файлов cookie, --load-cookies будете
работают только в том случае, если вы можете найти или создать файл cookie в формате Netscape, который
Wget ожидает.

Если вы не можете использовать --load-cookies, все еще может быть альтернатива. Если твой
браузер поддерживает «менеджер файлов cookie», вы можете использовать его для просмотра файлов cookie, используемых, когда
доступ к сайту, который вы зеркалируете. Запишите имя и значение файла cookie, и
вручную указать Wget на отправку этих файлов cookie, минуя "официальную" поддержку файлов cookie:

wget --no-cookies --header "Cookie: знак равно "

--save-cookies файл
Сохранить файлы cookie в файл перед выходом. Это не сохранит файлы cookie, срок действия которых истек или
которые не имеют срока действия (так называемые «сеансовые куки»), но также видят
--keep-session-cookies.

--keep-session-cookies
Если указано, причины --save-cookies также сохранять файлы cookie сеанса. Сессионные куки
обычно не сохраняются, потому что они предназначены для хранения в памяти и забывания, когда
вы выходите из браузера. Сохранение их полезно на сайтах, требующих авторизации или входа в систему.
посетите домашнюю страницу, прежде чем сможете получить доступ к некоторым страницам. С этой опцией несколько Wget
Для сайта запуски считаются одним сеансом браузера.

Поскольку формат файла cookie обычно не содержит cookie сеанса, Wget отмечает их.
с отметкой времени истечения 0. Wget's --load-cookies распознает их как сеанс
куки, но это может сбить с толку другие браузеры. Также обратите внимание, что загруженные файлы cookie будут
обрабатываться как другие файлы cookie сеанса, что означает, что если вы хотите --save-cookies в
сохранить их снова, вы должны использовать --keep-session-cookies снова.

--игнорировать-длина
К сожалению, некоторые HTTP-серверы (точнее, программы CGI) отправляют фальшивые
Заголовки Content-Length, которые сводят с ума Wget, поскольку он считает, что не весь документ
был получен. Вы можете обнаружить этот синдром, если Wget попытается получить тот же документ.
снова и снова, каждый раз утверждая, что (в противном случае нормальное) соединение закрылось
на том же байте.

С этой опцией Wget проигнорирует заголовок Content-Length --- как будто он никогда не
существовала.

--header =заголовок
Отправить заголовок вместе с остальными заголовками в каждом HTTP-запросе. В
предоставленный заголовок отправляется как есть, что означает, что он должен содержать имя и значение, разделенные символом
двоеточие и не должно содержать новых строк.

Вы можете определить более одного дополнительного заголовка, указав - заголовок больше чем единожды.

wget --header = 'Accept-Charset: iso-8859-2' \
--header = 'Accept-Language: hr' \
http://fly.srk.fer.hr/

Указание пустой строки в качестве значения заголовка очистит все предыдущие пользовательские
определенные заголовки.

Начиная с Wget 1.10, эту опцию можно использовать для переопределения заголовков, сгенерированных в противном случае.
автоматически. Этот пример инструктирует Wget подключиться к localhost, но указать
фу.бар в заголовке "Хост":

wget --header = "Хост: foo.bar" http://localhost/

В версиях Wget до 1.10 такое использование - заголовок вызвал отправку дубликата
заголовки.

--max-redirect =номер
Задает максимальное количество перенаправлений для ресурса. По умолчанию
20, что обычно намного больше, чем необходимо. Однако в тех случаях, когда вы
хотите разрешить больше (или меньше), это вариант для использования.

--proxy-user =пользователь
--proxy-пароль =password
Укажите имя пользователя пользователь и пароль password для аутентификации на прокси-сервере.
Wget закодирует их, используя «базовую» схему аутентификации.

Соображения безопасности, аналогичные тем, которые имеют --http-пароль здесь тоже.

--referer =URL
Включите `Referer: URL'в HTTP-запросе. Полезно для поиска документов с
обработка на стороне сервера, предполагающая, что они всегда извлекаются из интерактивной сети.
браузеры и корректно отображаются только тогда, когда Referer настроен на одну из страниц, которые указывают
им.

--save-заголовки
Сохраните заголовки, отправленные HTTP-сервером, в файл, предшествующие фактическому содержимому,
с пустой строкой в ​​качестве разделителя.

-U агент-строка
--user-agent =агент-строка
Определить как агент-строка к HTTP-серверу.

Протокол HTTP позволяет клиентам идентифицировать себя с помощью «User-Agent».
поле заголовка. Это позволяет различать программное обеспечение WWW, обычно для статистических целей.
в целях или для отслеживания нарушений протокола. Wget обычно идентифицируется как
Wget /версия, версия номер текущей версии Wget.

Однако известно, что некоторые сайты навязывают политику адаптации результатов
согласно предоставленной "User-Agent" информации. Хотя это не такая уж и плохая идея
теоретически, серверы злоупотребляли им, отказывая в предоставлении информации клиентам, кроме
(исторически) Netscape или, чаще, Microsoft Internet Explorer. Этот вариант
позволяет вам изменить строку "User-Agent", выдаваемую Wget. Использование этой опции
разочарованы, если вы действительно не знаете, что делаете.

Указание пустого пользовательского агента с помощью --user-agent = "" указывает Wget не отправлять
Заголовок «User-Agent» в HTTP-запросах.

--post-data =string
--post-файл =файл
Используйте POST как метод для всех HTTP-запросов и отправляйте указанные данные в
тело запроса. --пост-данные посылает string как данные, тогда как --post-файл отправляет
содержание файл. В остальном они работают точно так же. Особенно,
они изоферменты печени ожидайте содержимое формы "ключ1 = значение1 & ключ2 = значение2" с процентным кодированием
для специальных символов; единственная разница в том, что его содержание ожидается как
параметр командной строки, а другой принимает его содержимое из файла. Особенно,
--post-файл is не для передачи файлов в виде вложений к форме: они должны отображаться как
Данные "ключ = значение" (с соответствующим процентным кодированием), как и все остальное. Wget
в настоящее время не поддерживает "multipart / form-data" для передачи данных POST; Только
"application / x-www-form-urlencoded". Только один из --пост-данные и --post-файл должно быть
указано.

Обратите внимание, что wget не требует, чтобы контент имел форму
"ключ1 = значение1 & ключ2 = значение2", и он не проверяет его. Wget просто передаст
какие бы данные ему ни были предоставлены. Однако большинство серверов ожидают, что данные POST будут
указанный выше формат при обработке HTML-форм.

При отправке запроса POST с помощью --post-файл вариант, Wget рассматривает файл как
двоичный файл и отправит каждый символ в запросе POST без удаления
завершающие символы новой строки или перевода страницы. Любые другие управляющие символы в тексте будут
также отправляться как есть в запросе POST.

Имейте в виду, что Wget необходимо заранее знать размер POST-данных.
Следовательно, аргумент "--post-file" должен быть обычным файлом; указав FIFO или
что-то вроде / dev / stdin не сработает. Не совсем понятно, как это обойти
ограничение, присущее HTTP / 1.0. Хотя HTTP / 1.1 вводит разбитый передать это
не требует заранее знать длину запроса, клиент не может использовать фрагментированные
если он не знает, что обращается к серверу HTTP / 1.1. И он не может этого знать, пока не
получает ответ, который, в свою очередь, требует, чтобы запрос был завершен -
проблема курицы и яйца.

Примечание. Начиная с версии 1.15, если Wget перенаправляется после завершения запроса POST,
его поведение будет зависеть от кода ответа, возвращаемого сервером. В случае
301 перемещено постоянно, 302 перемещено временно или 307 временное перенаправление, Wget будет в
в соответствии с RFC2616, продолжайте отправлять запрос POST. Если сервер хочет
клиент, чтобы изменить метод запроса при перенаправлении, он должен отправить 303 См. другое
код ответа.

В этом примере показано, как войти на сервер с помощью POST, а затем перейти к загрузке.
желаемые страницы, предположительно доступные только авторизованным пользователям:

# Войдите на сервер. Это можно сделать только один раз.
wget --save-cookies cookies.txt \
--post-data 'user = foo & password = bar' \
http://server.com/auth.php

# Теперь возьмите страницу или страницы, которые нам небезразличны.
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php

Если сервер использует файлы cookie сеанса для отслеживания аутентификации пользователя, вышеуказанное будет
не работает, потому что --save-cookies не сохранит их (как и браузеры), а
куки.txt файл будет пустым. В этом случае используйте --keep-session-cookies вместе с
--save-cookies для принудительного сохранения файлов cookie сеанса.

--method =HTTP-метод
Для сценариев RESTful Wget позволяет отправлять другие HTTP-методы.
без необходимости явно устанавливать их, используя --header = Заголовок. Wget будет использовать
какая бы строка ни была передана ему после --метод как HTTP-метод для сервера.

--body-data =Строка данных
--body-file =Файл данных
Должен быть установлен, когда необходимо отправить на сервер дополнительные данные вместе с методом.
указано с использованием --метод. - данные тела посылает string как данные, тогда как --body-файл посылает
содержание файл. В остальном они работают точно так же.

В настоящее время --body-файл is не для передачи файлов целиком. Wget не
в настоящее время поддерживает "multipart / form-data" для передачи данных; Только
"application / x-www-form-urlencoded". В будущем это может быть изменено, чтобы wget
отправляет --body-файл как полный файл вместо того, чтобы отправлять его содержимое в
сервер. Имейте в виду, что Wget необходимо заранее знать содержимое BODY Data,
и, следовательно, аргумент в пользу --body-файл должен быть обычный файл. Видеть --post-файл для
более подробное объяснение. Только один из - данные тела и --body-файл должно быть
указано.

Если Wget будет перенаправлен после завершения запроса, Wget приостановит текущий
и отправьте запрос GET до завершения перенаправления. Это верно для всех
коды ответа перенаправления, кроме временного перенаправления 307, которое используется для явного
укажите, что метод запроса должен не изменение. Другое исключение - когда
установлен на "POST", и в этом случае правила перенаправления, указанные в
--пост-данные сопровождаются

- содержание-диспозиция
Если этот параметр включен, экспериментальная (не полностью функциональная) поддержка для
Заголовки «Content-Disposition» включены. В настоящее время это может привести к дополнительному раунду-
обращается к серверу для запроса "HEAD" и, как известно, имеет несколько ошибок,
поэтому в настоящее время он не включен по умолчанию.

Эта опция полезна для некоторых программ CGI для загрузки файлов, которые используют
Заголовки Content-Disposition для описания имени загружаемого файла.
быть.

--content-при ошибке
Если этот параметр включен, wget не будет пропускать контент, когда сервер отвечает сообщением.
Код состояния http, указывающий на ошибку.

--trust-имена-серверов
Если этот параметр включен, при перенаправлении последний компонент URL-адреса перенаправления будет
используется как имя локального файла. По умолчанию используется последний компонент в оригинале.
URL.

--auth-нет-вызова
Если задана эта опция, Wget будет отправлять информацию об аутентификации Basic HTTP.
(имя пользователя и пароль в виде открытого текста) для всех запросов, как в Wget 1.10.2 и ранее
делал по умолчанию.

Использование этой опции не рекомендуется и предназначено только для поддержки некоторых
непонятные серверы, которые никогда не отправляют запросы HTTP-аутентификации, но принимают
незапрашиваемая информация об аутентификации, скажем, в дополнение к аутентификации на основе форм.

HTTPS (SSL / TLS) Опции
Для поддержки зашифрованных загрузок HTTP (HTTPS) Wget должен быть скомпилирован с внешним SSL.
библиотека. Текущее значение по умолчанию - GnuTLS. Кроме того, Wget также поддерживает HSTS (HTTP Strict
Транспортная безопасность). Если Wget скомпилирован без поддержки SSL, ни один из этих параметров не работает.
доступен.

--secure-протокол =протокол
Выберите безопасный протокол, который будет использоваться. Правовые ценности автоматический, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 и PFS. Если автоматический используется, библиотеке SSL предоставляется свобода
автоматический выбор соответствующего протокола, что достигается путем отправки TLSv1
приветствие. Это значение по умолчанию.

Указание SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 вынуждает использовать соответствующие
протокол. Это полезно при разговоре со старыми и ошибочными реализациями SSL-сервера.
что затрудняет выбор правильного протокола для базовой библиотеки SSL.
версия. К счастью, такие серверы встречаются довольно редко.

Указание PFS принудительно использует так называемый шифр Perfect Forward Security
апартаменты. Короче говоря, PFS повышает безопасность, создавая одноразовый ключ для каждого SSL.
связь. Это немного больше влияет на ЦП клиента и сервера. Мы используем, как известно,
безопасные шифры (например, без MD4) и протокол TLS.

- только https
В рекурсивном режиме отслеживаются только ссылки HTTPS.

--no-check-сертификат
Не сверяйте сертификат сервера с доступными центрами сертификации.
Также не требуется, чтобы имя хоста URL совпадало с общим именем, представленным
сертификат.

Начиная с Wget 1.10, по умолчанию выполняется проверка сертификата сервера на соответствие
признанными центрами сертификации, прерывая рукопожатие SSL и прерывая
скачать, если проверка не удалась. Хотя это обеспечивает более безопасную загрузку,
нарушает взаимодействие с некоторыми сайтами, которые работали с предыдущими версиями Wget,
особенно те, которые используют самозаверяющие, просроченные или иным образом недействительные сертификаты.
Этот параметр включает "небезопасный" режим работы, при котором сертификат
ошибки проверки превращаются в предупреждения и позволяют продолжить.

Если вы столкнулись с ошибками "проверки сертификата" или с ошибками, говорящими, что "обычное имя
не совпадает с запрошенным именем хоста ", вы можете использовать эту опцию, чтобы обойти проверку
и продолжите загрузку. Только использование этой вариант if являетесь Он в противном случае убежден, of
домен места подлинность, or if являетесь на самом деле не заботится в отношении домен период действия of его
сертификат. Почти всегда плохая идея - не проверять сертификаты, когда
передача конфиденциальных или важных данных. Для самоподписанных / внутренних сертификатов
вы должны загрузить сертификат и проверить его, вместо того, чтобы
небезопасный режим. Если вы действительно уверены, что не хотите проверять сертификат,
вы можете указать --check-certificate = quiet, чтобы wget не выводил предупреждения о
недействительные сертификаты, хотя в большинстве случаев это неправильно.

--certificate =файл
Используйте сертификат клиента, хранящийся в файл. Это необходимо для серверов, которые
настроен на требование сертификатов от клиентов, которые к ним подключаются. Обычно
сертификат не требуется, и этот переключатель не является обязательным.

--certificate-type =напишите
Укажите тип сертификата клиента. Правовые ценности PEM (предполагается по умолчанию)
и ТАМ, также известная как АСН1.

- приватный ключ =файл
Прочтите закрытый ключ из файл. Это позволяет вам предоставить закрытый ключ в файле
отдельно от сертификата.

--private-key-type =напишите
Укажите тип закрытого ключа. Допустимые значения: PEM (по умолчанию) и ТАМ.

--ca-certificate =файл
Используйте файл как файл с пакетом центров сертификации («ЦС») для проверки
сверстники. Сертификаты должны быть в формате PEM.

Без этой опции Wget ищет сертификаты CA в указанных системой местах,
выбирается во время установки OpenSSL.

--ca-directory =каталог
Задает каталог, содержащий сертификаты CA в формате PEM. Каждый файл содержит один
Сертификат CA, а имя файла основано на хэш-значении, полученном из
сертификат. Это достигается обработкой каталога сертификатов с
Утилита c_rehash, поставляемая с OpenSSL. С использованием --ca-каталог более эффективен, чем
--ca-сертификат когда установлено много сертификатов, потому что это позволяет Wget получать
сертификаты по запросу.

Без этой опции Wget ищет сертификаты CA в указанных системой местах,
выбирается во время установки OpenSSL.

--crl-файл =файл
Задает файл CRL в файл. Это необходимо для сертификатов, которые были
аннулированы центрами сертификации.

--random-file =файл
[Только OpenSSL и LibreSSL] Использовать файл как источник случайных данных для заполнения
генератор псевдослучайных чисел в системах без / DEV / urandom.

В таких системах для инициализации библиотеки SSL требуется внешний источник случайности.
Случайность может быть предоставлена ​​EGD (см. --egd-файл ниже) или читать с внешнего
источник, указанный пользователем. Если этот параметр не указан, Wget ищет случайные
данные в $ RANDFILE или, если он не установлен, в $ HOME / .rnd.

Если вы получаете сообщение «Не удалось запустить OpenSSL PRNG; отключение SSL». ошибка, вы должны
предоставить случайные данные, используя некоторые из методов, описанных выше.

--egd-file =файл
[Только OpenSSL] Использовать файл как сокет EGD. EGD означает Энтропия сведений демон, чтобы
программа в пространстве пользователя, которая собирает данные из различных непредсказуемых системных источников и
делает его доступным для других программ, которым он может понадобиться. Программное обеспечение для шифрования, такое как
библиотеке SSL нужны источники неповторяющейся случайности для заполнения случайного числа
генератор, используемый для создания криптостойких ключей.

OpenSSL позволяет пользователю указать свой собственный источник энтропии, используя "RAND_FILE"
переменная окружения. Если эта переменная не установлена ​​или указанный файл не
производят достаточно случайности, OpenSSL будет читать случайные данные из указанного сокета EGD
используя эту опцию.

Если этот параметр не указан (и эквивалентная команда запуска не используется), EGD
никогда не связывается. EGD не требуется в современных системах Unix, которые поддерживают
/ DEV / urandom.

--no-hsts
Wget по умолчанию поддерживает HSTS (HTTP Strict Transport Security, RFC 6797). Использовать
--no-hsts чтобы Wget действовал как UA, не поддерживающий HSTS. Как следствие, Wget
игнорировать все заголовки «Strict-Transport-Security» и не применять никакие существующие
Политика HSTS.

--hsts-file =файл
По умолчанию Wget хранит свою базу данных HSTS в ~ / .wget-hsts. Вы можете использовать --hsts-файл в
переопределить это. Wget будет использовать предоставленный файл в качестве базы данных HSTS. Такой файл должен
соответствуют правильному формату базы данных HSTS, используемому Wget. Если Wget не может проанализировать
предоставленный файл, поведение не указано.

База данных HSTS Wget - это простой текстовый файл. Каждая строка содержит запись HSTS (т. Е.
сайт, который опубликовал заголовок "Strict-Transport-Security" и поэтому имеет
указал конкретную политику HSTS, которая будет применяться). Строки, начинающиеся с тире ("#"),
игнорируется Wget. Обратите внимание, что, несмотря на удобочитаемость рук,
взлом базы данных HSTS, как правило, не лучшая идея.

Строка ввода HSTS состоит из нескольких полей, разделенных одним или несколькими пробелами:

" SP [ ] SP SP SP "

Ассоциация хоста и порт поля указывают имя хоста и порт, к которому данный HSTS
применяется политика. В порт field может быть нулевым, и в большинстве случаев будет. Что
означает, что номер порта не будет приниматься во внимание при принятии решения о том,
Политика HSTS должна применяться к данному запросу (только имя хоста будет
оценено). Когда порт отличается от нуля, и имя целевого хоста, и порт будут
будут оцениваться, и политика HSTS будет применяться только в том случае, если они оба совпадают. Этот
функция была включена только для целей тестирования / разработки. Набор тестов Wget
testenv /) создает базы данных HSTS с явными портами с целью обеспечения
Правильное поведение Wget. Применение политик HSTS к портам, отличным от портов по умолчанию
не приветствуется RFC 6797 (см. Приложение B «Различия между политикой HSTS и тем же самым»).
Политика происхождения "). Таким образом, эта функция не должна использоваться в производственной среде.
среды и порт обычно будет нулевым. Последние три поля делают то, что они есть
ожидается. Поле include_subdomains может быть 1 или 0 и сигнализирует,
субдомены целевого домена также должны быть частью данной политики HSTS.
Ассоциация создали и максимальный возраст поля содержат значения отметок времени, когда такая запись была
создан (впервые увиден Wget) и определенное HSTS значение 'max-age', в котором указано, как
долго, если политика HSTS остается активной, измеряется в секундах, прошедших с момента
метка времени хранится в создали. По прошествии этого времени эта политика HSTS не будет
дольше действительны и в конечном итоге будут удалены из базы данных.

Если вы предоставите свою собственную базу данных HSTS через --hsts-файл, имейте в виду, что Wget может изменять
предоставленный файл, если происходит какое-либо изменение между политиками HSTS, запрошенными
удаленные серверы и те, что находятся в файле. Когда Wget существует, он эффективно обновляет
База данных HSTS путем перезаписи файла базы данных с новыми записями.

Если предоставленный файл не существует, Wget создаст его. Этот файл будет содержать
новые записи HSTS. Если записи HSTS не были сгенерированы (нет "Strict-Transport-Security"
заголовки были отправлены любым из серверов), то файл не будет создан, даже
пустой. Это поведение применяется к файлу базы данных по умолчанию (~ / .wget-hsts) также:
он не будет создан, пока какой-либо сервер не применяет политику HSTS.

Старайтесь не отменять возможные изменения, внесенные другими процессами Wget на
в то же время по базе данных HSTS. Перед сбросом обновленных записей HSTS в файл,
Wget перечитает его и объединит изменения.

Использование собственной базы данных HSTS и / или изменение существующей не рекомендуется. Для
дополнительную информацию о потенциальных угрозах безопасности, возникающих в результате такой практики, см.
раздел 14 «Соображения безопасности» RFC 6797, особенно раздел 14.9 «Creative
Манипулирование хранилищем политик HSTS ".

--warc-file =файл
Используйте файл как целевой файл WARC.

--warc-header =string
Используйте string в качестве записи warcinfo.

--warc-max-size =размер
Установите максимальный размер файлов WARC равным размер.

--warc-cdx
Запишите индексные файлы CDX.

--warc-dedup =файл
Не храните записи, перечисленные в этом файле CDX.

- без сжатия
Не сжимайте файлы WARC с помощью GZIP.

--no-warc-дайджесты
Не рассчитывайте дайджесты SHA1.

--no-warc-keep-log
Не храните файл журнала в записи WARC.

--warc-tempdir =директория
Укажите расположение временных файлов, созданных модулем записи WARC.

Ftp Опции
--ftp-user =пользователь
--ftp-пароль =password
Укажите имя пользователя пользователь и пароль password на FTP-сервере. Без этого, или
соответствующий вариант запуска, пароль по умолчанию -wget @, обычно используется для
анонимный FTP.

Другой способ указать имя пользователя и пароль - в самом URL. Любой метод
показывает ваш пароль всем, кто пытается запустить «ps». Чтобы предотвратить пароли
от того, чтобы их видели, храните их в .wgetrc or .netrc, и убедитесь, что эти файлы защищены
от других пользователей с помощью «chmod». Если пароли действительно важны, не оставляйте
они либо лежат в этих файлах --- отредактируйте файлы и удалите их после того, как Wget
начал загрузку.

--no-remove-list
Не удаляйте временный .листинг файлы, созданные при загрузке по FTP. Как обычно,
эти файлы содержат необработанные списки каталогов, полученные от FTP-серверов. Нет
их удаление может быть полезно для целей отладки или когда вы хотите иметь возможность
легко проверить содержимое каталогов удаленного сервера (например, чтобы убедиться, что
зеркало, которое вы запускаете, готово).

Обратите внимание, что даже несмотря на то, что Wget выполняет запись в известное имя файла для этого файла, это не
дыра в безопасности в сценарии, когда пользователь делает .листинг символическая ссылка на / И т.д. / пароль
или что-то в этом роде и просят "root" запустить Wget в его или ее каталоге. В зависимости от
использованных опций, либо Wget откажется писать в .листинг, что делает
Операция подстановки / рекурсии / отметки времени завершается неудачно, или символическая ссылка будет удалена
и заменен фактическим .листинг файл, или список будет записан в
.номер.листинга .

Несмотря на то, что эта ситуация не является проблемой, "root" никогда не должен запускать Wget в
каталог недоверенного пользователя. Пользователь мог сделать что-то простое, например, привязать
index.html в / И т.д. / пароль и просим "root" запустить Wget с -N or -r так что файл будет
быть перезаписанным.

--no-glob
Отключите глобальный доступ к FTP. Подстановка означает использование специальных символов, похожих на оболочку.
(подстановочные), подобно *, ?, [ и ] получить более одного файла из одного и того же каталога
сразу, например:

Wget ftp://gnjilux.srk.fer.hr/* .msg

По умолчанию подстановка будет включена, если URL-адрес содержит подстановочный символ. Этот
опция может использоваться для включения или выключения глобализации навсегда.

Возможно, вам придется указать URL-адрес, чтобы защитить его от расширения вашей оболочкой.
Globbing заставляет Wget искать список каталогов, зависящий от системы. Это
почему в настоящее время он работает только с FTP-серверами Unix (и теми, которые эмулируют Unix "ls"
выход).

--no-пассивный-ftp
Отключить использование пассивный Режим передачи по FTP. Пассивный FTP требует, чтобы
клиент подключается к серверу, чтобы установить соединение для передачи данных, а не другое
наоборот.

Если машина подключена к Интернету напрямую, как пассивный, так и активный FTP
должен работать одинаково хорошо. За большинством конфигураций межсетевого экрана и NAT пассивный FTP имеет
больше шансов на работу. Однако в некоторых редких конфигурациях брандмауэра активный FTP
действительно работает, когда пассивный FTP - нет. Если вы подозреваете, что это так, используйте это
вариант или установите "passive_ftp = off" в вашем файле инициализации.

--preserve-разрешения
Сохранять права доступа к удаленным файлам вместо разрешений, установленных umask.

--retr-символические ссылки
По умолчанию при рекурсивном получении каталогов FTP и символической ссылке
при обнаружении символьной ссылки выполняется переход и извлекаются указанные файлы.
В настоящее время Wget не просматривает символические ссылки на каталоги для их загрузки.
рекурсивно, хотя эта функция может быть добавлена ​​в будущем.

После появления --retr-symlinks = нет указан, связанный файл не загружается. Вместо,
соответствующая символическая ссылка создается в локальной файловой системе. Указанный файл будет
не может быть получен, если этот рекурсивный поиск не встретил бы его отдельно
и все равно скачал. Этот вариант представляет угрозу безопасности, если злонамеренный FTP
Сервер может заставить Wget выполнять запись в файлы за пределами намеченных каталогов через
специально созданный файл .LISTING.

Обратите внимание, что при получении файла (не каталога), поскольку он был указан в
в командной строке, а не потому, что она была рекурсивна, этот параметр не действует.
В этом случае переход по символическим ссылкам осуществляется всегда.

FTPS Опции
--ftps-неявный
Эта опция указывает Wget неявно использовать FTPS. Неявный FTPS состоит из инициализации
SSL / TLS с самого начала контрольного соединения. Эта опция не отправляет
команда "AUTH TLS": предполагается, что сервер использует протокол FTPS и напрямую запускает
SSL / TLS-соединение. Если попытка успешна, сеанс продолжается так же, как
обычный FTPS (отправляются "ПБСЗ" и "ПРОТ" и т. д.). Неявный FTPS больше не
требование для реализаций FTPS, и поэтому многие серверы могут не поддерживать его. Если
--ftps-неявный передается и не указан явный номер порта, порт по умолчанию для
неявный FTPS, 990, будет использоваться вместо порта по умолчанию для "нормального"
(явный) FTPS, аналогичный протоколу FTP, 21.

--no-ftps-резюме-ssl
Не возобновляйте сеанс SSL / TLS в канале данных. При запуске данных
соединение, Wget пытается возобновить сеанс SSL / TLS, ранее запущенный в элементе управления.
связь. Возобновление сеанса SSL / TLS позволяет избежать выполнения совершенно нового рукопожатия.
повторное использование параметров SSL / TLS предыдущего сеанса. Обычно серверы FTPS хотят
это так, поэтому Wget делает это по умолчанию. Однако в редких случаях можно
хотите запускать совершенно новый сеанс SSL / TLS при каждом подключении к данным. Это то, что
--no-ftps-резюме-ssl для.

--ftps-clear-data-соединение
Все подключения к данным будут в виде обычного текста. Только контрольное соединение будет
под SSL / TLS. Wget отправит для этого команду "PROT C", которая должна быть
утвержден сервером.

--ftps-переход к ftp
Вернитесь к FTP, если FTPS не поддерживается целевым сервером. По соображениям безопасности
по умолчанию этот параметр не установлен. Поведение по умолчанию - выйти с
ошибка. Если сервер не отвечает на начальную команду «AUTH TLS», или
в случае неявного FTPS, если первоначальная попытка подключения SSL / TLS отклонена,
считается, что такой сервер не поддерживает FTPS.

рекурсивный поиск Опции
-r
- рекурсивный
Включите рекурсивное извлечение. Максимальная глубина по умолчанию - 5.

-l глубина
--level =глубина
Укажите максимальный уровень глубины рекурсии глубина.

--delete-после
Эта опция указывает Wget удалять каждый загружаемый файл, после сделав это.
Это полезно для предварительной загрузки популярных страниц через прокси, например:

wget -r -nd --delete-после http://whatever.com/~popular/page/

Ассоциация -r вариант - получить рекурсивно, и каталоги не создавать.

Обратите внимание, что --delete-после удаляет файлы на локальном компьютере. Это не выдает
DELE к удаленным FTP-сайтам, например. Также обратите внимание, что когда --delete-после is
указано, --convert-ссылки игнорируется, поэтому .ориг файлы просто не создаются в
первое место.

-k
--convert-ссылки
После завершения загрузки преобразуйте ссылки в документе, чтобы сделать их
подходит для местного просмотра. Это влияет не только на видимые гиперссылки, но и на любые
часть документа, которая ссылается на внешнее содержимое, такое как встроенные изображения, ссылки на
таблицы стилей, гиперссылки на содержимое, отличное от HTML, и т. д.

Каждая ссылка будет изменена одним из двух способов:

· Ссылки на файлы, которые были загружены Wget, будут изменены на
файл, на который они указывают, как относительную ссылку.

Пример: если загруженный файл /foo/doc.html ссылки на /бар/img.gif, Так
скачал, то ссылка в doc.html будет изменен, чтобы указать на ../бар/img.gif.
Такое преобразование надежно работает для произвольных комбинаций
каталоги.

· Ссылки на файлы, которые не были загружены Wget, будут изменены на
включить имя хоста и абсолютный путь к месту, на которое они указывают.

Пример: если загруженный файл /foo/doc.html ссылки на /бар/img.gif (или чтобы
../бар/img.gif), то ссылку в doc.html будет изменен, чтобы указать на
http://hostname/bar/img.gif.

Благодаря этому локальный просмотр работает надежно: если связанный файл был загружен,
ссылка будет ссылаться на свое локальное имя; если он не был загружен, ссылка будет относиться к
его полный интернет-адрес, а не неработающая ссылка. Тот факт, что
прежние ссылки преобразуются в относительные, что позволяет перемещать загруженные
иерархия в другой каталог.

Обратите внимание, что только в конце загрузки Wget может узнать, какие ссылки были
скачал. Из-за этого работа, проделанная -k будет выполнено в конце всех
загрузки.

--convert-файл-только
Этот параметр преобразует только часть имени файла URL-адресов, оставляя остальные URL-адреса
нетронутый. Эту часть имени файла иногда называют "базовым именем", хотя мы
избегайте этого термина здесь, чтобы не вызвать путаницу.

Особенно хорошо работает в сочетании с --adjust-расширение, хотя это
сцепление не принудительно. Полезно заполнять кеши Интернета файлами.
скачал с разных хостов.

Пример: если какая-то ссылка указывает на //foo.com/bar.cgi?xyz --adjust-расширение утверждал
и его местный пункт назначения должен быть ./foo.com/bar.cgi?xyz.css, то ссылка
будет преобразован в //foo.com/bar.cgi?xyz.css. Обратите внимание, что только часть имени файла имеет
был изменен. Остальная часть URL-адреса осталась нетронутой, включая сетевой путь.
("//"), которые в противном случае были бы обработаны Wget и преобразованы в эффективные
схема (например, "http: //").

-K
--backup-преобразованный
При преобразовании файла сделайте резервную копию исходной версии с .ориг суффикс. Влияет на
поведение -N.

-m
--зеркало
Включите параметры, подходящие для зеркалирования. Эта опция включает рекурсию и время-
штамповка, устанавливает бесконечную глубину рекурсии и сохраняет списки каталогов FTP. это
в настоящее время эквивалентен -r -N -l инф --no-remove-list.

-p
--page-реквизиты
Эта опция заставляет Wget загружать все файлы, необходимые для правильного
отображать заданную HTML-страницу. Сюда входят такие вещи, как встроенные изображения, звуки и
ссылочные таблицы стилей.

Обычно при загрузке одной HTML-страницы любые необходимые документы, которые могут быть
необходимые для правильного отображения не загружаются. С использованием -r вместе с -l может помочь,
но поскольку Wget обычно не различает внешние и встроенные документы,
обычно остаются «листовые документы», в которых отсутствуют реквизиты.

Например, скажите документ 1.html содержит " "ссылка на тег 1.gif и
" " тег, указывающий на внешний документ 2.html. Скажи это 2.html похоже, но это
его изображение 2.gif и он ссылается на 3.html. Скажите, что это продолжается до некоторого произвольного
большое количество.

Если выполнить команду:

wget -r -l 2 http: // /1.html

тогда 1.html, 1.gif, 2.html, 2.gifкачества 3.html будет загружен. Как вы видете,
3.html без реквизитов 3.gif потому что Wget просто считает количество
хмель (до 2) вдали от 1.html чтобы определить, где остановить рекурсию.
Однако с помощью этой команды:

wget -r -l 2 -p http: // /1.html

все вышеперечисленные файлы и 3.htmlреквизит 3.gif будет загружен. Сходным образом,

wget -r -l 1 -p http: // /1.html

вызовет 1.html, 1.gif, 2.htmlкачества 2.gif для скачивания. Можно подумать, что:

wget -r -l 0 -p http: // /1.html

загрузил бы просто 1.html и 1.gif, но, к сожалению, это не так, потому что
-l 0 эквивалентна -l инф--- то есть бесконечная рекурсия. Чтобы загрузить один HTML
страницу (или несколько из них, все они указаны в командной строке или в -i Ввод URL
файл) и его (или их) реквизиты, просто оставьте -r и -l:

wget -p http: // /1.html

Обратите внимание, что Wget будет вести себя так, как если бы -r были указаны, но только эта единственная страница и
его реквизиты будут загружены. Ссылки с этой страницы на внешние документы будут
не соблюдаться. Собственно, чтобы скачать одну страницу со всеми ее реквизитами (даже если
они существуют на отдельных веб-сайтах), и убедитесь, что лот правильно отображается локально,
этому автору нравится использовать несколько опций в дополнение к -p:

wget -E -H -k -K -p http: // /

Чтобы завершить эту тему, стоит знать, что представление Wget о внешнем документе
ссылка - это любой URL, указанный в теге " ", "" "тег, или" "отметьте другое
чем " ".

--строгие-комментарии
Включите строгий анализ HTML-комментариев. По умолчанию комментарии заканчиваются на
первое появление ->.

Согласно спецификациям, комментарии HTML выражаются как SGML. Заявления.
Объявление - это специальная разметка, которая начинается с <! и заканчивается >, Такие, как <!DOCTYPE
...>, который может содержать комментарии между парой -- разделители. HTML-комментарии
"пустые объявления", объявления SGML без какого-либо текста, не являющегося комментарием. Следовательно,
является действительным комментарием, как и <!--один-- - два ->, Но не является.

С другой стороны, большинство разработчиков HTML не воспринимают комментарии иначе, как
текст с разделителями <!-- и ->, что не совсем то же самое. Например, что-то
такое как работает как действительный комментарий до тех пор, пока количество тире равно
кратное четырем (!). Если нет, комментарий технически длится до следующего --, который
может быть на другом конце документа. Из-за этого многие популярные браузеры
полностью игнорируйте спецификацию и реализуйте то, что пользователи ожидают:
комментарии, разделенные <!-- и ->.

До версии 1.9 Wget строго интерпретировал комментарии, что приводило к отсутствию ссылок.
на многих веб-страницах, которые хорошо отображались в браузерах, но имели несчастье
содержащие несоответствующие комментарии. Начиная с версии 1.9, Wget присоединился к
ряды клиентов, реализующих «наивные» комментарии, заканчивая каждый комментарий на
первое появление ->.

Если по какой-либо причине вам нужен строгий синтаксический анализ комментариев, используйте этот параметр, чтобы отключить его.
о.

рекурсивный Принять / отклонить Опции
-A акклист --принимать акклист
-R рейлист --отклонять рейлист
Укажите разделенные запятыми списки суффиксов или шаблонов имен файлов, которые нужно принять или отклонить.
Обратите внимание, что если какой-либо из подстановочных знаков, *, ?, [ or ], появляются в элементе
акклист or рейлист, он будет рассматриваться как шаблон, а не как суффикс. В этом
случае, вы должны заключить шаблон в кавычки, чтобы ваша оболочка не расширялась
это, как в -A "* .mp3" or -A '* .mp3'.

- принять-регулярное выражение регулярное выражение URL
--reject-regex регулярное выражение URL
Укажите регулярное выражение, чтобы принять или отклонить полный URL-адрес.

--regex-тип регулярное выражение
Укажите тип регулярного выражения. Возможные типы: POSIX or PCRE. Обратите внимание, что
уметь использовать PCRE типа, wget должен быть скомпилирован с поддержкой libpcre.

-D список доменов
--domains =список доменов
Установите домены для отслеживания. список доменов это список доменов, разделенных запятыми. Примечание
что это делает не включить -H.

--exclude-домены список доменов
Укажите домены, которые не за которым нужно следить.

--follow-ftp
Переходите по FTP-ссылкам из HTML-документов. Без этой опции Wget проигнорирует все
Ссылки FTP.

--follow-tags =список
Wget имеет внутреннюю таблицу пар тегов / атрибутов HTML, которую он рассматривает, когда
поиск связанных документов во время рекурсивного поиска. Если пользователю нужен только
подмножество этих тегов, которые необходимо учитывать, однако он или она должны указать такие теги
через запятую список с этой опцией.

--ignore-tags =список
Это противоположность --follow-теги вариант. Чтобы пропустить определенные теги HTML, когда
рекурсивно ищите документы для загрузки, укажите их через запятую список.

В прошлом этот вариант был лучшим выбором для загрузки одной страницы и ее
реквизиты, используя командную строку, например:

wget --ignore-tags = a, область -H -k -K -r http: // /

Однако автор этого варианта наткнулся на страницу с такими тегами, как "
HREF = "/"> "и пришел к выводу, что указания игнорируемых тегов недостаточно.
Нельзя просто сказать Wget, чтобы он игнорировал " ", потому что тогда таблицы стилей не будут
скачал. Теперь лучший вариант для загрузки отдельной страницы и ее реквизитов - это
преданный --page-реквизиты опцию.

--игнорировать регистр
Игнорировать регистр при сопоставлении файлов и каталогов. Это влияет на поведение -R,
Опции -A, -I и -X, а также глобализация реализованы при загрузке с FTP
места. Например, с этой опцией -A "*.текст" будет соответствовать file1.txt, Но и
файл2.TXT, файл3.TxT, и так далее. Кавычки в примере предназначены для предотвращения того, чтобы оболочка
от расширения узора.

-H
--span-hosts
Включите охват между хостами при рекурсивном извлечении.

-L
--родственник
Переходите только по относительным ссылкам. Полезно для получения определенной домашней страницы без каких-либо
отвлекающие факторы, даже не исходящие от одних и тех же хозяев.

-I список
--include-directoryies =список
Укажите разделенный запятыми список каталогов, по которым вы хотите следовать при загрузке.
Элементы список может содержать подстановочные знаки.

-X список
--exclude-directoryies =список
Укажите разделенный запятыми список каталогов, которые вы хотите исключить из загрузки.
Элементы список может содержать подстановочные знаки.

-нп
- нет родителей
Никогда не переходите в родительский каталог при рекурсивном извлечении. Это
полезный вариант, поскольку он гарантирует, что только файлы ниже определенная иерархия будет
быть загруженным.

ОКРУЖАЮЩАЯ СРЕДА


Wget поддерживает прокси для получения как HTTP, так и FTP. Стандартный способ указать прокси
location, который распознает Wget, использует следующие переменные среды:

http_proxy
https_proxy
Если установлено, http_proxy и https_proxy переменные должны содержать URL-адреса
прокси для соединений HTTP и HTTPS соответственно.

ftp_proxy
Эта переменная должна содержать URL-адрес прокси для FTP-соединений. Тихо
общий, что http_proxy и ftp_proxy установлены на один и тот же URL.

нет_прокси
Эта переменная должна содержать список разделенных запятыми расширений домена, которые прокси-сервер должен
не использоваться для. Например, если значение нет_прокси is .мит.эду, прокси не будет
использоваться для получения документов из MIT.

ВЫХОД статус


Wget может вернуть один из нескольких кодов ошибок, если возникнут проблемы.

0 Никаких проблем не возникло.

1 Общий код ошибки.

2 Ошибка синтаксического анализа --- например, при синтаксическом анализе параметров командной строки .wgetrc or
.netrc...

3 Ошибка ввода-вывода файла.

4 Сбой сети.

5 Ошибка проверки SSL.

6 Ошибка аутентификации имени пользователя / пароля.

7 Ошибки протокола.

8 Сервер выдал ответ с ошибкой.

За исключением 0 и 1, коды выхода с меньшими номерами имеют приоритет над кодами выхода с более высокими номерами.
пронумерованные при обнаружении нескольких типов ошибок.

В версиях Wget до 1.12 статус выхода Wget был бесполезным и
непоследовательный. Рекурсивные загрузки практически всегда возвращают 0 (успех), независимо от
любые обнаруженные проблемы, а нерекурсивные выборки возвращали только статус, соответствующий
к последней попытке загрузки.

Используйте wget онлайн с помощью сервисов onworks.net


Бесплатные серверы и рабочие станции

Скачать приложения для Windows и Linux

Команды Linux

Ad