InglesPransesEspanyol

Ad


OnWorks favicon

wget - Online sa Cloud

Patakbuhin ang wget sa OnWorks na libreng hosting provider sa Ubuntu Online, Fedora Online, Windows online emulator o MAC OS online emulator

Ito ang command wget na maaaring patakbuhin sa OnWorks na libreng hosting provider gamit ang isa sa aming maramihang libreng online na workstation gaya ng Ubuntu Online, Fedora Online, Windows online emulator o MAC OS online emulator

PROGRAMA:

NAME


Wget - Ang hindi interactive na network downloader.

SINOPSIS


wget [opsyon]... [URL] ...

DESCRIPTION


Ang GNU Wget ay isang libreng utility para sa hindi interactive na pag-download ng mga file mula sa Web. Ito
sumusuporta sa HTTP, HTTPS, at FTP protocol, pati na rin ang pagkuha sa pamamagitan ng HTTP proxy.

Ang Wget ay hindi interactive, ibig sabihin ay maaari itong gumana sa background, habang ang user ay hindi
naka-log on. Ito ay nagbibigay-daan sa iyo upang simulan ang isang retrieval at idiskonekta mula sa system, pagpapaalam
Tapusin mo ang trabaho. Sa kabaligtaran, karamihan sa mga Web browser ay nangangailangan ng patuloy na gumagamit
presensya, na maaaring maging isang malaking hadlang kapag naglilipat ng maraming data.

Maaaring sundin ng Wget ang mga link sa HTML, XHTML, at CSS na mga pahina, upang lumikha ng mga lokal na bersyon ng remote
mga web site, ganap na nililikha ang istraktura ng direktoryo ng orihinal na site. Ito ay
minsan ay tinutukoy bilang "recursive downloading." Habang ginagawa iyon, iginagalang ni Wget ang
Pamantayan sa Pagbubukod ng Robot (/robots.txt). Maaaring turuan ang Wget na i-convert ang mga link
na-download na mga file upang ituro ang mga lokal na file, para sa offline na pagtingin.

Ang Wget ay idinisenyo para sa katatagan sa mabagal o hindi matatag na mga koneksyon sa network; kung ang
Nabigo ang pag-download dahil sa isang problema sa network, patuloy itong susubukan hanggang sa magkaroon ang buong file
nakuhang muli. Kung sinusuportahan ng server ang regetting, tuturuan nito ang server na magpatuloy
ang pag-download mula sa kung saan ito tumigil.

Hindi sinusuportahan ng Wget ang Client Revocation Lists (CRLs) kaya ang HTTPS certificate ay ikaw
ang pagkonekta sa maaaring bawiin ng may-ari ng site.

Opsyon


Opsyon palaugnayan
Dahil ang Wget ay gumagamit ng GNU getopt upang iproseso ang mga argumento ng command-line, ang bawat opsyon ay may mahabang anyo
kasama ang maikli. Ang mga mahahabang opsyon ay mas maginhawang tandaan, ngunit maglaan ng oras
uri. Maaari mong malayang paghaluin ang iba't ibang estilo ng opsyon, o tukuyin ang mga opsyon pagkatapos ng command-
mga argumento ng linya. Kaya maaari kang sumulat:

wget -r --tries=10 http://fly.srk.fer.hr/ -o log

Maaaring tanggalin ang puwang sa pagitan ng opsyon sa pagtanggap ng argumento at argumento.
Sa halip ng -o mag-log maaari kang magsulat -olog.

Maaari kang maglagay ng ilang mga opsyon na hindi nangangailangan ng mga argumento nang magkasama, tulad ng:

wget -drc

Ito ay ganap na katumbas ng:

wget -d -r -c

Dahil maaaring tukuyin ang mga opsyon pagkatapos ng mga argumento, maaari mong wakasan ang mga ito gamit ang --.
Kaya't susubukan ng mga sumusunod na i-download ang URL -x, pag-uulat ng pagkabigo sa mag-log:

wget -o log -- -x

Ang mga opsyon na tumatanggap ng mga listahang pinaghihiwalay ng kuwit ay gumagalang lahat sa kumbensyon na tumutukoy
nililinis ng walang laman na listahan ang halaga nito. Ito ay maaaring maging kapaki-pakinabang upang i-clear ang .wgetrc mga setting. Para sa
halimbawa, kung ang iyong .wgetrc nagtatakda ng "exclude_directories" sa /cgi-bin, ang sumusunod na halimbawa
ire-reset muna ito, at pagkatapos ay itatakda ito upang ibukod /~walang tao at /~isang tao. Maaari mo ring
i-clear ang mga listahan sa .wgetrc.

wget -X " -X /~walang tao,/~isang tao

Karamihan sa mga opsyon na hindi tumatanggap ng mga argumento ay boolean mga pagpipilian, kaya pinangalanan dahil ang kanilang
ang estado ay maaaring makuha gamit ang isang yes-or-no ("boolean") variable. Halimbawa, --follow-ftp
nagsasabi sa Wget na sundin ang mga link ng FTP mula sa mga HTML file at, sa kabilang banda, --walang-glob sinasabi nito
hindi upang magsagawa ng file globbing sa mga FTP URL. Ang isang boolean na opsyon ay alinman apirmatibo or
negatibo (simula sa --hindi). Ang lahat ng naturang opsyon ay nagbabahagi ng ilang mga katangian.

Maliban kung iba ang nakasaad, ipinapalagay na ang default na pag-uugali ay kabaligtaran ng kung ano
nagagawa ang opsyon. Halimbawa, ang dokumentadong pagkakaroon ng --follow-ftp ipinapalagay
na ang default ay sa hindi sundin ang mga link ng FTP mula sa mga pahina ng HTML.

Maaaring balewalain ang mga mapagpipiliang opsyon sa pamamagitan ng paglalagay ng --hindi- sa pangalan ng opsyon; negatibo
ang mga opsyon ay maaaring balewalain sa pamamagitan ng pagtanggal sa --hindi- unlapi. Ito ay maaaring mukhang kalabisan---kung ang
Ang default para sa isang affirmative na opsyon ay ang hindi gumawa ng isang bagay, kung gayon bakit magbigay ng paraan upang
tahasang i-off ito? Ngunit maaaring baguhin ng startup file ang default. Para sa
halimbawa, gamit ang "follow_ftp = on" sa .wgetrc gumagawa ng Wget sundin Mga link sa FTP bilang default, at
paggamit --no-follow-ftp ay ang tanging paraan upang maibalik ang factory default mula sa command
linya.

Basic Startup Options
-V
--bersyon
Ipakita ang bersyon ng Wget.

-h
- Tumulong
Mag-print ng mensahe ng tulong na naglalarawan sa lahat ng mga opsyon sa command-line ng Wget.

-b
--background
Pumunta kaagad sa background pagkatapos ng startup. Kung walang output file na tinukoy sa pamamagitan ng
-o, ang output ay na-redirect sa wget-log.

-e utos
--isagawa utos
Isakatuparan utos na parang bahagi ng .wgetrc. Ang isang utos sa gayon ay mahihingi ay magiging
naisakatuparan pagkatapos ang mga utos sa .wgetrc, kaya nangunguna sa kanila. Kung kailangan mo
upang tukuyin ang higit sa isang wgetrc command, gumamit ng maraming pagkakataon ng -e.

Pagtotroso at input talaksan Options
-o logfile
--output-file=logfile
I-log ang lahat ng mensahe sa logfile. Ang mga mensahe ay karaniwang iniuulat sa karaniwang error.

-a logfile
--append-output=logfile
Idugtong sa logfile. Ito ay katulad ng -o, ito lamang ang nakadugtong sa logfile sa halip ng
pag-overwrite sa lumang log file. Kung logfile ay hindi umiiral, isang bagong file ay nilikha.

-d
--debug
I-on ang output ng debug, ibig sabihin, iba't ibang impormasyong mahalaga sa mga developer ng Wget
kung hindi ito gumana ng maayos. Maaaring pinili ng iyong system administrator na mag-compile
Wget nang walang suporta sa pag-debug, kung saan -d ayaw gumana. Mangyaring tandaan na
Ang pag-compile na may suporta sa debug ay palaging ligtas---Wget na pinagsama-sama sa suporta sa pag-debug
habilin hindi mag-print ng anumang impormasyon sa pag-debug maliban kung hiniling gamit ang -d.

-q
--tahimik
I-off ang output ng Wget.

-v
--verbose
I-on ang verbose output, kasama ang lahat ng available na data. Ang default na output ay verbose.

-nv
--no-verbose
I-off ang verbose nang hindi ganap na tahimik (gamitin -q para doon), na ang ibig sabihin ay iyon
napi-print pa rin ang mga mensahe ng error at pangunahing impormasyon.

--ulat-bilis=uri
Output bandwidth bilang uri. Ang tanging tinatanggap na halaga ay bits.

-i file
--input-file=file
Magbasa ng mga URL mula sa isang lokal o panlabas file. Kung - ay tinukoy bilang file, binabasa ang mga URL
mula sa karaniwang input. (Gamitin ./- upang basahin mula sa isang file na literal na pinangalanan -.)

Kung gagamitin ang function na ito, walang mga URL na kailangang naroroon sa command line. Kung meron
Ang mga URL sa command line at sa isang input file, ang mga nasa command line ay magiging
ang mga unang makukuha. Kung --force-html ay hindi tinukoy, kung gayon file dapat
binubuo ng isang serye ng mga URL, isa bawat linya.

Gayunpaman, kung tinukoy mo --force-html, ang dokumento ay ituturing na html. Sa ganyan
kaso maaari kang magkaroon ng mga problema sa mga kamag-anak na link, na maaari mong lutasin sa pamamagitan ng pagdaragdag
"url">" sa mga dokumento o sa pamamagitan ng pagtukoy --base=url sa command line.

Kung ang file ay isang panlabas, ang dokumento ay awtomatikong ituturing bilang html if
tumutugma ang Uri ng Nilalaman teksto / html. Bukod dito, ang fileang magiging lokasyon ni
sadyang ginamit bilang base href kung walang tinukoy.

--input-metalink=file
Nagda-download ng mga file na sakop sa lokal na Metalink file. Ang bersyon 3 at 4 ng Metalink ay
suportado.

--metalink-over-http
Nag-isyu ng kahilingan sa HTTP HEAD sa halip na GET at kinukuha ang metadata ng Metalink mula sa tugon
mga header. Pagkatapos ay lumipat ito sa pag-download ng Metalink. Kung walang wastong metadata ng Metalink
natagpuan, bumabalik ito sa ordinaryong pag-download ng HTTP.

--ginustong-lokasyon
Itakda ang gustong lokasyon para sa mga mapagkukunan ng Metalink. May epekto ito kung maraming mapagkukunan
na may parehong priyoridad ay magagamit.

-F
--force-html
Kapag nabasa ang input mula sa isang file, pilitin itong ituring bilang isang HTML file. Ito ay nagbibigay-daan
mong kunin ang mga kamag-anak na link mula sa mga umiiral nang HTML file sa iyong lokal na disk, sa pamamagitan ng pagdaragdag
"url">" sa HTML, o gamit ang --base opsyon sa command-line.

-B URL
--base=URL
Niresolba ang mga kamag-anak na link gamit ang URL bilang punto ng sanggunian, kapag nagbabasa ng mga link mula sa
isang HTML file na tinukoy sa pamamagitan ng -i/--input-file opsyon (kasama ang --force-html, O
kapag ang input file ay kinuha nang malayuan mula sa isang server na naglalarawan dito bilang HTML). Ito ay
katumbas ng pagkakaroon ng isang "BASE" na tag sa HTML input file, na may URL bilang
value para sa attribute na "href".

Halimbawa, kung tinukoy mo http://foo/bar/a.html para URL, at nagbabasa si Wget
../baz/b.html mula sa input file, ito ay malulutas sa http://foo/baz/b.html.

--config=FILE
Tukuyin ang lokasyon ng isang startup file na gusto mong gamitin.

--rejected-log=logfile
Nila-log ang lahat ng pagtanggi sa URL logfile bilang mga halagang pinaghihiwalay ng kuwit. Kasama sa mga halaga ang
dahilan ng pagtanggi, ang URL at ang parent URL kung saan ito natagpuan.

Download Options
--bind-address=TIRAHAN
Kapag gumagawa ng mga koneksyon sa TCP/IP ng kliyente, itali sa TIRAHAN sa lokal na makina. TIRAHAN
maaaring tukuyin bilang isang hostname o IP address. Maaaring maging kapaki-pakinabang ang opsyong ito kung ang iyong
machine ay nakatali sa maramihang mga IP.

-t numero
--sinubukan=numero
Itakda ang bilang ng mga pagsubok sa numero. Tukuyin ang 0 o inf para sa walang katapusang muling pagsubok. Ang default ay
upang subukang muli ng 20 beses, maliban sa mga nakamamatay na error tulad ng "tinanggihan ang koneksyon" o
"not found" (404), na hindi nasusubok muli.

-O file
--output-document=file
Ang mga dokumento ay hindi isusulat sa naaangkop na mga file, ngunit lahat ay isusulat
pinagsama-sama at nakasulat sa file. Kung - ay ginagamit bilang file, magiging mga dokumento
naka-print sa karaniwang output, hindi pinapagana ang conversion ng link. (Gamitin ./- upang mag-print sa isang file
literal na pinangalanan -.)

Paggamit ng -O is hindi ang ibig sabihin ay "gamitin ang pangalan file sa halip na ang nasa
URL;" sa halip, ito ay kahalintulad sa pag-redirect ng shell: wget -O file http://foo is
nilayon upang gumana tulad ng wget -O - http://foo > file; file ay puputulin kaagad,
at lahat isusulat doon ang na-download na nilalaman.

Dahil dito, -N (para sa timestamp-checking) ay hindi sinusuportahan kasama ng -O:
mula noon file ay palaging bagong likha, ito ay palaging may napakabagong timestamp. A
ibibigay ang babala kung gagamitin ang kumbinasyong ito.

Katulad nito, ang paggamit -r or -p sa -O maaaring hindi gumana gaya ng iyong inaasahan: Hindi lang magda-download ang Wget
ang unang file sa file at pagkatapos ay i-download ang natitira sa kanilang mga normal na pangalan: lahat
ilalagay ang na-download na nilalaman file. Ito ay hindi pinagana sa bersyon 1.11, ngunit mayroon
ay naibalik (na may babala) sa 1.11.2, dahil may ilang mga kaso kung saan ito
ang pag-uugali ay maaaring magkaroon ng ilang gamit.

Ang isang kumbinasyon sa -nc ay tinatanggap lamang kung ang ibinigay na output file ay hindi umiiral.

Tandaan na ang isang kumbinasyon sa -k ay pinahihintulutan lamang kapag nagda-download ng isang dokumento,
tulad ng sa kasong iyon, iko-convert lamang nito ang lahat ng mga kamag-anak na URI sa mga panlabas; -k gumagawa ng hindi
kahulugan para sa maraming URI kapag ang lahat ng ito ay dina-download sa iisang file; -k ay maaaring maging
ginagamit lamang kapag ang output ay isang regular na file.

-nc
--walang-clobber
Kung ang isang file ay na-download nang higit sa isang beses sa parehong direktoryo, ang pag-uugali ng Wget ay nakasalalay
sa ilang mga opsyon, kabilang ang -nc. Sa ilang mga kaso, ang lokal na file ay magiging nag-clobbered,
o na-overwrite, sa paulit-ulit na pag-download. Sa ibang mga kaso ito ay mapangalagaan.

Kapag tumatakbo ang Wget nang wala -N, -nc, -r, O -p, pag-download ng parehong file sa parehong
direktoryo ay magreresulta sa orihinal na kopya ng file iniingatan at ang pangalawang kopya
pinangalanan file.1. Kung na-download muli ang file na iyon, ang ikatlong kopya ay
pinangalanan file.2, at iba pa. (Ganito rin ang ugali sa -nd, kahit na -r or -p ay nasa
epekto.) Kailan -nc ay tinukoy, ang pag-uugali na ito ay pinigilan, at tatanggi si Wget
mag-download ng mga bagong kopya ng file. Samakatuwid, ang ""no-clobber"" ay talagang isang maling pangalan
ang mode na ito---hindi clobbering ang pinipigilan (dahil ang mga numeric na suffix ay dati nang
pumipigil sa clobbering), ngunit sa halip ang maramihang bersyon ng pag-save na pinipigilan.

Kapag nagpapatakbo ng Wget kasama -r or -p, Ngunit walang -N, -nd, O -nc, muling nagda-download ng file
ay magreresulta sa bagong kopya na mapapatungan lamang ang luma. Pagdaragdag -nc mapipigilan ito
pag-uugali, sa halip ay nagiging sanhi ng orihinal na bersyon upang mapanatili at anumang mas bagong mga kopya sa
ang server ay hindi papansinin.

Kapag nagpapatakbo ng Wget kasama -N, meron o wala -r or -p, ang desisyon kung o hindi
ang pag-download ng mas bagong kopya ng file ay depende sa lokal at malayuang timestamp at laki
ng file. -nc maaaring hindi tukuyin kasabay ng -N.

Ang isang kumbinasyon sa -O/--output-dokumento ay tinatanggap lamang kung ang ibinigay na output file ay
hindi umiiral.

Tandaan na kapag -nc ay tinukoy, mga file na may mga suffix . Html or . Htm ilo-load
mula sa lokal na disk at na-parse na parang nakuha mula sa Web.

--backups=pag-backup
Bago (over) magsulat ng file, i-back up ang isang umiiral na file sa pamamagitan ng pagdaragdag ng a .1 panlapi (_1 on
VMS) sa pangalan ng file. Ang mga naturang backup na file ay iniikot sa .2, .3, at iba pa, hanggang sa
pag-backup (at nawala sa kabila nito).

-c
--magpatuloy
Magpatuloy sa pagkuha ng isang bahagyang na-download na file. Ito ay kapaki-pakinabang kapag gusto mong tapusin
up ng isang pag-download na sinimulan ng isang nakaraang instance ng Wget, o ng isa pang programa. Para sa
halimbawa:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Kung mayroong isang file na pinangalanan ls-lR.Z sa kasalukuyang direktoryo, ipapalagay ni Wget na ito nga
ang unang bahagi ng malayuang file, at hihilingin sa server na ipagpatuloy ang
retrieval mula sa isang offset na katumbas ng haba ng lokal na file.

Tandaan na hindi mo kailangang tukuyin ang opsyong ito kung gusto mo lang ng kasalukuyang
panawagan ng Wget na muling subukang mag-download ng file kung mawawala ang koneksyon sa kalagitnaan
sa pamamagitan ng. Ito ang default na pag-uugali. -c nakakaapekto lamang sa pagpapatuloy ng mga pag-download
Nagsimula bago sa panawagang ito ng Wget, at ang mga lokal na file ay nakaupo pa rin
sa paligid.

Wala -c, ida-download lang ng nakaraang halimbawa ang malayuang file sa ls-lR.Z.1,
iniiwan ang pinutol ls-lR.Z mag-isa ang file.

Simula sa Wget 1.7, kung gagamit ka -c sa isang hindi walang laman na file, at lumalabas na ang
hindi sinusuportahan ng server ang patuloy na pag-download, tatanggi si Wget na simulan ang pag-download
mula sa simula, na epektibong makakasira sa mga kasalukuyang nilalaman. Kung gusto mo talaga ang
i-download upang magsimula sa simula, alisin ang file.

Nagsisimula din sa Wget 1.7, kung gagamit ka -c sa isang file na katumbas ng laki ng
isa sa server, tatanggihan ni Wget na i-download ang file at mag-print ng paliwanag
mensahe. Ang parehong nangyayari kapag ang file ay mas maliit sa server kaysa sa lokal
(siguro dahil binago ito sa server mula noong huli mong pag-download
pagtatangka)---dahil ang "pagpapatuloy" ay hindi makabuluhan, walang pag-download na nagaganap.

Sa kabilang bahagi ng barya, habang ginagamit -c, anumang file na mas malaki sa server
kaysa sa lokal ay ituturing na hindi kumpletong pag-download at "(haba(remote)) -
length(local))" ang mga byte ay ida-download at ita-tack sa dulo ng lokal na file.
Ang pag-uugali na ito ay maaaring maging kanais-nais sa ilang partikular na kaso---halimbawa, maaari mong gamitin wget -c sa
i-download lamang ang bagong bahagi na idinagdag sa isang koleksyon ng data o log file.

Gayunpaman, kung ang file ay mas malaki sa server dahil ito ay naging nagbago, taliwas sa
m nakadugtong sa, mapupunta ka sa isang magulo na file. Walang paraan ng pag-verify ang Wget
na ang lokal na file ay talagang isang wastong prefix ng malayuang file. Kailangan mo maging
lalo na maingat dito kapag gumagamit -c kasabay ng -r, dahil gagawin ng bawat file
ituring bilang isang "hindi kumpletong pag-download" na kandidato.

Isa pang pagkakataon kung saan makakakuha ka ng isang gulong file kung susubukan mong gamitin -c ay kung mayroon kang isang
lame HTTP proxy na naglalagay ng "transfer interrupted" string sa lokal na file. Sa
sa hinaharap, maaaring magdagdag ng opsyon na "rollback" upang harapin ang kasong ito.

Tandaan na ang -c gumagana lamang sa mga FTP server at sa mga HTTP server na sumusuporta sa
"Saklaw" na header.

--start-pos=Offset
Simulan ang pag-download sa zero-based na posisyon Offset. Maaaring ipahayag ang offset sa mga byte,
kilobytes na may `k' suffix, o megabytes na may `m' suffix, atbp.

--start-pos ay may mas mataas na pangunguna kaysa --magpatuloy. Kailan --start-pos at --magpatuloy
ay parehong tinukoy, ang wget ay maglalabas ng babala pagkatapos ay magpatuloy na parang --magpatuloy ay absent.

Ang suporta ng server para sa patuloy na pag-download ay kinakailangan, kung hindi man --start-pos hindi makakatulong.
Tingnan -c para sa mga detalye.

--pag-unlad=uri
Piliin ang uri ng tagapagpahiwatig ng pag-unlad na nais mong gamitin. Ang mga legal na tagapagpahiwatig ay "tuldok"
at "bar".

Ang "bar" indicator ay ginagamit bilang default. Gumuhit ito ng ASCII progress bar graphics
(aka "thermometer" na display) na nagsasaad ng katayuan ng pagkuha. Kung ang output ay
hindi isang TTY, ang "tuldok" na bar ay gagamitin bilang default.

paggamit --progress=tuldok upang lumipat sa "tuldok" na display. Sinusubaybayan nito ang pagbawi ni
pagpi-print ng mga tuldok sa screen, ang bawat tuldok ay kumakatawan sa isang nakapirming dami ng na-download na data.

Ang pag-unlad uri maaari ring kumuha ng isa o higit pang mga parameter. Ang mga parameter ay nag-iiba batay sa
ang uri pinili. Mga parameter sa uri ay ipinasa sa pamamagitan ng pagdaragdag sa kanila sa uri
binibigkas ng isang tutuldok (:) tulad nito: --pag-unlad=uri:parameter1:parameter2.

Kapag ginagamit ang dotted retrieval, maaari mong itakda ang estilo sa pamamagitan ng pagtukoy sa uri bilang
tuldok:estilo. Ang iba't ibang istilo ay nagtatalaga ng iba't ibang kahulugan sa isang tuldok. Gamit ang "default"
istilo ang bawat tuldok ay kumakatawan sa 1K, mayroong sampung tuldok sa isang kumpol at 50 tuldok sa isang linya.
Ang istilong "binary" ay may mas katulad na oryentasyong "computer"---8K tuldok, 16-tuldok na cluster
at 48 tuldok bawat linya (na gumagawa ng 384K na linya). Ang "mega" na istilo ay angkop para sa
nagda-download ng malalaking file---ang bawat tuldok ay kumakatawan sa 64K na nakuha, mayroong walong tuldok sa isang
cluster, at 48 na tuldok sa bawat linya (kaya ang bawat linya ay naglalaman ng 3M). Kung hindi sapat ang "mega".
pagkatapos ay maaari mong gamitin ang "giga" na istilo---ang bawat tuldok ay kumakatawan sa 1M na nakuha, mayroong walo
tuldok sa isang kumpol, at 32 tuldok sa bawat linya (kaya ang bawat linya ay naglalaman ng 32M).

may --progress=bar, kasalukuyang may dalawang posibleng parameter, pilitin at noscroll.

Kapag ang output ay hindi isang TTY, ang progress bar ay palaging bumabalik sa "tuldok", kahit na
--progress=bar ay ipinasa sa Wget sa panahon ng invokation. Maaaring ma-override ang pag-uugaling ito
at ang "bar" na output na pinilit sa pamamagitan ng paggamit ng "force" na parameter bilang --progress=bar:puwersa.

Sa pamamagitan ng default, ang bar style progress bar i-scroll ang pangalan ng file mula kaliwa hanggang kanan
para sa file na dina-download kung ang filename ay lumampas sa maximum na haba na inilaan para sa
display nito. Sa ilang mga kaso, tulad ng sa --progress=bar:puwersa, maaaring ayaw ng isa
ang scrolling filename sa progress bar. Sa pamamagitan ng pagpasa sa parameter na "noscroll", Wget
maaaring piliting ipakita ang pinakamaraming filename hangga't maaari nang hindi nag-i-scroll
ito.

Tandaan na maaari mong itakda ang default na istilo gamit ang command na "progress" sa .wgetrc. Iyon
Maaaring ma-override ang setting mula sa command line. Halimbawa, upang pilitin ang output ng bar
nang walang pag-scroll, gamitin --progress=bar:force:noscroll.

--ipakita ang pag-unlad
Pilitin ang wget na ipakita ang progress bar sa anumang verbosity.

Bilang default, ipinapakita lamang ng wget ang progress bar sa verbose mode. Ang isa ay maaaring gayunpaman,
nais na ipakita ng wget ang progress bar sa screen kasabay ng iba pa
verbosity mode tulad ng --no-verbose or --tahimik. Ito ay madalas na isang nais na isang ari-arian kapag
invoking wget na mag-download ng ilang maliliit/malaking file. Sa ganoong kaso, ang wget ay maaaring
ma-invoke lang gamit ang parameter na ito para makakuha ng mas malinis na output sa screen.

Pipilitin din ng opsyong ito na mai-print ang progress bar stderr kapag ginamit
sa tabi ng --logfile pagpipilian.

-N
--timestamping
I-on ang time-stamping.

--no-if-modified-mula noon
Huwag magpadala ng If-Modified-Since header in -N mode. Magpadala ng paunang kahilingan sa HEAD
sa halip. Ito ay may epekto lamang sa -N mode.

--no-use-server-timestamps
Huwag itakda ang timestamp ng lokal na file ng isa sa server.

Bilang default, kapag ang isang file ay na-download, ang mga timestamp nito ay nakatakda upang tumugma sa mga mula sa
malayong file. Ito ay nagpapahintulot sa paggamit ng --timestamping sa mga kasunod na invocation ng wget.
Gayunpaman, kung minsan ay kapaki-pakinabang na ibase ang timestamp ng lokal na file kung kailan ito
aktwal na nai-download; para sa layuning iyon, ang --no-use-server-timestamps naging opsyon
ibinigay.

-S
--server-response
I-print ang mga header na ipinadala ng mga HTTP server at mga tugon na ipinadala ng mga FTP server.

--gagamba
Kapag na-invoke gamit ang pagpipiliang ito, ang Wget ay kikilos bilang isang Web gagamba, na nangangahulugang ito
ay hindi magda-download ng mga pahina, tingnan lamang kung naroroon sila. Halimbawa, maaari mong gamitin
Dapat mong suriin ang iyong mga bookmark:

wget --spider --force-html -i bookmarks.html

Ang tampok na ito ay nangangailangan ng higit pang trabaho para sa Wget upang mapalapit sa functionality ng real
web spider.

-T segundo
--timeout=segundo
Itakda ang network timeout sa segundo segundo. Ito ay katumbas ng pagtukoy
--dns-timeout, --connect-timeout, at --read-timeout, lahat nang sabay.

Kapag nakikipag-ugnayan sa network, maaaring tingnan ng Wget kung may timeout at i-abort ang operasyon
kung masyadong matagal. Pinipigilan nito ang mga anomalya tulad ng hanging reads at infinite
nag-uugnay. Ang tanging timeout na pinagana bilang default ay isang 900 segundong read timeout. Setting
ang isang timeout sa 0 ay ganap na hindi pinapagana. Maliban kung alam mo kung ano ang iyong ginagawa, ito ay pinakamahusay
hindi upang baguhin ang mga default na setting ng timeout.

Lahat ng mga opsyon na nauugnay sa timeout ay tumatanggap ng mga decimal na halaga, pati na rin ang mga subsecond na halaga. Para sa
Halimbawa, 0.1 Ang mga segundo ay isang legal (bagaman hindi matalino) na pagpipilian ng timeout. Mga subsecond timeout
ay kapaki-pakinabang para sa pagsuri sa mga oras ng pagtugon ng server o para sa pagsubok ng latency ng network.

--dns-timeout=segundo
Itakda ang DNS lookup timeout sa segundo segundo. Mga paghahanap sa DNS na hindi nakumpleto sa loob
mabibigo ang tinukoy na oras. Bilang default, walang timeout sa mga DNS lookup, iba pa
kaysa sa ipinatupad ng mga library ng system.

--connect-timeout=segundo
Itakda ang timeout sa pagkonekta sa segundo segundo. Mga koneksyon sa TCP na mas matagal
ang pagtatatag ay ipapalaglag. Bilang default, walang timeout sa pagkonekta, maliban doon
ipinatupad ng mga library ng system.

--read-timeout=segundo
Itakda ang read (at write) timeout sa segundo segundo. Ang "oras" ng timeout na ito
ay tumutukoy sa idle oras: kung, sa anumang punto sa pag-download, walang data na natanggap para sa higit pa
kaysa sa tinukoy na bilang ng mga segundo, nabigo ang pagbabasa at ang pag-download ay na-restart.
Ang pagpipiliang ito ay hindi direktang nakakaapekto sa tagal ng buong pag-download.

Siyempre, maaaring piliin ng malayong server na wakasan ang koneksyon nang mas maaga kaysa dito
kailangan ng opsyon. Ang default na read timeout ay 900 segundo.

--limit-rate=dami
Limitahan ang bilis ng pag-download sa dami byte bawat segundo. Ang halaga ay maaaring ipahayag sa
bytes, kilobytes na may k suffix, o megabytes na may m panlapi. Halimbawa,
--limit-rate=20k lilimitahan ang retrieval rate sa 20KB/s. Ito ay kapaki-pakinabang kapag, para sa
anuman ang dahilan, hindi mo gustong ubusin ng Wget ang buong magagamit na bandwidth.

Ang pagpipiliang ito ay nagbibigay-daan sa paggamit ng mga decimal na numero, kadalasang kasabay ng kapangyarihan
mga panlapi; Halimbawa, --limit-rate=2.5k ay isang legal na halaga.

Tandaan na ipinapatupad ng Wget ang paglilimita sa pamamagitan ng pagtulog sa naaangkop na dami ng oras
pagkatapos ng isang network na basahin na tumagal ng mas kaunting oras kaysa sa tinukoy ng rate. Sa huli ito
ang diskarte ay nagiging sanhi ng pagpapabagal ng paglipat ng TCP sa humigit-kumulang sa tinukoy na rate.
Gayunpaman, maaaring tumagal ng ilang oras bago maabot ang balanseng ito, kaya huwag magtaka
kung ang paglilimita sa rate ay hindi gumagana nang maayos sa napakaliit na mga file.

-w segundo
--wait=segundo
Maghintay ng tinukoy na bilang ng mga segundo sa pagitan ng mga retrieval. Ang paggamit ng pagpipiliang ito ay
inirerekomenda, dahil pinapagaan nito ang pag-load ng server sa pamamagitan ng paggawa ng mga kahilingan na mas madalas.
Sa halip na sa mga segundo, ang oras ay maaaring tukuyin sa mga minuto gamit ang "m" suffix, in
oras gamit ang "h" suffix, o sa mga araw gamit ang "d" suffix.

Ang pagtukoy ng malaking halaga para sa opsyong ito ay kapaki-pakinabang kung ang network o ang destinasyon
down ang host, upang makapaghintay si Wget ng sapat na katagalan upang makatwirang asahan ang error sa network
upang ayusin bago subukang muli. Ang agwat ng paghihintay na tinukoy ng function na ito ay
naiimpluwensyahan ng "--random-wait", na nakikita.

--waitretry=segundo
Kung ayaw mong maghintay si Wget sa pagitan bawat retrieval, ngunit sa pagitan lamang ng muling pagsubok ng
mga nabigong pag-download, maaari mong gamitin ang opsyong ito. Gagamitin ni Wget pahaba lumayo ka, naghihintay 1
pangalawa pagkatapos ng unang pagkabigo sa isang naibigay na file, pagkatapos ay maghintay ng 2 segundo pagkatapos ng
pangalawang pagkabigo sa file na iyon, hanggang sa maximum na bilang ng segundo tinukoy mo.

Bilang default, ipapalagay ng Wget ang halaga na 10 segundo.

--random-wait
Ang ilang mga web site ay maaaring magsagawa ng pagsusuri ng log upang matukoy ang mga programa sa pagkuha tulad ng Wget by
naghahanap ng mga istatistikal na makabuluhang pagkakatulad sa oras sa pagitan ng mga kahilingan. Ito
sanhi ng opsyon na mag-iba ang oras sa pagitan ng mga kahilingan sa pagitan ng 0.5 at 1.5 * maghintay segundo,
saan maghintay ay tinukoy gamit ang --wait opsyon, upang i-mask ang presensya ni Wget
mula sa naturang pagsusuri.

Isang artikulo noong 2001 sa isang publikasyong nakatuon sa pag-unlad sa isang sikat na platform ng consumer
nagbigay ng code upang maisagawa ang pagsusuring ito sa mabilisang. Iminungkahi ng may-akda nito ang pagharang sa
ang antas ng address ng class C upang matiyak na na-block ang mga automated retrieval program sa kabila
pagpapalit ng mga address na ibinigay ng DHCP.

Ang --random-wait Ang pagpipilian ay inspirasyon ng hindi pinapayuhan na rekomendasyong ito upang harangan ang marami
hindi nauugnay na mga user mula sa isang web site dahil sa mga aksyon ng isa.

--walang-proxy
Huwag gumamit ng mga proxy, kahit na tinukoy ang naaangkop na *_proxy environment variable.

-Q kota
--quota=kota
Tukuyin ang quota sa pag-download para sa mga awtomatikong pagkuha. Maaaring tukuyin ang halaga sa mga byte
(default), kilobytes (na may k suffix), o megabytes (na may m panlapi).

Tandaan na hindi kailanman makakaapekto ang quota sa pag-download ng isang file. Kaya kung tinukoy mo wget
-Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, lahat ng ls-lR.gz ay ida-download. Ang
ganoon din ang napupunta kahit na ilang mga URL ang tinukoy sa command-line. Gayunpaman, ang quota ay
iginagalang kapag kinukuha ang alinman sa recursively, o mula sa isang input file. Kaya maaari mong
ligtas na mag-type wget -Q2m -i site---abort ang pag-download kapag nalampasan na ang quota.

Pagtatakda ng quota sa 0 o sa inf nililimitahan ang quota sa pag-download.

--no-dns-cache
I-off ang pag-cache ng mga DNS lookup. Karaniwan, naaalala ng Wget ang hitsura ng mga IP address
pataas mula sa DNS upang hindi nito kailangang paulit-ulit na makipag-ugnayan sa DNS server para sa parehong
(karaniwang maliit) hanay ng mga host na kinukuha nito. Ang cache na ito ay umiiral sa memorya lamang; a
bagong Wget run ay makikipag-ugnayan muli sa DNS.

Gayunpaman, naiulat na sa ilang mga sitwasyon ay hindi kanais-nais na i-cache
mga pangalan ng host, kahit na sa tagal ng isang maikling tumatakbong application tulad ng Wget. Kasama nito
opsyon Ang Wget ay nag-isyu ng bagong DNS lookup (mas tiyak, isang bagong tawag sa "gethostbyname" o
"getaddrinfo") sa tuwing gumagawa ito ng bagong koneksyon. Mangyaring tandaan na ang pagpipiliang ito ay
hindi makakaapekto sa pag-cache na maaaring gawin ng nagre-resolve na library o ng external
caching layer, tulad ng NSCD.

Kung hindi mo eksaktong naiintindihan kung ano ang ginagawa ng opsyong ito, malamang na hindi mo ito kakailanganin.

--restrict-file-name=mode
Baguhin kung aling mga character ang makikita sa mga malalayong URL ang dapat i-escape sa panahon ng pagbuo ng
mga lokal na filename. Mga karakter na pinaghihigpitan sa pamamagitan ng pagpipiliang ito ay nakatakas, ibig sabihin
napalitan ng %HH, Kung saan HH ay ang hexadecimal na numero na tumutugma sa
restricted character. Ang opsyong ito ay maaari ding gamitin upang pilitin ang lahat ng alpabetikong kaso
maging lower- o uppercase.

Bilang default, tinatakasan ng Wget ang mga character na hindi wasto o ligtas bilang bahagi ng file
mga pangalan sa iyong operating system, pati na rin ang mga control character na karaniwan
hindi mai-print. Ang pagpipiliang ito ay kapaki-pakinabang para sa pagbabago ng mga default na ito, marahil dahil ikaw
ay nagda-download sa isang hindi katutubong partition, o dahil gusto mong i-disable ang pagtakas sa
ang mga control character, o gusto mong higit pang paghigpitan ang mga character sa mga nasa
ang hanay ng mga halaga ng ASCII.

Ang mode ay isang comma-separated set ng mga text value. Ang mga katanggap-tanggap na halaga ay Unix,
bintana, walang kontrol, ASCII, maliit na titik, at uppercase. Ang mga halaga Unix at bintana ay
mutually exclusive (one override the other), as are maliit na titik at uppercase.
Ang mga huling iyon ay mga espesyal na kaso, dahil hindi nila binabago ang hanay ng mga character na gagawin
ay makatakas, ngunit sa halip pilitin ang mga lokal na landas ng file na ma-convert alinman sa lower- o
malaking titik.

Kapag tinukoy ang "unix", tinatakasan ni Wget ang karakter / at ang mga control character sa
ang mga saklaw na 0--31 at 128--159. Ito ang default sa mga operating system na katulad ng Unix.

Kapag ibinigay ang "windows", tinatakasan ni Wget ang mga character \, |, /, :, ?, ", *, <, >, at
ang mga control character sa mga hanay na 0--31 at 128--159. Bilang karagdagan dito, ang Wget in
Ginagamit ang Windows mode + sa halip ng : upang paghiwalayin ang host at port sa mga lokal na pangalan ng file, at
Gumagamit @ sa halip ng ? upang paghiwalayin ang bahagi ng query ng pangalan ng file mula sa iba.
Samakatuwid, isang URL na ise-save bilang www.xemacs.org:4300/search.pl?input=blah in
Ang Unix mode ay ise-save bilang www.xemacs.org+4300/search.pl@input=blah sa Windows mode.
Ang mode na ito ay ang default sa Windows.

Kung tinukoy mo walang kontrol, pagkatapos ay inililipat din ang pagtakas ng mga control character
off. Maaaring magkaroon ng kahulugan ang opsyong ito kapag nagda-download ka ng mga URL na naglalaman ng mga pangalan
UTF-8 character, sa isang system na maaaring mag-save at magpakita ng mga filename sa UTF-8 (ilang
Ang mga posibleng byte na value na ginamit sa UTF-8 byte sequence ay nasa hanay ng mga value
itinalaga ng Wget bilang "mga kontrol").

Ang ASCII mode ay ginagamit upang tukuyin na ang anumang mga byte na ang mga halaga ay nasa labas ng saklaw ng
Ang mga character na ASCII (iyon ay, higit sa 127) ay dapat i-escape. Ito ay maaaring maging kapaki-pakinabang kapag
nagse-save ng mga filename na ang pag-encode ay hindi tumutugma sa ginagamit na lokal.

-4
--inet4-lamang
-6
--inet6-lamang
Pilitin ang pagkonekta sa mga IPv4 o IPv6 address. Sa --inet4-lamang or -4, Wget ay lamang
kumonekta sa mga host ng IPv4, binabalewala ang mga tala ng AAAA sa DNS, at tumatangging kumonekta sa IPv6
mga address na tinukoy sa mga URL. Sa kabaligtaran, kasama --inet6-lamang or -6, Wget ay lamang
kumonekta sa mga IPv6 host at huwag pansinin ang mga A record at IPv4 address.

Ang alinman sa mga pagpipilian ay hindi dapat kailanganin nang normal. Bilang default, gagamit ng IPv6-aware na Wget
ang pamilya ng address na tinukoy ng DNS record ng host. Kung ang DNS ay tumugon sa pareho
IPv4 at IPv6 address, susubukan ng Wget ang mga ito sa pagkakasunud-sunod hanggang sa mahanap nito ang isa na kaya nito
kumonekta sa. (Tingnan din ang opsyong "--prefer-family" na inilarawan sa ibaba.)

Maaaring gamitin ang mga opsyong ito upang sadyang pilitin ang paggamit ng IPv4 o IPv6 address
mga pamilya sa dalawahang sistema ng pamilya, kadalasan upang tulungan ang pag-debug o upang harapin ang mga sira
pagsasaayos ng network. Isa lamang sa --inet6-lamang at --inet4-lamang maaaring tukuyin sa
Parehong oras. Wala alinman sa opsyon na magagamit sa Wget na naipon nang walang suporta sa IPv6.

--prefer-family=none/IPv4/IPv6
Kapag binigyan ng pagpipilian ng ilang mga address, kumonekta sa mga address na may tinukoy
tugunan muna ang pamilya. Ang address order na ibinalik ng DNS ay ginagamit nang walang pagbabago ni
default.

Iniiwasan nito ang mga huwad na error at ikonekta ang mga pagtatangka kapag ina-access ang mga host na nagre-resolve sa
parehong IPv6 at IPv4 address mula sa mga IPv4 network. Halimbawa, www.kame.net nalulutas
sa 2001:200:0:8002:203:47ff:fea5:3085 at upang 203.178.141.194. Kapag ang ginustong
ang pamilya ay "IPv4", ang IPv4 address ang unang ginamit; kapag ang gustong pamilya ay "IPv6",
ang IPv6 address ay unang ginamit; kung ang tinukoy na halaga ay "wala", ang pagkakasunud-sunod ng address
ibinalik ng DNS ay ginagamit nang walang pagbabago.

Hindi magkatulad -4 at -6, hindi pinipigilan ng pagpipiliang ito ang pag-access sa anumang pamilya ng address, ito lamang
binabago ang order kung saan ina-access ang mga address. Tandaan din na ang muling pagsasaayos
isinagawa ng pagpipiliang ito ay matatag---hindi ito nakakaapekto sa pagkakasunud-sunod ng mga address ng pareho
pamilya. Ibig sabihin, ang relatibong pagkakasunud-sunod ng lahat ng IPv4 address at ng lahat ng IPv6 address
nananatiling buo sa lahat ng kaso.

--retry-connrefused
Isaalang-alang ang "tumanggi sa koneksyon" na isang lumilipas na error at subukang muli. Karaniwang sumusuko si Wget
sa isang URL kapag hindi ito makakonekta sa site dahil ang hindi pagkonekta ay kinuha
bilang isang senyales na ang server ay hindi tumatakbo sa lahat at ang muling pagsubok ay hindi makakatulong. Ito
Ang opsyon ay para sa pag-mirror ng hindi mapagkakatiwalaang mga site na ang mga server ay malamang na mawala sa maikling panahon
tagal ng panahon.

--user=gumagamit
--password=password
Tukuyin ang username gumagamit at password password para sa parehong FTP at HTTP file retrieval.
Maaaring ma-override ang mga parameter na ito gamit ang --ftp-user at --ftp-password mga pagpipilian para sa
Mga koneksyon sa FTP at ang --http-user at --http-password mga opsyon para sa mga koneksyon sa HTTP.

--magtanong-password
Mag-prompt para sa isang password para sa bawat koneksyon na itinatag. Hindi matukoy kung kailan
--password ay ginagamit, dahil sila ay kapwa eksklusibo.

--hindi-iri
I-off ang internationalized URI (IRI) na suporta. Gamitin --iri upang i-on ito. Ang suporta ng IRI ay
na-activate bilang default.

Maaari mong itakda ang default na estado ng suporta sa IRI gamit ang "iri" na utos sa .wgetrc. Iyon
Maaaring ma-override ang setting mula sa command line.

--local-encoding=pag-encode
Pilitin ang Wget na gamitin pag-encode bilang default na pag-encode ng system. Naaapektuhan nito kung paano ang Wget
kino-convert ang mga URL na tinukoy bilang mga argumento mula sa lokal patungo sa UTF-8 para sa suporta ng IRI.

Wget gamitin ang function na "nl_langinfo()" at pagkatapos ay ang "CHARSET" environment variable sa
kunin ang lokal. Kung nabigo ito, ASCII ang ginagamit.

Maaari mong itakda ang default na lokal na encoding gamit ang command na "local_encoding". .wgetrc.
Maaaring ma-override ang setting na iyon mula sa command line.

--remote-encoding=pag-encode
Pilitin ang Wget na gamitin pag-encode bilang default na remote server encoding. Naaapektuhan kung paano
Kino-convert ng Wget ang mga URI na matatagpuan sa mga file mula sa malayuang pag-encode patungo sa UTF-8 sa panahon ng recursive
sunduin. Ang mga opsyon na ito ay kapaki-pakinabang lamang para sa suporta ng IRI, para sa interpretasyon ng hindi-
Mga character na ASCII.

Para sa HTTP, ang malayuang pag-encode ay makikita sa header na "Content-Type" ng HTTP at sa HTML
"Content-Type http-equiv" meta tag.

Maaari mong itakda ang default na pag-encode gamit ang command na "remoteencoding". .wgetrc. Iyon
Maaaring ma-override ang setting mula sa command line.

--unlink
Pilitin ang Wget na i-unlink ang file sa halip na i-clobbing ang umiiral na file. Ang pagpipiliang ito ay kapaki-pakinabang
para sa pag-download sa direktoryo na may mga hardlink.

Directory Options
-nd
--walang mga direktoryo
Huwag gumawa ng hierarchy ng mga direktoryo kapag kumukuha ng recursively. Kasama nito
naka-on ang opsyon, mase-save ang lahat ng file sa kasalukuyang direktoryo, nang wala
clobbering (kung ang isang pangalan ay lumabas nang higit sa isang beses, ang mga filename ay makakakuha ng mga extension .n).

-x
--force-directories
Ang kabaligtaran ng -nd---lumikha ng isang hierarchy ng mga direktoryo, kahit na ang isa ay hindi magkakaroon
ay nilikha kung hindi man. Hal wget -x http://fly.srk.fer.hr/robots.txt ililigtas ang
nag-download ng file sa fly.srk.fer.hr/robots.txt.

-nH
--no-host-directories
Huwag paganahin ang pagbuo ng mga direktoryo na may prefix na host. Bilang default, ang paggamit ng Wget sa -r
http://fly.srk.fer.hr/ ay lilikha ng istraktura ng mga direktoryo na nagsisimula sa
fly.srk.fer.hr/. Hindi pinapagana ng opsyong ito ang gayong pag-uugali.

--protocol-directories
Gamitin ang pangalan ng protocol bilang bahagi ng direktoryo ng mga lokal na pangalan ng file. Halimbawa, may
ang pagpipiliang ito, wget -r http://marami magtitipid sa http /marami/ ... sa halip na sa
marami/ ....

--cut-dirs=numero
Huwag pansinin numero mga bahagi ng direktoryo. Ito ay kapaki-pakinabang para sa pagkuha ng isang pinong kontrol
sa ibabaw ng direktoryo kung saan ise-save ang recursive retrieval.

Kunin, halimbawa, ang direktoryo sa ftp://ftp.xemacs.org/pub/xemacs/. Kung kukunin mo
ito sa -r, ito ay ise-save nang lokal sa ilalim ftp.xemacs.org/pub/xemacs/. Habang ang -nH
maaaring alisin ng opsyon ang ftp.xemacs.org/ part, ikaw pa rin ang suplado sa pub/xemacs. ito
ay kung saan --cut-dirs ay madaling gamitin; ginagawa nitong hindi "makita" ang Wget numero malayong direktoryo
mga bahagi. Narito ang ilang mga halimbawa kung paano --cut-dirs gumagana ang opsyon.

Walang mga pagpipilian -> ftp.xemacs.org/pub/xemacs/
-nH -> pub/xemacs/
-nH --cut-dirs=1 -> xemacs/
-nH --cut-dirs=2 -> .

--cut-dirs=1 -> ftp.xemacs.org/xemacs/
...

Kung gusto mo lang tanggalin ang istraktura ng direktoryo, ang pagpipiliang ito ay katulad ng a
kumbinasyon ng -nd at -P. Gayunpaman, hindi katulad -nd, --cut-dirs hindi natatalo kasama
mga subdirectory---halimbawa, kasama ang -nH --cut-dirs=1Sa beta/ magiging subdirectory
inilagay sa xemacs/beta, tulad ng aasahan.

-P unlapi
--directory-prefix=unlapi
Itakda ang prefix ng direktoryo sa unlapi. ang direktoryo unlapi ay ang direktoryo kung saan ang lahat ng iba pa
Ang mga file at subdirectory ay ise-save sa, ibig sabihin, sa tuktok ng retrieval tree. Ang
ang default ay . (ang kasalukuyang direktoryo).

HTTP Options
--default-page=pangalan
paggamit pangalan bilang default na pangalan ng file kapag hindi ito kilala (ibig sabihin, para sa mga URL na nagtatapos sa a
slash), sa halip na index.html.

-E
--adjust-extension
Kung ang isang file ng uri application/xhtml+xml or teksto / html ay nai-download at ginagawa ng URL
hindi nagtatapos sa regexp \.[Hh][Tt][Mm][Ll]?, ang pagpipiliang ito ay magdudulot ng suffix . Html
na idaragdag sa lokal na filename. Ito ay kapaki-pakinabang, halimbawa, kapag ikaw ay
pag-mirror ng isang malayong site na gumagamit .asp mga pahina, ngunit gusto mo ang mga naka-mirror na pahina
makikita sa iyong stock Apache server. Ang isa pang magandang gamit para dito ay kapag ikaw ay
pag-download ng mga materyal na binuo ng CGI. Isang URL tulad ng http://site.com/article.cgi? 25 habilin
mailigtas bilang article.cgi?25.html.

Tandaan na ang mga filename na binago sa ganitong paraan ay muling ida-download sa tuwing ikaw ay muling magsasalamin
isang site, dahil hindi masasabi ni Wget na ang lokal X.html tumutugma ang file sa malayuang URL X
(dahil hindi pa nito alam na ang URL ay gumagawa ng uri ng output teksto / html or
application/xhtml+xml.

Sa bersyon 1.12, titiyakin din ng Wget na ang anumang na-download na file ng uri text/css
nagtatapos sa panlapi Css, at ang opsyon ay pinalitan ng pangalan mula sa --html-extension, para mas mabuti
sumasalamin sa bagong pag-uugali nito. Ang lumang pangalan ng opsyon ay katanggap-tanggap pa rin, ngunit dapat na ngayon
itinuturing na hindi na ginagamit.

Sa isang punto sa hinaharap, ang opsyong ito ay maaaring palawakin upang magsama ng mga suffix para sa
iba pang mga uri ng nilalaman, kabilang ang mga uri ng nilalaman na hindi na-parse ng Wget.

--http-user=gumagamit
--http-password=password
Tukuyin ang username gumagamit at password password sa isang HTTP server. Ayon sa
uri ng hamon, i-encode ng Wget ang mga ito gamit ang alinman sa "basic" (hindi secure), ang
"digest", o ang Windows "NTLM" authentication scheme.

Ang isa pang paraan upang tukuyin ang username at password ay nasa URL mismo. Alinmang paraan
ipinapakita ang iyong password sa sinumang nag-aabala sa pagpapatakbo ng "ps". Upang maiwasan ang mga password
mula sa nakikita, itago ang mga ito sa .wgetrc or .netrc, at tiyaking protektahan ang mga file na iyon
mula sa iba pang mga gumagamit na may "chmod". Kung talagang mahalaga ang mga password, huwag umalis
ang mga ito ay nakahiga sa mga file na iyon alinman---i-edit ang mga file at tanggalin ang mga ito pagkatapos gawin ng Wget
sinimulan ang pag-download.

--walang-http-panatilihing-buhay
I-off ang feature na "keep-alive" para sa mga HTTP download. Karaniwan, tinatanong ng Wget ang server
upang panatilihing bukas ang koneksyon nang sa gayon, kapag nag-download ka ng higit sa isang dokumento mula sa
parehong server, inililipat sila sa parehong koneksyon sa TCP. Makakatipid ito ng oras at
sabay binabawasan ang load sa server.

Ang pagpipiliang ito ay kapaki-pakinabang kapag, sa ilang kadahilanan, ang mga paulit-ulit (pananatiling buhay) na mga koneksyon ay hindi
gumana para sa iyo, halimbawa dahil sa isang server bug o dahil sa kawalan ng kakayahan ng server-side
mga script upang makayanan ang mga koneksyon.

--walang-cache
Huwag paganahin ang server-side cache. Sa kasong ito, ipapadala ng Wget ang malayong server ng
angkop na direktiba (Pragma: walang cache) upang makuha ang file mula sa malayuang serbisyo,
sa halip na ibalik ang naka-cache na bersyon. Ito ay lalong kapaki-pakinabang para sa pagkuha
at pag-flush ng mga hindi napapanahong dokumento sa mga proxy server.

Ang pag-cache ay pinapayagan bilang default.

--walang-cookies
Huwag paganahin ang paggamit ng cookies. Ang cookies ay isang mekanismo para sa pagpapanatili ng server-side
estado. Nagpapadala ang server sa kliyente ng cookie gamit ang header na "Set-Cookie", at ang
tumutugon ang kliyente gamit ang parehong cookie sa mga karagdagang kahilingan. Dahil pinapayagan ng cookies ang
mga may-ari ng server upang subaybayan ang mga bisita at para sa mga site na makipagpalitan ng impormasyong ito,
itinuturing ng ilan na isang paglabag sa privacy. Ang default ay ang paggamit ng cookies; gayunpaman,
Ang pag-iimbak hindi naka-on ang cookies bilang default.

--load-cookies file
Mag-load ng cookies mula sa file bago ang unang pagkuha ng HTTP. file ay isang textual file sa
format na orihinal na ginamit ng Netscape's cookies.txt file.

Karaniwan mong gagamitin ang opsyong ito kapag nagmi-mirror ng mga site na kailangan mong maging
naka-log in upang ma-access ang ilan o lahat ng kanilang nilalaman. Karaniwang gumagana ang proseso ng pag-log in
ng web server na nag-isyu ng HTTP cookie sa pagtanggap at pag-verify ng iyong
mga kredensyal. Ang cookie ay hinahabol ng browser kapag ina-access ang bahaging iyon ng
site, at sa gayon ay nagpapatunay ng iyong pagkakakilanlan.

Ang pag-mirror sa naturang site ay nangangailangan ng Wget na ipadala ang parehong cookies na ipinadala ng iyong browser kung kailan
pakikipag-usap sa site. Ito ay nakamit ng --load-cookies---ituro lamang ang Wget
sa kinalalagyan ng cookies.txt file, at ipapadala nito ang parehong cookies sa iyong
magpapadala ang browser sa parehong sitwasyon. Ang iba't ibang mga browser ay nagpapanatili ng tekstong cookie
mga file sa iba't ibang lokasyon:

"Netscape 4.x."
Nasa loob na ang cookies ~/.netscape/cookies.txt.

"Mozilla at Netscape 6.x."
Ang cookie file ng Mozilla ay pinangalanan din cookies.txt, na matatagpuan sa isang lugar sa ilalim
~/.mozilla, sa direktoryo ng iyong profile. Ang buong landas ay karaniwang nagtatapos
medyo mukhang ~/.mozilla/default/some-weird-string/cookies.txt.

"Internet Explorer."
Makakagawa ka ng cookie file na magagamit ni Wget sa pamamagitan ng paggamit ng File menu, Import at
I-export, I-export ang Cookies. Ito ay nasubok sa Internet Explorer 5; hindi ito
garantisadong gagana sa mga naunang bersyon.

"Ibang mga browser."
Kung gumagamit ka ng ibang browser para gawin ang iyong cookies, --load-cookies habilin
gagana lamang kung makakahanap ka o makakagawa ng cookie file sa format na Netscape na iyon
Inaasahan ni Wget.

Kung hindi mo magagamit --load-cookies, baka may alternatibo pa. Kung ang iyong
Sinusuportahan ng browser ang isang "cookie manager", maaari mo itong gamitin upang tingnan ang cookies na ginamit kapag
pag-access sa site na iyong ni-mirror. Isulat ang pangalan at halaga ng cookie, at
manu-manong atasan ang Wget na ipadala ang mga cookies na iyon, na lampasan ang "opisyal" na suporta sa cookie:

wget --no-cookies --header "Cookie: = "

--save-cookies file
I-save ang cookies sa file bago lumabas. Hindi nito ise-save ang cookies na nag-expire na o
na walang oras ng pag-expire (tinatawag na "session cookies"), ngunit tingnan din
--keep-session-cookies.

--keep-session-cookies
Kapag tinukoy, sanhi --save-cookies para i-save din ang cookies ng session. Mga cookies ng session
ay karaniwang hindi nai-save dahil ang mga ito ay nilalayong panatilihin sa memorya at nakalimutan kung kailan
lumabas ka sa browser. Ang pag-save sa mga ito ay kapaki-pakinabang sa mga site na nangangailangan sa iyong mag-log in o sa
bisitahin ang home page bago mo ma-access ang ilang page. Sa pagpipiliang ito, maramihang Wget
ang mga tumatakbo ay itinuturing na isang session ng browser hangga't ang site ay nababahala.

Dahil ang format ng file ng cookie ay hindi karaniwang nagdadala ng cookies ng session, minarkahan sila ng Wget
na may expiry timestamp na 0. Wget's --load-cookies kinikilala ang mga iyon bilang sesyon
cookies, ngunit maaari itong malito sa ibang mga browser. Tandaan din na ang mga cookies na na-load ay gagawin
ituring bilang iba pang cookies ng session, na nangangahulugang kung gusto mo --save-cookies sa
ingatan muli ang mga ito, dapat mong gamitin --keep-session-cookies muli.

--ignore-length
Sa kasamaang palad, ang ilang mga HTTP server (mga CGI program, upang maging mas tumpak) ay nagpapadala ng huwad
Mga header na "Content-Length", na ginagawang ligaw ang Wget, dahil sa tingin nito ay hindi lahat ng dokumento
ay nakuha. Maaari mong makita ang sindrom na ito kung susubukang muli ni Wget na makuha ang parehong dokumento
paulit-ulit, sa tuwing sinasabing sarado na ang (kung hindi man ay normal).
sa parehong byte.

Sa opsyong ito, babalewalain ng Wget ang header na "Haba ng Nilalaman"---na parang hindi
umiiral.

--header=header-line
magpadala header-line kasama ang iba pang mga header sa bawat kahilingan sa HTTP. Ang
ang ibinigay na header ay ipinadala nang ganoon, na nangangahulugang dapat itong maglaman ng pangalan at halaga na pinaghihiwalay ng
colon, at hindi dapat maglaman ng mga bagong linya.

Maaari kang tumukoy ng higit sa isang karagdagang header sa pamamagitan ng pagtukoy --header higit sa isang beses.

wget --header='Accept-Charset: iso-8859-2' \
--header='Accept-Language: hr' \
http://fly.srk.fer.hr/

Ang pagtutukoy ng isang walang laman na string bilang halaga ng header ay iki-clear ang lahat ng nakaraang user-
tinukoy na mga header.

Mula sa Wget 1.10, ang opsyong ito ay maaaring gamitin upang i-override ang mga header kung hindi man ay nabuo
awtomatiko. Ang halimbawang ito ay nagtuturo sa Wget na kumonekta sa localhost, ngunit upang tukuyin
foo.bar sa header na "Host":

wget --header="Host: foo.bar" http://localhost/

Sa mga bersyon ng Wget bago ang 1.10 tulad ng paggamit ng --header sanhi ng pagpapadala ng duplicate
mga header.

--max-redirect=numero
Tinutukoy ang maximum na bilang ng mga pag-redirect na susundan para sa isang mapagkukunan. Ang default ay
20, na kadalasang higit pa sa kinakailangan. Gayunpaman, sa mga pagkakataon kung saan ka
Gustong payagan ang higit pa (o mas kaunti), ito ang opsyong gamitin.

--proxy-user=gumagamit
--proxy-password=password
Tukuyin ang username gumagamit at password password para sa pagpapatunay sa isang proxy server.
Ie-encode ng Wget ang mga ito gamit ang "basic" authentication scheme.

Mga pagsasaalang-alang sa seguridad katulad ng mga may --http-password may kinalaman din dito.

--referer=url
Isama ang `Referer: url' header sa kahilingan sa HTTP. Kapaki-pakinabang para sa pagkuha ng mga dokumento na may
pagpoproseso sa panig ng server na ipinapalagay na palagi silang kinukuha ng interactive na web
browser at lalabas lang nang maayos kapag ang Referer ay nakatakda sa isa sa mga pahinang iyon
sa kanila.

--save-header
I-save ang mga header na ipinadala ng HTTP server sa file, bago ang aktwal na mga nilalaman,
na may walang laman na linya bilang separator.

-U ahente-string
--user-agent=ahente-string
Kilalanin bilang ahente-string sa HTTP server.

Ang HTTP protocol ay nagpapahintulot sa mga kliyente na kilalanin ang kanilang mga sarili gamit ang isang "User-Agent"
field ng header. Nagbibigay-daan ito sa pagkilala sa software ng WWW, kadalasan para sa istatistika
layunin o para sa pagsubaybay sa mga paglabag sa protocol. Karaniwang kinikilala ng Wget bilang
Wget/bersyon, bersyon pagiging kasalukuyang numero ng bersyon ng Wget.

Gayunpaman, ang ilang mga site ay kilala na nagpapataw ng patakaran ng pagsasaayos ng output
ayon sa impormasyong ibinigay ng "User-Agent". Habang ito ay hindi isang masamang ideya
sa teorya, ito ay inabuso ng mga server na tinatanggihan ang impormasyon sa mga kliyente maliban sa
(sa kasaysayan) Netscape o, mas madalas, Microsoft Internet Explorer. Ang pagpipiliang ito
nagpapahintulot sa iyo na baguhin ang linyang "User-Agent" na inisyu ng Wget. Ang paggamit ng pagpipiliang ito ay
pinanghihinaan ng loob, maliban kung alam mo talaga ang iyong ginagawa.

Tinutukoy ang walang laman na ahente ng gumagamit na may --user-agent="" inutusan si Wget na huwag ipadala ang
Header na "User-Agent" sa mga kahilingan sa HTTP.

--post-data=pisi
--post-file=file
Gamitin ang POST bilang paraan para sa lahat ng kahilingan sa HTTP at ipadala ang tinukoy na data sa
katawan ng kahilingan. --post-data nagpapadala pisi bilang data, samantalang --post-file nagpapadala ng
nilalaman ng file. Maliban doon, gumagana ang mga ito sa eksaktong parehong paraan. Sa partikular,
sila kapwa asahan ang nilalaman ng form na "key1=value1&key2=value2", na may percent-encoding
para sa mga espesyal na karakter; ang kaibahan lamang ay inaasahan ng isa ang nilalaman nito bilang a
command-line parameter at ang isa ay tumatanggap ng nilalaman nito mula sa isang file. Sa partikular,
--post-file is hindi para sa pagpapadala ng mga file bilang mga attachment ng form: dapat lumitaw ang mga iyon bilang
"key=value" na data (na may naaangkop na percent-coding) tulad ng lahat ng iba pa. Wget
kasalukuyang hindi sumusuporta sa "multipart/form-data" para sa pagpapadala ng POST data; lamang
"application/x-www-form-urlencoded". Isa lamang sa --post-data at --post-file ay dapat na
tinukoy.

Pakitandaan na hindi kailangan ng wget na nasa form ang nilalaman
"key1=value1&key2=value2", at hindi rin nito sinusubukan ito. Ang Wget ay magpapadala lamang
anumang data ang ibinigay dito. Gayunpaman, karamihan sa mga server ay umaasa na ang data ng POST ay nasa
ang format sa itaas kapag nagpoproseso ng mga HTML Form.

Kapag nagpapadala ng kahilingan sa POST gamit ang --post-file opsyon, tinatrato ng Wget ang file bilang a
binary file at ipapadala ang bawat karakter sa POST na kahilingan nang hindi natatanggal
sumusunod sa mga bagong linya o formfeed na mga character. Anumang iba pang mga control character sa teksto ay gagawin
ipadala din kung ano ang nasa POST na kahilingan.

Mangyaring magkaroon ng kamalayan na kailangang malaman ng Wget ang laki ng POST data nang maaga.
Samakatuwid ang argumento sa "--post-file" ay dapat na isang regular na file; tumutukoy sa isang FIFO o
isang bagay tulad ng /dev/stdin hindi gagana. Hindi masyadong malinaw kung paano ito gagawin
limitasyon na likas sa HTTP/1.0. Bagama't ipinakilala ng HTTP/1.1 tipak ilipat mo yan
hindi nangangailangan ng pag-alam sa haba ng kahilingan nang maaga, ang isang kliyente ay hindi maaaring gumamit ng chunked
maliban kung alam nitong nakikipag-usap ito sa isang HTTP/1.1 server. At hindi nito malalaman iyon hanggang dito
tumatanggap ng tugon, na nangangailangan naman ng kahilingan na makumpleto -- a
problema sa manok-at-itlog.

Tandaan: Sa bersyon 1.15 kung ang Wget ay na-redirect pagkatapos makumpleto ang kahilingan sa POST,
ang pag-uugali nito ay nakasalalay sa code ng tugon na ibinalik ng server. Sa kaso ng a
301 Permanenteng Inilipat, 302 Inilipat Pansamantala o 307 Pansamantalang Pag-redirect, Wget ay, sa
alinsunod sa RFC2616, patuloy na magpadala ng kahilingan sa POST. Kung sakaling gusto ng isang server ang
client upang baguhin ang paraan ng Kahilingan sa pag-redirect, dapat itong magpadala ng 303 See Other
sagot code.

Ipinapakita ng halimbawang ito kung paano mag-log in sa isang server gamit ang POST at pagkatapos ay magpatuloy sa pag-download
ang ninanais na mga pahina, marahil ay naa-access lamang ng mga awtorisadong gumagamit:

# Mag-log in sa server. Isang beses lang ito magagawa.
wget --save-cookies cookies.txt \
--post-data 'user=foo&password=bar' \
http://server.com/auth.php

# Ngayon kunin ang pahina o mga pahina na pinapahalagahan namin.
wget --load-cookies cookies.txt \
-p http://server.com/interesting/article.php

Kung gumagamit ang server ng cookies ng session upang subaybayan ang pagpapatunay ng user, gagawin ng nasa itaas
hindi gumagana dahil --save-cookies ay hindi magliligtas sa kanila (at hindi rin ang mga browser) at ang
cookies.txt magiging walang laman ang file. Sa kasong iyon, gamitin --keep-session-cookies kasama ng
--save-cookies upang pilitin ang pag-save ng cookies ng session.

--paraan=HTTP-Paraan
Para sa layunin ng RESTful scripting, pinapayagan ng Wget ang pagpapadala ng iba pang HTTP Methods
nang hindi kinakailangang tahasang itakda ang mga ito gamit --header=Header-Line. Gagamitin ni Wget
anumang string ang ipapasa dito pagkatapos --paraan bilang HTTP Method sa server.

--data-katawan=String ng Data
--body-file=Data-File
Dapat itakda kapag kailangang ipadala ang karagdagang data sa server kasama ang Paraan
tinukoy gamit --paraan. --data-katawan nagpapadala pisi bilang data, samantalang --body-file nagpapadala
ang nilalaman ng file. Maliban doon, gumagana ang mga ito sa eksaktong parehong paraan.

Sa kasalukuyan, --body-file is hindi para sa pagpapadala ng mga file sa kabuuan. Wget ay hindi
kasalukuyang sumusuporta sa "multipart/form-data" para sa pagpapadala ng data; lamang
"application/x-www-form-urlencoded". Sa hinaharap, ito ay maaaring mabago upang ang wget
nagpapadala ng --body-file bilang isang kumpletong file sa halip na ipadala ang mga nilalaman nito sa
server. Mangyaring magkaroon ng kamalayan na kailangang malaman ng Wget ang mga nilalaman ng BODY Data nang maaga,
at samakatuwid ang argumento sa --body-file dapat ay isang regular na file. Tingnan mo --post-file para sa isang
mas detalyadong paliwanag. Isa lamang sa --data-katawan at --body-file ay dapat na
tinukoy.

Kung na-redirect ang Wget pagkatapos makumpleto ang kahilingan, sususpindihin ng Wget ang kasalukuyang
paraan at magpadala ng kahilingan sa GET hanggang sa makumpleto ang pag-redirect. Ito ay totoo para sa lahat
redirection response codes maliban sa 307 Temporary Redirect na ginagamit sa tahasan
tukuyin na ang paraan ng kahilingan ay dapat hindi pagbabago. Ang isa pang pagbubukod ay kapag ang
paraan ay nakatakda sa "POST", kung saan ang mga panuntunan sa pag-redirect na tinukoy sa ilalim
--post-data ay sinusundan.

--content-disposition
Kung ito ay nakatakda sa, pang-eksperimentong (hindi ganap na gumagana) na suporta para sa
Ang mga header ng "Content-Disposition" ay pinagana. Ito ay kasalukuyang maaaring magresulta sa dagdag na round-
bumibiyahe sa server para sa kahilingang "HEAD", at kilala itong dumaranas ng ilang mga bug,
kaya naman hindi ito kasalukuyang pinagana bilang default.

Ang pagpipiliang ito ay kapaki-pakinabang para sa ilang mga file-download na CGI program na gumagamit
Mga header na "Content-Disposition" upang ilarawan kung ano ang dapat na pangalan ng isang na-download na file
maging.

--content-on-error
Kung nakatakda ito sa on, hindi lalaktawan ng wget ang nilalaman kapag tumugon ang server ng a
http status code na nagsasaad ng error.

--trust-server-name
Kung ito ay nakatakda sa naka-on, sa isang pag-redirect ang huling bahagi ng URL ng pag-redirect ay magiging
ginamit bilang lokal na pangalan ng file. Bilang default ito ay ginagamit ang huling bahagi sa orihinal
URL

--auth-no-challenge
Kung ibinigay ang opsyong ito, magpapadala ang Wget ng Basic HTTP authentication information
(plaintext username at password) para sa lahat ng kahilingan, tulad ng Wget 1.10.2 at bago
ginawa bilang default.

Ang paggamit ng opsyong ito ay hindi inirerekomenda, at nilayon lamang na suportahan ang iilan
mga nakakubli na server, na hindi nagpapadala ng mga hamon sa pagpapatotoo ng HTTP, ngunit tinatanggap
hindi hinihinging impormasyon ng pagpapatotoo, halimbawa, bilang karagdagan sa pagpapatunay na batay sa form.

HTTPS (SSL/TLS) Options
Upang suportahan ang mga naka-encrypt na HTTP (HTTPS) na pag-download, ang Wget ay dapat na pinagsama-sama sa isang panlabas na SSL
aklatan. Ang kasalukuyang default ay GnuTLS. Bilang karagdagan, sinusuportahan din ng Wget ang HSTS (HTTP Strict
Seguridad sa Transportasyon). Kung pinagsama-sama ang Wget nang walang suporta sa SSL, wala sa mga opsyon na ito
magagamit.

--secure-protocol=protokol
Piliin ang secure na protocol na gagamitin. Ang mga legal na halaga ay kotse, SSLv2, SSLv3, TLSv1,
TLSv1_1, TLSv1_2 at PFS. Kung kotse ay ginagamit, ang SSL library ay binibigyan ng kalayaan ng
awtomatikong pagpili ng naaangkop na protocol, na nakakamit sa pamamagitan ng pagpapadala ng TLSv1
pagbati. Ito ang default.

Tinutukoy SSLv2, SSLv3, TLSv1, TLSv1_1 or TLSv1_2 pinipilit ang paggamit ng kaukulang
protocol. Ito ay kapaki-pakinabang kapag nakikipag-usap sa mga luma at buggy na pagpapatupad ng SSL server
na nagpapahirap sa pinagbabatayan na library ng SSL na piliin ang tamang protocol
bersyon. Sa kabutihang palad, ang mga naturang server ay medyo bihira.

Tinutukoy PFS nagpapatupad ng paggamit ng tinatawag na Perfect Forward Security cipher
mga suite. Sa madaling salita, nagdaragdag ang PFS ng seguridad sa pamamagitan ng paglikha ng isang beses na susi para sa bawat SSL
koneksyon. Ito ay may kaunti pang epekto ng CPU sa kliyente at server. Ginagamit namin ang kilala bilang
secure ciphers (hal. walang MD4) at ang TLS protocol.

--https-lamang
Kapag nasa recursive mode, HTTPS link lang ang sinusunod.

--no-check-sertipiko
Huwag suriin ang sertipiko ng server laban sa mga magagamit na awtoridad ng sertipiko.
Hindi rin kailanganin ang pangalan ng URL host na tumugma sa karaniwang pangalan na ipinakita ng
sertipiko

Mula sa Wget 1.10, ang default ay i-verify ang certificate ng server laban sa
kinikilalang mga awtoridad sa sertipiko, pagsira sa SSL handshake at pagpapalaglag sa
i-download kung nabigo ang pag-verify. Bagama't nagbibigay ito ng mas secure na mga pag-download, ito
sinisira ang interoperability sa ilang mga site na nagtrabaho sa mga nakaraang bersyon ng Wget,
partikular na ang mga gumagamit ng self-signed, nag-expire, o kung hindi man ay di-wastong mga sertipiko.
Pinipilit ng opsyong ito ang isang "insecure" na mode ng pagpapatakbo na nagpapaikot sa certificate
mga error sa pag-verify sa mga babala at pinapayagan kang magpatuloy.

Kung makatagpo ka ng mga error sa "certificate verification" o mga nagsasabi na "common name
ay hindi tumutugma sa hiniling na pangalan ng host", maaari mong gamitin ang opsyong ito upang i-bypass ang pag-verify
at magpatuloy sa pag-download. Lamang gamitin ito opsyon if ikaw ay kung hindi man ay naniwala sa of
ang mga site pagiging tunay, or if ikaw Talaga huwag pakialam tungkol sa ang bisa of nito
sertipiko Ito ay halos palaging isang masamang ideya na huwag suriin ang mga sertipiko kung kailan
pagpapadala ng kumpidensyal o mahalagang data. Para sa mga self-signed/internal na sertipiko,
dapat mong i-download ang sertipiko at i-verify laban doon sa halip na pilitin ito
insecure mode. Kung talagang sigurado ka na hindi ka nagnanais ng anumang pagpapatunay ng sertipiko,
maaari mong tukuyin --check-certificate=quiet upang sabihin sa wget na huwag mag-print ng anumang babala tungkol sa
di-wastong mga sertipiko, kahit na sa karamihan ng mga kaso ito ang maling bagay na dapat gawin.

--sertipiko=file
Gamitin ang certificate ng kliyente na nakaimbak sa file. Ito ay kinakailangan para sa mga server na
na-configure upang mangailangan ng mga sertipiko mula sa mga kliyenteng kumokonekta sa kanila. Karaniwan a
hindi kinakailangan ang sertipiko at ang switch na ito ay opsyonal.

--certificate-type=uri
Tukuyin ang uri ng sertipiko ng kliyente. Ang mga legal na halaga ay PEM (ipinapalagay bilang default)
at DER, kilala din sa ASN1.

--private-key=file
Basahin ang pribadong key mula sa file. Binibigyang-daan ka nitong ibigay ang pribadong key sa isang file
hiwalay sa sertipiko.

--private-key-type=uri
Tukuyin ang uri ng pribadong key. Ang mga tinatanggap na halaga ay PEM (ang default) at DER.

--ca-certificate=file
paggamit file bilang ang file na may bundle ng mga awtoridad sa sertipiko ("CA") upang i-verify ang
mga kapantay. Ang mga certificate ay dapat nasa PEM format.

Kung wala ang opsyong ito, naghahanap ang Wget ng mga CA certificate sa mga lokasyong tinukoy ng system,
pinili sa oras ng pag-install ng OpenSSL.

--ca-directory=direktoryo
Tinutukoy ang direktoryo na naglalaman ng mga CA certificate sa PEM format. Ang bawat file ay naglalaman ng isa
CA certificate, at ang pangalan ng file ay batay sa isang hash value na nagmula sa
sertipiko. Ito ay nakakamit sa pamamagitan ng pagproseso ng isang direktoryo ng sertipiko gamit ang
"c_rehash" utility na ibinigay kasama ng OpenSSL. Gamit --ca-direktoryo ay mas mahusay kaysa sa
--ca-certificate kapag maraming mga sertipiko ang na-install dahil pinapayagan nito ang Wget na kunin
mga sertipiko kapag hinihiling.

Kung wala ang opsyong ito, naghahanap ang Wget ng mga CA certificate sa mga lokasyong tinukoy ng system,
pinili sa oras ng pag-install ng OpenSSL.

--crl-file=file
Tinutukoy ang isang CRL file sa file. Ito ay kinakailangan para sa mga sertipiko na
binawi ng mga CA.

--random-file=file
[OpenSSL at LibreSSL lang] Gamitin file bilang ang pinagmulan ng random na data para sa seeding ang
pseudo-random number generator sa mga system na walang / Dev / urandom.

Sa ganitong mga sistema ang SSL library ay nangangailangan ng isang panlabas na mapagkukunan ng randomness upang masimulan.
Ang pagiging random ay maaaring ibigay ng EGD (tingnan --egd-file sa ibaba) o basahin mula sa isang panlabas
pinagmulan na tinukoy ng gumagamit. Kung ang pagpipiliang ito ay hindi tinukoy, ang Wget ay naghahanap ng random
data sa $RANDFILE o, kung iyon ay hindi nakatakda, sa $HOME/.rnd.

Kung nakukuha mo ang "Could not seed OpenSSL PRNG; disable SSL." pagkakamali, dapat
magbigay ng random na data gamit ang ilan sa mga pamamaraan na inilarawan sa itaas.

--egd-file=file
[OpenSSL lang] Gamitin file bilang EGD socket. Ang ibig sabihin ng EGD ay Entropy Pagtitipon demonyoSa
user-space program na nangongolekta ng data mula sa iba't ibang hindi nahuhulaang pinagmumulan ng system at
ginagawa itong magagamit sa iba pang mga programa na maaaring kailanganin ito. Encryption software, gaya ng
ang SSL library, ay nangangailangan ng mga mapagkukunan ng hindi paulit-ulit na randomness upang i-seed ang random na numero
generator na ginagamit upang makagawa ng mga key na malakas sa cryptographically.

Binibigyang-daan ng OpenSSL ang user na tukuyin ang kanyang sariling pinagmulan ng entropy gamit ang "RAND_FILE"
variable ng kapaligiran. Kung ang variable na ito ay hindi nakatakda, o kung ang tinukoy na file ay hindi
makagawa ng sapat na randomness, ang OpenSSL ay magbabasa ng random na data mula sa EGD socket na tinukoy
gamit ang opsyong ito.

Kung hindi tinukoy ang opsyong ito (at hindi ginagamit ang katumbas na startup command), EGD
ay hindi kailanman makontak. Hindi kailangan ang EGD sa mga modernong Unix system na sumusuporta
/ Dev / urandom.

--no-hsts
Sinusuportahan ng Wget ang HSTS (HTTP Strict Transport Security, RFC 6797) bilang default. Gamitin
--no-hsts upang gawin ang Wget bilang isang hindi sumusunod sa HSTS na UA. Bilang kinahinatnan, gagawin ni Wget
huwag pansinin ang lahat ng mga header na "Strict-Transport-Security", at hindi magpapatupad ng anumang umiiral na
Patakaran ng HSTS.

--hsts-file=file
Bilang default, iniimbak ng Wget ang database ng HSTS nito ~/.wget-hsts. Maaari mong gamitin ang --hsts-file sa
i-override ito. Gagamitin ng Wget ang ibinigay na file bilang database ng HSTS. Ang nasabing file ay dapat
umaayon sa tamang format ng database ng HSTS na ginamit ng Wget. Kung hindi ma-parse ng Wget ang
ibinigay na file, ang pag-uugali ay hindi natukoy.

Ang database ng HSTS ng Wget ay isang plain text file. Ang bawat linya ay naglalaman ng isang HSTS entry (hal. a
site na naglabas ng header na "Strict-Transport-Security" at samakatuwid ay mayroon
tinukoy ang isang konkretong patakaran ng HSTS na ilalapat). Ang mga linyang nagsisimula sa gitling ("#") ay
hindi pinansin ni Wget. Pakitandaan na sa kabila ng maginhawang ito na madaling mabasa ng tao-
Ang pag-hack sa database ng HSTS ay karaniwang hindi isang magandang ideya.

Ang isang entry line ng HSTS ay binubuo ng ilang mga field na pinaghihiwalay ng isa o higit pang whitespace:

" SP [ ] SP SP SP "

Ang hostname at port ang mga patlang ay nagpapahiwatig ng hostname at port kung saan ang ibinigay na HSTS
naaangkop ang patakaran. Ang port ang field ay maaaring zero, at ito ay, sa karamihan ng mga kaso. yun
nangangahulugan na ang numero ng port ay hindi isasaalang-alang kapag nagpapasya kung ganoon
Dapat ilapat ang patakaran ng HSTS sa isang partikular na kahilingan (ang hostname lang ang magiging
nasuri). Kailan port ay iba sa zero, pareho ang target na hostname at ang port
susuriin at ang patakaran ng HSTS ay ilalapat lamang kung magkatugma ang mga ito. Ito
Ang tampok ay isinama para sa mga layunin ng pagsubok/pag-unlad lamang. Ang Wget testsuite
(Sa testenv/) lumilikha ng mga database ng HSTS na may mga tahasang port na may layuning tiyakin
Tamang pag-uugali ni Wget. Paglalapat ng mga patakaran ng HSTS sa mga port maliban sa mga default
ay pinanghinaan ng loob ng RFC 6797 (tingnan ang Appendix B "Mga Pagkakaiba sa pagitan ng Patakaran ng HSTS at Parehong-
Origin Policy"). Kaya, hindi dapat gamitin ang functionality na ito sa produksyon
kapaligiran at port ay karaniwang magiging zero. Ginagawa ng huling tatlong field kung ano sila
inaasahan na. Ang bukid isama ang_subdomain maaaring maging 1 o 0 at ito ay nagpapahiwatig kung
ang mga subdomain ng target na domain ay dapat ding maging bahagi ng ibinigay na patakaran ng HSTS.
Ang nilikha at max-edad ang mga patlang ay nagtataglay ng mga halaga ng timestamp kung kailan nangyari ang naturang entry
nilikha (unang nakita ng Wget) at ang halagang tinukoy ng HSTS na 'max-age', na nagsasaad kung paano
dapat na manatiling aktibo ang patakaran ng HSTS, na sinusukat sa mga segundong lumipas mula noong
timestamp na nakaimbak sa nilikha. Kapag lumipas na ang panahong iyon, ang patakarang iyon ng HSTS ay hindi
magiging wasto at kalaunan ay aalisin sa database.

Kung ibibigay mo ang iyong sariling database ng HSTS sa pamamagitan ng --hsts-file, magkaroon ng kamalayan na maaaring magbago ang Wget
ang ibinigay na file kung may anumang pagbabagong magaganap sa pagitan ng mga patakaran ng HSTS na hiniling ng
mga malalayong server at ang mga nasa file. Kapag umiiral ang Wget, epektibo nitong ina-update ang
HSTS database sa pamamagitan ng muling pagsusulat ng database file gamit ang mga bagong entry.

Kung wala ang ibinigay na file, gagawa ng isa ang Wget. Ang file na ito ay maglalaman ng
bagong HSTS entry. Kung walang nabuong mga entry sa HSTS (walang "Strict-Transport-Security"
Ang mga header ay ipinadala ng alinman sa mga server) pagkatapos ay walang file na gagawin, kahit isang
walang laman. Nalalapat ang gawi na ito sa default na file ng database (~/.wget-hsts) din:
hindi ito malilikha hanggang ang ilang server ay nagpapatupad ng patakaran ng HSTS.

Nag-iingat na huwag i-override ang mga posibleng pagbabagong ginawa ng ibang mga proseso ng Wget sa
parehong oras sa database ng HSTS. Bago itapon ang na-update na mga entry sa HSTS sa file,
Babasahin itong muli ni Wget at pagsasamahin ang mga pagbabago.

Ang paggamit ng isang pasadyang database ng HSTS at/o pagbabago ng isang umiiral na ay hindi hinihikayat. Para sa
higit pang impormasyon tungkol sa mga potensyal na banta sa seguridad na nagmula sa naturang pagsasanay, tingnan
seksyon 14 "Mga Pagsasaalang-alang sa Seguridad" ng RFC 6797, lalo na ang seksyon 14.9 "Creative
Pagmamanipula ng HSTS Policy Store".

--warc-file=file
paggamit file bilang patutunguhang WARC file.

--warc-header=pisi
paggamit pisi sa bilang ang warcinfo record.

--warc-max-size=laki
Itakda ang maximum na laki ng mga WARC file sa laki.

--warc-cdx
Sumulat ng mga CDX index file.

--warc-dedup=file
Huwag mag-imbak ng mga talaan na nakalista sa CDX file na ito.

--no-warc-compression
Huwag i-compress ang mga WARC file gamit ang GZIP.

--no-warc-digests
Huwag kalkulahin ang mga digest ng SHA1.

--no-warc-keep-log
Huwag iimbak ang log file sa isang WARC record.

--warc-tempdir=dir
Tukuyin ang lokasyon para sa mga pansamantalang file na ginawa ng manunulat ng WARC.

FTP Options
--ftp-user=gumagamit
--ftp-password=password
Tukuyin ang username gumagamit at password password sa isang FTP server. Kung wala ito, o
ang kaukulang opsyon sa pagsisimula, ang password ay magiging default sa -wget@, karaniwang ginagamit para sa
hindi kilalang FTP.

Ang isa pang paraan upang tukuyin ang username at password ay nasa URL mismo. Alinmang paraan
ipinapakita ang iyong password sa sinumang nag-aabala sa pagpapatakbo ng "ps". Upang maiwasan ang mga password
mula sa nakikita, itago ang mga ito sa .wgetrc or .netrc, at tiyaking protektahan ang mga file na iyon
mula sa iba pang mga gumagamit na may "chmod". Kung talagang mahalaga ang mga password, huwag umalis
ang mga ito ay nakahiga sa mga file na iyon alinman---i-edit ang mga file at tanggalin ang mga ito pagkatapos gawin ng Wget
sinimulan ang pag-download.

--no-remove-listing
Huwag tanggalin ang pansamantala .listing mga file na nabuo ng mga pagkuha ng FTP. Karaniwan,
ang mga file na ito ay naglalaman ng mga hilaw na listahan ng direktoryo na natanggap mula sa mga FTP server. Hindi
ang pag-alis sa mga ito ay maaaring maging kapaki-pakinabang para sa mga layunin ng pag-debug, o kapag gusto mong magawa
madaling suriin ang mga nilalaman ng malayuang mga direktoryo ng server (hal. upang i-verify na a
kumpleto na ang salamin na iyong tinatakbo).

Tandaan na kahit na nagsusulat si Wget sa isang kilalang filename para sa file na ito, hindi ito a
butas ng seguridad sa senaryo ng paggawa ng user .listing isang simbolikong link sa / etc / passwd
o isang bagay at humihiling sa "ugat" na patakbuhin ang Wget sa kanyang direktoryo. Depende sa
mga opsyon na ginamit, alinman sa Wget ay tatanggi na sumulat .listing, paggawa ng
nabigo ang globbing/recursion/time-stamping operation, o tatanggalin ang simbolikong link
at pinalitan ng aktwal .listing file, o ang listahan ay isusulat sa a
.listing.number file.

Kahit na ang sitwasyong ito ay hindi isang problema, bagaman, ang "ugat" ay hindi dapat tumakbo sa Wget sa a
hindi pinagkakatiwalaang direktoryo ng gumagamit. Ang isang user ay maaaring gumawa ng isang bagay na kasing simple ng pag-link
index.html sa / etc / passwd at humihiling sa "ugat" na patakbuhin ang Wget -N or -r kaya ang file ay
ma-overwrite.

--walang-glob
I-off ang FTP globbing. Ang globbing ay tumutukoy sa paggamit ng parang shell na mga espesyal na character
(mga wildcard), katulad *, ?, [ at ] upang kunin ang higit sa isang file mula sa parehong direktoryo
sabay-sabay, tulad ng:

wget ftp://gnjilux.srk.fer.hr/*.msg

Bilang default, io-on ang globbing kung naglalaman ang URL ng globbing na character. Ito
maaaring gamitin ang opsyon para permanenteng i-on o i-off ang globbing.

Maaaring kailanganin mong banggitin ang URL upang maprotektahan ito mula sa pagpapalawak ng iyong shell.
Ginagawa ng Globbing ang Wget na maghanap ng isang listahan ng direktoryo, na partikular sa system. Ito ay
bakit kasalukuyang gumagana lamang ito sa mga server ng Unix FTP (at ang mga tumutulad sa Unix "ls"
output).

--no-passive-ftp
Huwag paganahin ang paggamit ng pabalintiyak FTP transfer mode. Ang passive FTP ay nag-uutos na ang
kumonekta ang kliyente sa server upang maitatag ang koneksyon ng data kaysa sa iba
mga paraan sa paligid.

Kung ang makina ay direktang konektado sa Internet, parehong passive at aktibong FTP
dapat gumana nang pantay-pantay. Sa likod ng karamihan sa mga configuration ng firewall at NAT, mayroon ang passive na FTP
mas magandang pagkakataong magtrabaho. Gayunpaman, sa ilang bihirang mga pagsasaayos ng firewall, aktibong FTP
talagang gumagana kapag ang passive FTP ay hindi. Kung pinaghihinalaan mo na ito ang kaso, gamitin ito
opsyon, o itakda ang "passive_ftp=off" sa iyong init file.

--preserve-mga pahintulot
Panatilihin ang mga pahintulot ng malayuang file sa halip na mga pahintulot na itinakda ng umask.

--retr-symlinks
Bilang default, kapag binabawi ang mga direktoryo ng FTP nang recursively at ang isang simbolikong link ay
nakatagpo, ang simbolikong link ay tinatahak at ang mga nakaturo sa mga file ay nakuha.
Sa kasalukuyan, hindi binabagtas ng Wget ang mga simbolikong link sa mga direktoryo upang i-download ang mga ito
recursively, kahit na ang tampok na ito ay maaaring idagdag sa hinaharap.

Kailan --retr-symlinks=no ay tinukoy, ang naka-link sa file ay hindi na-download. sa halip,
isang katugmang simbolikong link ay nilikha sa lokal na filesystem. Ang nakaturo sa file ay
hindi makukuha maliban kung ang recursive retrieval na ito ay magkahiwalay na nakatagpo nito
at na-download pa rin ito. Ang pagpipiliang ito ay nagdudulot ng panganib sa seguridad kung saan ang isang nakakahamak na FTP
Ang server ay maaaring maging sanhi ng Wget na sumulat sa mga file sa labas ng nilalayong mga direktoryo sa pamamagitan ng a
espesyal na ginawang .LISTING file.

Tandaan na kapag kinukuha ang isang file (hindi isang direktoryo) dahil ito ay tinukoy sa
command-line, sa halip na dahil naulit ito, walang epekto ang opsyong ito.
Ang mga simbolikong link ay palaging binabagtas sa kasong ito.

FTPS Options
--ftps-implicit
Ang pagpipiliang ito ay nagsasabi sa Wget na gamitin ang FTPS nang hindi malinaw. Ang implicit na FTPS ay binubuo ng pagsisimula
SSL/TLS mula sa pinakasimula ng control connection. Hindi nagpapadala ang opsyong ito
isang "AUTH TLS" na utos: ipinapalagay nito na ang server ay nagsasalita ng FTPS at direktang nagsisimula ng isang
Koneksyon ng SSL/TLS. Kung matagumpay ang pagtatangka, magpapatuloy ang session tulad ng
regular na FTPS ("PBSZ" at "PROT" ay ipinapadala, atbp.). Ang implicit FTPS ay hindi na a
kinakailangan para sa mga pagpapatupad ng FTPS, at sa gayon maraming mga server ang maaaring hindi sumusuporta dito. Kung
--ftps-implicit ay naipasa at walang tinukoy na tahasang numero ng port, ang default na port para sa
implicit na FTPS, 990, ang gagamitin, sa halip na ang default na port para sa "normal"
(hayagang) FTPS na kapareho ng sa FTP, 21.

--no-ftps-resume-ssl
Huwag ipagpatuloy ang SSL/TLS session sa data channel. Kapag nagsisimula ng data
koneksyon, sinusubukan ni Wget na ipagpatuloy ang session ng SSL/TLS na dati nang nagsimula sa control
koneksyon. Iniiwasan ng pagpapatuloy ng SSL/TLS session ang pagsasagawa ng isang ganap na bagong handshake ni
muling paggamit ng mga parameter ng SSL/TLS ng nakaraang session. Kadalasan, gusto ng mga FTPS server
sa ganoong paraan, kaya ginagawa ito ng Wget bilang default. Sa ilalim ng mga bihirang pagkakataon gayunpaman, maaaring isa
gustong magsimula ng isang ganap na bagong SSL/TLS session sa bawat koneksyon ng data. Ito ang ano
--no-ftps-resume-ssl ay para sa.

--ftps-clear-data-koneksyon
Ang lahat ng koneksyon ng data ay nasa plain text. Tanging ang kontrol na koneksyon ay magiging
sa ilalim ng SSL/TLS. Ang Wget ay magpapadala ng isang "PROT C" na utos upang makamit ito, na dapat na
inaprubahan ng server.

--ftps-fallback-to-ftp
Bumalik sa FTP kung ang FTPS ay hindi suportado ng target na server. Para sa mga kadahilanang pangseguridad,
ang pagpipiliang ito ay hindi iginiit bilang default. Ang default na gawi ay ang paglabas gamit ang isang
pagkakamali. Kung ang isang server ay hindi matagumpay na tumugon sa paunang "AUTH TLS" na utos, o
sa kaso ng implicit na FTPS, kung ang paunang pagtatangka sa koneksyon ng SSL/TLS ay tinanggihan,
ito ay itinuturing na ang naturang server ay hindi sumusuporta sa FTPS.

Pag-recursive Pagkuha Options
-r
- nagrerecursive
I-on ang recursive retrieving. Ang default na maximum depth ay 5.

-l lalim
--level=lalim
Tukuyin ang pinakamataas na antas ng lalim ng recursion lalim.

--tanggalin-pagkatapos
Sinasabi ng pagpipiliang ito sa Wget na tanggalin ang bawat solong file na dina-download nito, pagkatapos nang magawa ito.
Ito ay kapaki-pakinabang para sa paunang pagkuha ng mga sikat na pahina sa pamamagitan ng isang proxy, hal:

wget -r -nd --delete-after http://whatever.com/~popular/page/

Ang -r Ang pagpipilian ay upang kunin ang recursively, at -nd upang hindi lumikha ng mga direktoryo.

Tandaan na ang --tanggalin-pagkatapos tinatanggal ang mga file sa lokal na makina. Hindi nito inilalabas ang
Tanggalin utos sa mga malalayong FTP site, halimbawa. Tandaan din na kapag --tanggalin-pagkatapos is
tinukoy, --convert-links ay hindi pinapansin, kaya .orig Ang mga file ay hindi lamang nilikha sa
unang lugar.

-k
--convert-links
Pagkatapos makumpleto ang pag-download, i-convert ang mga link sa dokumento upang gawin ang mga ito
angkop para sa lokal na pagtingin. Naaapektuhan nito hindi lamang ang mga nakikitang hyperlink, ngunit anuman
bahagi ng dokumentong nagli-link sa panlabas na nilalaman, tulad ng mga naka-embed na larawan, na nagli-link sa
mga style sheet, mga hyperlink sa nilalamang hindi HTML, atbp.

Ang bawat link ay babaguhin sa isa sa dalawang paraan:

· Ang mga link sa mga file na na-download ng Wget ay babaguhin upang sumangguni sa
ang file na itinuturo nila bilang isang kamag-anak na link.

Halimbawa: kung ang na-download na file /foo/doc.html mga link sa /bar/img.gif, Kaya
na-download, pagkatapos ay ang link sa doc.html ay babaguhin upang ituro sa ../bar/img.gif.
Ang ganitong uri ng pagbabago ay gumagana nang mapagkakatiwalaan para sa mga arbitrary na kumbinasyon ng
mga direktoryo.

· Ang mga link sa mga file na hindi pa na-download ng Wget ay papalitan sa
isama ang host name at absolute path ng lokasyong itinuturo nila.

Halimbawa: kung ang na-download na file /foo/doc.html mga link sa /bar/img.gif (o sa
../bar/img.gif), pagkatapos ay ang link sa doc.html ay babaguhin upang ituro sa
http://hostname/bar/img.gif.

Dahil dito, gumagana nang mapagkakatiwalaan ang lokal na pagba-browse: kung na-download ang isang naka-link na file, ang
ang link ay tumutukoy sa lokal na pangalan nito; kung hindi ito na-download, ang link ay magre-refer sa
ang buong Internet address nito sa halip na magpakita ng sirang link. Ang katotohanan na ang
ang mga dating link ay na-convert sa mga kamag-anak na link ay nagsisiguro na maaari mong ilipat ang na-download
hierarchy sa isa pang direktoryo.

Tandaan na sa dulo lamang ng pag-download ay maaaring malaman ng Wget kung aling mga link ang naging
na-download. Dahil doon, ang gawaing ginawa ni -k isasagawa sa katapusan ng lahat
ang mga pag-download.

--convert-file-lamang
Kino-convert lang ng opsyong ito ang filename na bahagi ng mga URL, na iniiwan ang natitirang mga URL
hindi nagalaw. Ang bahagi ng filename na ito ay minsang tinutukoy bilang ang "basename", bagaman kami
iwasan ang katagang iyon dito upang hindi magdulot ng kalituhan.

Ito ay partikular na mahusay na gumagana kasabay ng --adjust-extension, bagaman ito
hindi ipinapatupad ang pagsasama. Ito ay nagpapatunay na kapaki-pakinabang upang punan ang mga cache ng Internet ng mga file
na-download mula sa iba't ibang mga host.

Halimbawa: kung tumuturo ang ilang link sa //foo.com/bar.cgi?xyz sa --adjust-extension iginiit
at ang lokal na destinasyon nito ay nilayon ./foo.com/bar.cgi?xyz.css, pagkatapos ay ang link
ay i-convert sa //foo.com/bar.cgi?xyz.css. Tandaan na ang bahagi lamang ng filename ang mayroon
binago. Ang natitirang URL ay hindi ginalaw, kasama ang net path
("//") na kung hindi man ay mapoproseso ng Wget at mako-convert sa epektibo
scheme (ibig sabihin. "http://").

-K
--backup-convert
Kapag nagko-convert ng file, i-back up ang orihinal na bersyon gamit ang a .orig panlapi. Nakakaapekto sa
pag-uugali ng -N.

-m
--salamin
I-on ang mga opsyon na angkop para sa pag-mirror. Ino-on ng opsyong ito ang recursion at oras-
stamping, nagtatakda ng walang katapusang recursion depth at nagpapanatili ng mga listahan ng direktoryo ng FTP. Ito ay
kasalukuyang katumbas ng -r -N -l inf --no-remove-listing.

-p
--pahina-kinakailangan
Ang pagpipiliang ito ay nagiging sanhi ng Wget na i-download ang lahat ng mga file na kinakailangan upang maayos
magpakita ng ibinigay na pahina ng HTML. Kabilang dito ang mga bagay tulad ng mga inline na larawan, tunog, at
mga reference na stylesheet.

Karaniwan, kapag nagda-download ng isang HTML na pahina, anumang mga kinakailangang dokumento na maaaring
na kailangan upang maipakita ito nang maayos ay hindi na-download. Gamit -r Kasama -l maaaring makatulong,
ngunit dahil ang Wget ay hindi karaniwang nakikilala sa pagitan ng panlabas at inlined na mga dokumento,
ang isa ay karaniwang naiwan na may "mga dokumento ng dahon" na nawawala ang kanilang mga kinakailangan.

Halimbawa, sabihin ang dokumento 1.html naglalaman ng " " pagtukoy ng tag 1.gif at isang
" " tag na tumuturo sa panlabas na dokumento 2.html. Sabihin mo na 2.html ay katulad ngunit iyon
ang imahe nito ay 2.gif at ito ay nagli-link sa 3.html. Sabihin na ito ay nagpapatuloy hanggang sa ilang arbitraryo
mataas na bilang.

Kung isasagawa ang utos:

wget -r -l 2 http:// /1.html

pagkatapos 1.html, 1.gif, 2.html, 2.gif, at 3.html ay ida-download. Tulad ng nakikita mo,
3.html ay walang kinakailangan 3.gif dahil ang Wget ay binibilang lamang ang bilang ng
hops (hanggang 2) ang layo mula sa 1.html upang matukoy kung saan ititigil ang recursion.
Gayunpaman, sa utos na ito:

wget -r -l 2 -p http:// /1.html

lahat ng mga file sa itaas at 3.htmlang kailangan 3.gif ay ida-download. Katulad nito,

wget -r -l 1 -p http:// /1.html

magdudulot 1.html, 1.gif, 2.html, at 2.gif upang ma-download. Maaaring isipin ng isa na:

wget -r -l 0 -p http:// /1.html

magda-download lang 1.html at 1.gif, ngunit sa kasamaang palad hindi ito ang kaso, dahil
-l 0 ay katumbas ng -l inf---iyon ay, walang katapusang recursion. Upang mag-download ng isang HTML
page (o isang dakot ng mga ito, lahat ay tinukoy sa command-line o sa a -i Pag-input ng URL
file) at ang (o ang kanilang) mga kinakailangan nito, umalis na lang -r at -l:

wget -p http:// /1.html

Tandaan na ang Wget ay kikilos na parang -r ay tinukoy, ngunit ang solong pahina lamang at
ida-download ang mga kinakailangan nito. Ang mga link mula sa pahinang iyon patungo sa mga panlabas na dokumento ay
hindi masusunod. Sa totoo lang, upang mag-download ng isang pahina at lahat ng mga kinakailangan nito (kahit na
umiiral ang mga ito sa hiwalay na mga website), at tiyaking lokal na ipinapakita ang lot,
ang may-akda na ito ay gustong gumamit ng ilang mga opsyon bilang karagdagan sa -p:

wget -E -H -k -K -p http:// /

Upang tapusin ang paksang ito, sulit na malaman na ang ideya ni Wget ng isang panlabas na dokumento
link ay anumang URL na tinukoy sa isang " " tag, isang " "tag, o isang" "tag ng iba
kaysa sa " ".

--mahigpit na mga komento
I-on ang mahigpit na pag-parse ng mga HTML na komento. Ang default ay upang wakasan ang mga komento sa
unang paglitaw ng ->.

Ayon sa mga pagtutukoy, ang mga komento sa HTML ay ipinahayag bilang SGML deklarasyon.
Ang deklarasyon ay espesyal na markup na nagsisimula sa <! at nagtatapos sa >, Gaya ng <!DOCTYPE
...>, na maaaring naglalaman ng mga komento sa pagitan ng isang pares ng -- mga delimiter. Ang mga komento sa HTML ay
"mga walang laman na deklarasyon", mga deklarasyon ng SGML nang walang anumang tekstong hindi nagkomento. Samakatuwid,
ay isang wastong komento, at gayon din <!--isa-- --dalawa-->, Ngunit ay hindi.

Sa kabilang banda, karamihan sa mga manunulat ng HTML ay hindi nakikita ang mga komento bilang anumang bagay maliban sa
text delimited na may <!-- at ->, na hindi gaanong pareho. Halimbawa, isang bagay
gaya ng gumagana bilang isang wastong komento hangga't ang bilang ng mga gitling ay a
maramihang ng apat (!). Kung hindi, teknikal na tatagal ang komento hanggang sa susunod --, Na
maaaring nasa kabilang dulo ng dokumento. Dahil dito, maraming sikat na browser
ganap na balewalain ang detalye at ipatupad kung ano ang inaasahan ng mga user:
mga komentong nililimitahan sa <!-- at ->.

Hanggang sa bersyon 1.9, mahigpit na binibigyang kahulugan ng Wget ang mga komento, na nagresulta sa mga nawawalang link
sa maraming mga web page na ipinakita nang maayos sa mga browser, ngunit nagkaroon ng kasawian ng
naglalaman ng mga hindi sumusunod na komento. Simula sa bersyon 1.9, sumali si Wget sa
ranggo ng mga kliyente na nagpapatupad ng mga "walang muwang" na mga komento, na tinatapos ang bawat komento sa
unang paglitaw ng ->.

Kung, sa anumang dahilan, gusto mo ng mahigpit na pag-parse ng komento, gamitin ang opsyong ito para i-on ito
sa.

Pag-recursive Tanggapin/Tanggihan Options
-A acclist --tanggapin acclist
-R rejlist --tanggihan rejlist
Tukuyin ang mga listahang pinaghihiwalay ng kuwit ng mga suffix o pattern ng pangalan ng file na tatanggapin o tanggihan.
Tandaan na kung alinman sa mga wildcard na character, *, ?, [ or ], lumilitaw sa isang elemento ng
acclist or rejlist, ito ay ituturing bilang isang pattern, sa halip na isang suffix. Dito sa
kaso, kailangan mong ilakip ang pattern sa mga quote upang maiwasan ang paglawak ng iyong shell
ito, tulad ng sa -A "*.mp3" or -A '*.mp3'.

--accept-regex urlregex
--reject-regex urlregex
Tumukoy ng isang regular na expression upang tanggapin o tanggihan ang kumpletong URL.

--regex-type regextype
Tukuyin ang uri ng regular na expression. Ang mga posibleng uri ay posix or pcre. Tandaan na sa
magagamit pcre uri, ang wget ay kailangang isama sa suporta ng libpcre.

-D listahan ng domain
--domains=listahan ng domain
Magtakda ng mga domain na dapat sundin. listahan ng domain ay isang listahan ng mga domain na pinaghihiwalay ng kuwit. Tandaan
na ginagawa nito hindi buksan -H.

--exclude-domains listahan ng domain
Tukuyin ang mga domain na hindi na sinundan.

--follow-ftp
Sundin ang mga link ng FTP mula sa mga HTML na dokumento. Kung wala ang opsyong ito, babalewalain ng Wget ang lahat ng
Mga link sa FTP.

--follow-tags=listahan
Ang Wget ay may panloob na talahanayan ng HTML tag / mga pares ng katangian na isinasaalang-alang nito kung kailan
naghahanap ng mga naka-link na dokumento sa panahon ng recursive retrieval. Kung ang isang gumagamit ay nais lamang a
subset ng mga tag na iyon na isasaalang-alang, gayunpaman, dapat niyang tukuyin ang mga naturang tag
sa isang comma-separated listahan gamit ang pagpipiliang ito.

--ignore-tags=listahan
Ito ang kabaligtaran ng --follow-tags opsyon. Upang laktawan ang ilang partikular na HTML tag kung kailan
paulit-ulit na naghahanap ng mga dokumentong ida-download, tukuyin ang mga ito sa isang comma-separated listahan.

Noong nakaraan, ang pagpipiliang ito ay ang pinakamahusay na mapagpipilian para sa pag-download ng isang pahina at nito
mga kinakailangan, gamit ang isang command-line tulad ng:

wget --ignore-tags=a,lugar -H -k -K -r http:// /

Gayunpaman, ang may-akda ng opsyong ito ay nakatagpo ng isang page na may mga tag tulad ng "
HREF="/">" at napagtanto na hindi sapat ang pagtukoy sa mga tag na babalewalain.
Hindi masasabi ng isang tao na huwag pansinin si Wget " ", dahil hindi magiging stylesheet
na-download. Ngayon ang pinakamahusay na mapagpipilian para sa pag-download ng isang solong pahina at ang mga kinakailangan nito ay ang
dedikado --pahina-kinakailangan pagpipilian.

--balewalain-kaso
Huwag pansinin ang kaso kapag tumutugma sa mga file at direktoryo. Nakakaimpluwensya ito sa pag-uugali ng -R,
-A, -I, at -X na mga opsyon, pati na rin ang globbing na ipinatupad kapag nagda-download mula sa FTP
mga site. Halimbawa, sa pagpipiliang ito, -A "*.txt" magtutugma file1.txt, Ngunit din
file2.TXT, file3.TxT, at iba pa. Ang mga quote sa halimbawa ay upang maiwasan ang shell
mula sa pagpapalawak ng pattern.

-H
--span-host
I-enable ang spanning sa mga host kapag gumagawa ng recursive retrieving.

-L
--kamag-anak
Sundin ang mga kamag-anak na link lamang. Kapaki-pakinabang para sa pagkuha ng isang partikular na home page nang walang anumang
distractions, hindi kahit na mula sa parehong mga host.

-I listahan
--include-directories=listahan
Tukuyin ang listahan ng mga direktoryo na pinaghihiwalay ng kuwit na nais mong sundin kapag nagda-download.
Mga Elemento ng listahan maaaring maglaman ng mga wildcard.

-X listahan
--exclude-directories=listahan
Tukuyin ang listahan ng mga direktoryo na pinaghihiwalay ng kuwit na nais mong ibukod mula sa pag-download.
Mga Elemento ng listahan maaaring maglaman ng mga wildcard.

-np
--walang-magulang
Huwag kailanman umakyat sa direktoryo ng magulang kapag kumukuha ng recursively. Ito ay
kapaki-pakinabang na opsyon, dahil ginagarantiyahan nito na ang mga file lamang sa ibaba isang tiyak na hierarchy will
mada-download.

Kapaligiran


Sinusuportahan ng Wget ang mga proxy para sa parehong HTTP at FTP retrievals. Ang karaniwang paraan upang tukuyin ang proxy
ang lokasyon, na kinikilala ng Wget, ay gumagamit ng mga sumusunod na variable ng kapaligiran:

http_proxy
https_proxy
Kung itinakda, ang http_proxy at https_proxy ang mga variable ay dapat maglaman ng mga URL ng
proxy para sa HTTP at HTTPS na mga koneksyon ayon sa pagkakabanggit.

ftp_proxy
Ang variable na ito ay dapat maglaman ng URL ng proxy para sa mga FTP na koneksyon. Ito ay medyo
karaniwan na http_proxy at ftp_proxy ay nakatakda sa parehong URL.

walang_proxy
Ang variable na ito ay dapat maglaman ng comma-separated list ng mga extension ng domain na dapat proxy
hindi gamitin para sa. Halimbawa, kung ang halaga ng walang_proxy is .mit.edu, hindi gagawin ng proxy
gamitin upang kunin ang mga dokumento mula sa MIT.

EXIT STATUS


Maaaring ibalik ng Wget ang isa sa ilang mga error code kung nakakaranas ito ng mga problema.

0 Walang nangyaring problema.

1 Pangkalahatang error code.

2 Error sa pag-parse---halimbawa, kapag nag-parse ng mga opsyon sa command-line, ang .wgetrc or
.netrc...

3 File I/O error.

4 Pagkasira ng network.

5 Nabigo ang pag-verify ng SSL.

6 Nabigo ang pagpapatunay ng username/password.

7 Mga error sa protocol.

8 Nagbigay ang server ng tugon sa error.

Maliban sa 0 at 1, ang mga exit code na may mas mababang numero ay inuuna kaysa sa mas mataas na-
mga may bilang, kapag maraming uri ng mga error ang nakatagpo.

Sa mga bersyon ng Wget bago ang 1.12, ang exit status ng Wget ay malamang na hindi nakakatulong at
hindi pare-pareho. Ang mga recursive download ay halos palaging magbabalik ng 0 (tagumpay), anuman ang
anumang isyung naranasan, at ibinalik lamang ng mga hindi recursive na pagkuha ang kaukulang katayuan
sa pinakahuling sinubukang pag-download.

Gumamit ng wget online gamit ang mga serbisyo ng onworks.net


Mga Libreng Server at Workstation

Mag-download ng Windows at Linux apps

Linux command

Ad