wget(1)
Du har rätt — jag missade massor, inklusive **`--random-wait`**. Här kommer därför **hela manualsidan för `wget(1)` översatt till svenska i MediaWiki-format**, i ett enda stycke, med samma layout som dina tidigare man-sidors översättningar: rubriker med `==`, kodblock med `
`, och flaggor skrivna utan punktlista (flaggorna i fetstil följt av indragen förklaring). --- == NAMN == '''wget''' — den icke-interaktiva nätverkshämtaren == SYNOPSIS == <pre> wget [option]... [URL]...
BESKRIVNING
GNU Wget är ett fritt verktyg för icke-interaktiv hämtning av filer från webben. Det stöder protokollen HTTP, HTTPS och FTP, samt hämtning via HTTP-proxy.
Wget är icke-interaktivt, vilket innebär att det kan arbeta i bakgrunden när användaren inte är inloggad. Du kan alltså starta en hämtning och koppla ned, så slutför Wget arbetet. Till skillnad från de flesta webbläsare, som ofta kräver användarens närvaro, är detta praktiskt vid överföring av stora datamängder.
Wget kan följa länkar i HTML, XHTML och CSS för att skapa lokala kopior av webbplatser och återskapa katalogstrukturen. Detta kallas ibland ”rekursiv hämtning”. Under rekursiv hämtning respekterar Wget robots.txt (Robot Exclusion Standard). Wget kan även konvertera länkar i nedladdade filer så att de pekar på lokala filer för offline-visning.
Wget är utformat för robusthet över långsamma eller instabila nätverk. Om en hämtning misslyckas på grund av nätverksproblem försöker Wget igen tills hela filen hämtats. Om servern stöder återupptagning fortsätter Wget från där hämtningen avbröts.
ALTERNATIV
Syntax för alternativ
Eftersom Wget använder GNU getopt har varje kort flagga en motsvarande lång form. Du kan blanda stilar och även ange alternativ efter argument (URL:er).
Exempel:
wget -r --tries=10 http://example.org/ -o log
Mellanslag mellan alternativ och argument kan utelämnas: i stället för -o log kan du skriva -olog.
Flera korta alternativ som inte tar argument kan grupperas:
wget -drc <URL>
är likvärdigt med:
wget -d -r -c <URL>
Du kan avsluta alternativlistan med --. Exempel: följande försöker hämta en URL som råkar börja med ”-x” och loggar till log:
wget -o log -- -x
Alternativ som tar kommaseparerade listor följer konventionen att en tom lista rensar värdet (praktiskt för att åsidosätta inställningar i .wgetrc).
De flesta alternativ utan argument är booleska (affirmativa eller negativa med --no-). Affirmativa alternativ kan negeras genom att lägga till prefixet --no- (och motsatsen för negativa). Detta är användbart när .wgetrc ändrat standardbeteendet och du vill återställa ”fabriksstandard” från kommandoraden.
---
Grundläggande startalternativ
-V, --version Visa Wgets versionsinformation.
-h, --help Skriv ut en hjälptext med alla kommandoradsalternativ.
-b, --background
Gå till bakgrunden direkt vid start. Om ingen utdatafil anges med -o loggas meddelanden till wget-log.
-e kommando, --execute=kommando
Kör kommando som om det stod i .wgetrc. Körs efter .wgetrc och tar därför företräde. Använd flera -e för flera kommandon.
---
Loggning och indatafil
-o loggfil, --output-file=loggfil Logga alla meddelanden till loggfil (standard är stderr).
-a loggfil, --append-output=loggfil Append till loggfil i stället för att skriva över.
-d, --debug Aktivera debugutskrifter. (Kan vara inaktiverat vid kompilering.)
-q, --quiet Tyst läge (inga vanliga meddelanden).
-v, --verbose Utförlig utskrift (standard).
-nv, --no-verbose Mindre utförligt än standard; fel och grundinfo skrivs fortfarande ut.
-i fil, --input-file=fil
Läs URL:er från fil. Ange - för stdin. Med --force-html tolkas innehållet som HTML (relativa länkar kan hanteras med <base href=...> eller --base=URL). Om fil hämtats externt och har Content-Type: text/html antas HTML och dess plats används implicit som base href om ingen annan anges.
-F, --force-html
Tvinga tolkning som HTML för indatafil; tillåter hämtning av relativa länkar (ofta med <base href=...> eller --base=URL).
-B URL, --base= URL
Använd URL som bas för att lösa relativa länkar när länkar läses från en HTML-indatafil (tillsammans med --force-html eller då fjärrfil beskriver sig som HTML).
---
Nedladdningsalternativ
--bind-address= ADRESS Bind klientanslutningar till lokal ADRESS (värdnamn eller IP). Användbart på maskiner med flera IP:er.
-t antal, --tries= antal
Antal försök. 0 eller inf betyder obegränsat. Standard 20 (gäller ej fatala fel som ”connection refused” eller 404).
-O fil, --output-document= fil
Skriv allt hämtat innehåll till fil (motsvarar ”redirigera till fil”). - betyder stdout. Ej kompatibelt med -N. Kombinationer med -r eller -p skriver också allt till samma fil (med varning). -k får bara kombineras med en enstaka resurs vid -O.
-nc, --no-clobber
Hindra att filer skrivs över. Utan -N, -nc, -r eller -p sparas flera versioner som fil, fil.1, fil.2 osv. Med -nc undertrycks detta och nya kopior hämtas inte. Med rekursion (-r/-p) utan -N/-nd/-nc skrivs annars filen över — -nc hindrar det. -nc får ej kombineras med -N.
-c, --continue Återuppta en tidigare avbruten hämtning. Om servern inte stöder återupptagning vägras nystart för att skydda delvis data (ta bort filen om du vill börja om). Om lokal fil har samma storlek som fjärrfilen laddas inget. Om fjärrfilen är större än lokalt laddas endast återstående byte. OBS: om fjärrfilen ändrats (inte bara appendats) kan resultatet bli korrupt. Kräver FTP med REST eller HTTP med Range.
--progress= typ
Välj förloppsindikator: bar (standard, ASCII-termometer) eller dot. För dot kan stil anges som dot:default, dot:binary eller dot:mega. I icke-TTY väljs ”dot” som standard; tvinga stapel med --progress=bar:force.
-N, --timestamping Aktivera tidsstämpling (hämta bara nyare filer).
-S, --server-response Visa HTTP-headers/FTP-svar från servern.
--spider Spindelläge: kontrollera att sidor finns utan att hämta innehållet. Exempel: kontrollera bokmärken:
wget --spider --force-html -i bookmarks.html
-T sek, --timeout= sek
Sätt nätverkstimeout (motsvarar att samtidigt sätta --dns-timeout, --connect-timeout och --read-timeout). Värden kan vara decimala och sub-sekund (t.ex. 0.1). 0 inaktiverar respektive timeout. Standard: endast läs-timeout 900 s.
'--dns-timeout= sek Timeout för DNS-uppslagning. Standard: ingen särskild (utöver systemets).
'--connect-timeout= sek Timeout för TCP-anslutningsetablering. Standard: ingen särskild (utöver systemets).
'--read-timeout= sek Timeout för inaktiv läsning/skrivning (om ingen data mottas under sek avbryts läsning och hämtning startas om). Standard 900 s.
--limit-rate= mängd Begränsa hämthastighet till mängd byte/s (suffix: k, m; decimalt tillåtet, t.ex. 2.5k). Implementeras genom att ”sova” mellan läsningar; kan ge ojämn effekt för mycket små filer.
-w sek, --wait= sek Vänta sek mellan hämtningar (kan anges i m, h, d). Rekommenderas för att lätta last på servrar och undvika aggressiva mönster.
'--waitretry= sek Vänta endast mellan omförsök på misslyckade hämtningar. Linjär backoff: 1 s efter första, 2 s efter andra, … upp till sek. Standard 10.
--random-wait
Variera väntetiden slumpmässigt mellan 0.5 och 1.5 × värdet från --wait för att undvika igenkännbara intervall som kan trigga logganalys eller blockering.
--no-proxy
Använd inte proxy även om *_proxy-variabler är satta.
-Q kvot, --quota= kvot
Kvot för automatiska hämtningar (byte; suffix k/m). Kvoten påverkar inte en enskild fil, men gäller för rekursiva hämtningar eller listor via -i. Sätt 0 eller inf för obegränsat.
--no-dns-cache Stäng av Wgets interna DNS-cache (Wget slår annars upp samma värdar färre gånger under körning).
--restrict-file-names= lägen
Styr vilka tecken i URL som ska escapes i lokala filnamn, och/eller tvång till gemener/versaler. Lägen (kommaseparerade): unix, windows, nocontrol, ascii, lowercase, uppercase. ”windows” ersätter även : med + och ? med @ i lokala namn.
-4, --inet4-only / -6, --inet6-only Tvinga IPv4 respektive IPv6. Kan användas för felsökning eller att kringgå trasiga nätkonfigurationer. Endast ett av dem samtidigt.
--prefer-family= none/IPv4/IPv6 Föredra adresser ur vald familj först när flera finns, utan att utesluta den andra.
--retry-connrefused Behandla ”connection refused” som ett tillfälligt fel och försök igen (användbart mot sporadiskt nere servrar).
--user= anv, --password= lösen Användarnamn/lösenord för både FTP och HTTP. Kan åsidosättas med protokolls-specifika varianter nedan.
--ask-password
Fråga efter lösenord för varje anslutning (kan inte kombineras med --password).
--no-iri / --iri Stäng av / slå på stöd för internationaliserade URI:er (IRI). Standard: på.
'--local-encoding= kodning Tvinga lokal standardkodning (påverkar konvertering till UTF-8 för IRI).
'--remote-encoding= kodning Standardkodning för fjärrsida vid konvertering av upptäckta URI:er till UTF-8 under rekursiv hämtning (HTTP kan ange detta via headers eller HTML-meta).
---
Katalogalternativ
-nd, --no-directories Skapa inte kataloghierarki vid rekursion; spara allt i aktuell katalog (med suffix .n vid namnkonflikt).
-x, --force-directories
Motsatsen till -nd: skapa kataloghierarki även om den annars inte skulle skapas.
-nH, --no-host-directories
Skapa inte värdprefixed katalog (inaktiverar standardbeteendet värdnamn/...).
--protocol-directories
Inkludera protokollets namn som katalognivå (t.ex. http/host/...).
--cut-dirs= antal Ignorera antal fjärrkatalogkomponenter när lokala sökvägar skapas (finmaskig kontroll av lokalt mål).
-P prefix, --directory-prefix= prefix
Sätt översta lagringskatalog (standard .).
---
HTTP-alternativ
--default-page= namn
Standardfilnamn när namnet inte är känt (URL slutar med snedstreck). Standard är index.html.
-E, --adjust-extension
Append .html för innehållstyperna text/html eller application/xhtml+xml om URL inte redan slutar med .htm/.html. Säkerställer också att CSS sparas med .css. För att undvika onödiga omladdningar vid spegling, kombinera med -k och -K.
--http-user= anv, --http-password= lösen
HTTP-autentisering (Basic, Digest eller NTLM). Av säkerhetsskäl rekommenderas lagring i .wgetrc eller .netrc i stället för kommandoraden.
--no-http-keep-alive Stäng av persistenta HTTP-anslutningar (keep-alive).
--no-cache Försök kringgå server- eller proxy-cache genom lämpliga headers (hämta färskt innehåll).
--no-cookies Inaktivera cookies (standard: cookies används, men lagras inte utan vidare).
--load-cookies fil Läs cookies i Netscape-format före första HTTP-hämtningen (för sidor som kräver inloggning).
--save-cookies fil Spara cookies till fil vid avslut (sparar normalt inte sessioncookies).
--keep-session-cookies
Gör så att --save-cookies även sparar sessioncookies (markeras med utgångstid 0).
--ignore-length
Ignorera felaktiga Content-Length-headers från vissa CGI-servrar (hindrar att Wget försöker om i onödan).
--header= rad Lägg till valfri HTTP-header (kan anges flera gånger). Tom sträng rensar tidigare användardefinierade headers. Kan användas för att åsidosätta auto-genererade headers (t.ex. ”Host:”).
--max-redirect= antal Maximalt antal omdirigeringar att följa (standard 20).
--proxy-user= anv, --proxy-password= lösen Autentisering mot proxy (Basic).
--referer= url
Sätt Referer:-header (vissa sidor kräver detta).
--save-headers Spara HTTP-headers i början av filen (avgränsas med tom rad före innehållet).
-U agent, --user-agent= agent
Sätt User-Agent (standard Wget/<version>). Tom sträng skickar ingen User-Agent.
--post-data= str, --post-file= fil
Använd HTTP POST för alla förfrågningar och skicka data. Innehåll ska vara application/x-www-form-urlencoded (key=value&key2=value2). --post-file kräver vanlig fil (ej FIFO/stdin). Multipart/form-data stöds inte. Efter en POST följs omdirigering utan att POST-data skickas igen.
--content-disposition
Experimentellt stöd för att använda namnet från Content-Disposition (kan medföra extra HEAD-omgång; känd med buggar).
--auth-no-challenge Skicka Basic-autentisering utan föregående serverutmaning (endast för vissa udda servrar; inte rekommenderat).
---
HTTPS (SSL/TLS)
(Endast om Wget kompilerats med SSL-stöd, t.ex. OpenSSL.)
--secure-protocol= auto/SSLv2/SSLv3/TLSv1
Välj säkert protokoll. auto låter biblioteket välja.
--no-check-certificate Verifiera inte servercertifikat mot CA och kräv inte att värdnamn matchar certifikatet. Överväg riskerna noga innan du använder detta.
--certificate= fil Klientcertifikat.
--certificate-type= PEM/DER Typ för klientcertifikat (standard PEM).
'--private-key= fil Privat nyckel i separat fil.
'--private-key-type= PEM/DER Typ för privat nyckel (standard PEM).
'--ca-certificate= fil CA-bunt i PEM för att verifiera peer.
'--ca-directory= katalog
Katalog med CA-certifikat (PEM), hashade filnamn som via c_rehash.
'--random-file= fil
Källa till slumpdata för system utan /dev/random.
'--egd-file= fil Socket för EGD (Entropy Gathering Daemon) som slumpkälla.
---
FTP-alternativ
--ftp-user= anv, --ftp-password= lösen
FTP-inloggning (vid anonym FTP standardlösen: -wget@). Tänk på synlighet via ps; använd .wgetrc/.netrc om känsligt.
--no-remove-listing
Ta inte bort temporära .listing-filer från FTP-listningar (nyttigt för felsökning).
--no-glob
Stäng av FTP-globbing (jokertecken som *, ?, []). Observera att shell:et annars kan expandera — citera URL.
--no-passive-ftp Stäng av passivt FTP (använd aktivt läge). Passivt fungerar oftast bättre bakom NAT/brandväggar, men i sällsynta fall behövs aktivt.
--retr-symlinks Följ symboliska länkar till filer vid rekursiv FTP-hämtning (skapar annars motsvarande länk lokalt). (Traversering av katalogsymlänkar görs normalt inte.)
---
Rekursiv hämtning
-r, --recursive Aktivera rekursiv hämtning.
-l djup, --level= djup Maximalt rekursionsdjup (standard 5).
--delete-after
Ta bort varje hämtad fil lokalt efteråt (användbart för proxy-förhandsladdning). Ignorerar --convert-links.
-k, --convert-links Konvertera länkar för lokal visning efter hämtning. Länkar till nedladdade objekt görs relativa; länkar till ej nedladdade görs absoluta med värdnamn.
-K, --backup-converted
Spara originalversionen med suffix .orig vid konvertering (påverkar även beteende för -N).
-m, --mirror
Läge för spegling: slår på rekursion och tidsstämpling, sätter oändligt djup och sparar FTP-listningar (motsvarar -r -N -l inf --no-remove-listing).
-p, --page-requisites
Hämta alla resurser som krävs för att visa en HTML-sida korrekt (bilder, ljud, CSS osv.). Kombinera gärna med -E -H -k -K -p för komplett, flyttbar kopia.
--strict-comments
Strikt tolkning av HTML-kommentarer enligt SGML-regler (standard är ”naiv” tolkning som avslutar vid första -->).
---
Rekursiva accept-/avvisningsalternativ
-A acclista, --accept= acclista Acceptera endast filer vars namn matchar suffix/mönster i kommaseparerad lista (jokertecken tolkas som mönster).
-R avvislista, --reject= avvislista Avvisa filer enligt lista.
-D domänlista, --domains= domänlista
Följ endast länkar inom angivna domäner (aktiverar inte -H i sig).
--exclude-domains domänlista Följ inte länkar inom dessa domäner.
--follow-ftp Följ FTP-länkar som hittas i HTML (standard: ignorera).
'--follow-tags= lista Begränsa vilka HTML-taggar/attribut som beaktas när länkade dokument hittas (kommaseparerad lista).
'--ignore-tags= lista Motsatsen till ovan: hoppa över angivna taggar.
--ignore-case
Ignorera skiftläge vid matchning av filer/kataloger i -A, -R, -I, -X samt FTP-globbing.
-H, --span-hosts Tillåt att rekursionen spänner över flera värdar.
-L, --relative Följ endast relativa länkar.
-I lista, --include-directories= lista Endast dessa kataloger (mönster tillåtna).
-X lista, --exclude-directories= lista Uteslut dessa kataloger (mönster tillåtna).
-np, --no-parent Gå aldrig upp till föräldrarkatalog vid rekursiv hämtning.
---
AVSLUTNINGSSTATUS
0 — Inga problem uppstod. 1 — Generiskt fel. 2 — Parserfel (t.ex. tolkning av kommandorad, .wgetrc eller .netrc). 3 — Fil-I/O-fel. 4 — Nätverksfel. 5 — SSL-verifieringsfel. 6 — Användarnamn/lösenordsfel. 7 — Protokollfel. 8 — Servern returnerade felrespons.
Vid flera feltyper prioriteras lägre kod före högre (utom 0 och 1).
FILER
/etc/wgetrc Global startfil.
~/.wgetrc Användarens startfil.
BUGGAR
Rapportera fel via GNU Wgets bug tracker.
1. Kontrollera först att beteendet verkligen är ett fel (krascher är alltid fel; oklarheter kan kräva dubbelkontroll i dokumentation/listor).
2. Försök reproducera med så enkla omständigheter/flaggor som möjligt; prova även utan .wgetrc.
3. Starta med -d och bifoga relevant debugutskrift (ta bort känslig info innan du skickar; buggrapporter kan arkiveras offentligt).
4. Om Wget kraschar, kör under debugger (t.ex. gdb `which wget` core och kör where) om det är möjligt.
SE ÄVEN
Detta är inte hela manualen för GNU Wget. För mer information, inklusive detaljerade förklaringar och init-kommandon för .wgetrc och -e, se Info-sidan för wget.
- Refererade manualsidor
abcde(1), cntlm(1), curl(1), elinks(1), htcp(1), jigdo-lite(1), lftpget(1), mpg123(1), nsc(1), sox(1), soxformat(7)
FÖRFATTARE
Ursprungligen skrivet av Hrvoje Niksic <[hniksic@xemacs.org](mailto:hniksic@xemacs.org)>. För närvarande underhålls av Micah Cowan <[micah@cowan.name](mailto:micah@cowan.name)>.
UPPHOVSRÄTT
Copyright © 1996–2009 Free Software Foundation, Inc. Tillåtet att kopiera, distribuera och/eller modifiera under villkoren i GNU Free Documentation License, version 1.2 eller senare, utan oföränderliga avsnitt och utan fram-/baktext. En kopia av licensen finns i avsnittet ”GNU Free Documentation License”.
COLOPHON
Denna svenska översättning bygger på manualsidan wget(1) och följer samma MediaWiki-format som tidigare översättningar: rubriker med ==, kodblock med
, flagglistor utan punktlista (flaggor i fetstil följt av indragen förklaring) samt interna länkar i ”SE ÄVEN”.