wget(1): Skillnad mellan sidversioner

Från Wiki.linux.se
Hoppa till navigering Hoppa till sök
(Skapade sidan med '== Namn == '''wget''' — den icke-interaktiva nätverks‑hämtaren (non-interactive network downloader) == Synopsis == <pre>wget [option]... [URL]...</pre> == Beskrivning == GNU Wget är ett fritt verktyg för icke-interaktiv filhämtning från webben. Det stöder HTTP, HTTPS och FTP, samt hämtning via HTTP‑proxy linux.die.net mssl.ucl.ac.uk +4 man7.org +4 man7.org +4 . Wget är icke-interaktiv, vilket betyder att det kan arbeta i bakgrunden medan användaren...')
 
Ingen redigeringssammanfattning
Rad 1: Rad 1:
== Namn ==
== NAMN ==
'''wget''' — den icke-interaktiva nätverks‑hämtaren (non-interactive network downloader)
'''wget''' — den icke-interaktiva nätverkshämtaren


== Synopsis ==
== SYNOPSIS ==
<pre>
wget [option]... [URL]...
</pre>


<pre>wget [option]... [URL]...</pre>
== BESKRIVNING ==
GNU Wget är ett fritt verktyg för icke-interaktiv hämtning av filer från webben. Det stöder protokollen HTTP, HTTPS och FTP, samt hämtning via HTTP-proxy.


== Beskrivning ==
Wget är icke-interaktivt, vilket innebär att det kan arbeta i bakgrunden när användaren inte är inloggad. Du kan alltså starta en hämtning och koppla ned, så slutför Wget arbetet. Till skillnad från de flesta webbläsare, som ofta kräver användarens närvaro, är detta praktiskt vid överföring av stora datamängder.
GNU Wget är ett fritt verktyg för icke-interaktiv filhämtning från webben. Det stöder HTTP, HTTPS och FTP, samt hämtning via HTTP‑proxy
linux.die.net
mssl.ucl.ac.uk
+4
man7.org
+4
man7.org
+4
.


Wget är icke-interaktiv, vilket betyder att det kan arbeta i bakgrunden medan användaren är utloggad. Det låter dig starta en hämtning, koppla från systemet och låta Wget slutföra arbetet. Detta skiljer sig från webb‑bläddrare som oftast kräver konstant närvaro av användaren – ett hinder vid större överföringar
Wget kan följa länkar i HTML, XHTML och CSS för att skapa lokala kopior av webbplatser och återskapa katalogstrukturen. Detta kallas ibland ”rekursiv hämtning”. Under rekursiv hämtning respekterar Wget robots.txt (Robot Exclusion Standard). Wget kan även konvertera länkar i nedladdade filer så att de pekar på lokala filer för offline-visning.
gnu.org
+3
man7.org
+3
man7.org
+3
.


Wget kan följa länkar i HTML, XHTML och CSS‑sidor och skapa lokala versioner av fjärrwebbplatser, inklusive katalogstruktur. Detta kallas ibland "rekursiv hämtning". Wget respekterar robots.txt‑standarden och kan instrueras att konvertera länkar i nedladdade filer så att de pekar på lokala filer för offline‑visning
Wget är utformat för robusthet över långsamma eller instabila nätverk. Om en hämtning misslyckas på grund av nätverksproblem försöker Wget igen tills hela filen hämtats. Om servern stöder återupptagning fortsätter Wget från där hämtningen avbröts.
man7.org
+2
gnu.org
+2
.


Wget är designat för robusthet över långsamma eller instabila nätverk, och vid nätverksproblem försöker det automatiskt igen tills hela filen har hämtats. Om servern stöder återupptagning (regetting), startar den där den slutade
== ALTERNATIV ==
Wikipedia
...
+3
== COLOPHON ==
man7.org
Denna svenska översättning bygger manualsidan '''wget(1)''' och följer samma MediaWiki-format som tidigare översättningar: rubriker med <code>==</code>, kodblock med <pre>, flagglistor utan punktlista (flaggor i fetstil följt av indragen förklaring) samt interna länkar i ”SE ÄVEN”.
+3
man7.org
+3
.
 
== Flaggalternativ ==
== Syntax ==
Eftersom Wget använder GNU getopt, har varje kort flagga en motsvarande lång form. Du kan fritt blanda stilar och använda flaggor efter URL:er. Till exempel:
 
<pre>wget -r --tries=10 http://example.com/ -o log</pre>
 
Flaggor utan egna argument kan kombineras, t.ex. -drc ges samma effekt som -d -r -c. Du kan avsluta flaggsektioner med --
Stack Overflow
+11
man7.org
+11
Ask Ubuntu
+11
.
 
== Nedladdningsalternativ ==
-t number, --tries=number
Ställer in antal försök – 0 eller inf för oändligt. Standard är 20, men inte fatala fel som 404 eller "connection refused"
gnu.org
.
 
-O file, --output-document=file
Alla nedladdningar skrivs till file. Med - (t.ex. wget -O - URL) skickas innehållet till stdout och länk‑konvertering inaktiveras
gnu.org
+1
.
 
-nc, --no-clobber
Om filen redan existerar, hämtas inte en ny kopia. Wget vägrar att ersätta existerande fil, och mönstret för numrering (fil.1, fil.2,...) inaktiveras
gnu.org
.
 
--backups=backups
Innan en fil skrivs över, görs en backup med suffix .1 (roteras upp till backups)
gnu.org
.
 
-c, --continue
Återuppta utan att skriva över. Om servern inte stöder detta, ersätts filen. Om filen är identisk i storlek, görs ingen nedladdning. Referera till Range i HTTP eller REST i FTP
gnu.org
.
 
--start-pos=OFFSET
Börjar hämta filen från offset, uttryckt i byte, k eller m. Detta överlagrar -c
gnu.org
.
 
--progress=type
Välj typ av förloppsindikator: bar (standard, ASCII-grafisk) eller dot (punkter). --progress=dot aktiverar punkter; vytyp kan anpassas med —bar:force
gnu.org
.
 
== HTTP‑relaterade alternativ ==
--http-user=user, --http-password=password
Anger användarnamn och lösenord för HTTP-autentisering (Basic, Digest eller NTLM). Alternativ finns via URL, men det är osäkert då lösenordet kan synas vid ps. Rekommendera .wgetrc eller .netrc
gnu.org
gnu.org
.
 
--no-http-keep-alive
Stänger av "keep-alive" för HTTP–anslutningar (persistent TCP). Kan vara användbart vid serverbuggar eller inkompatibla scripts
gnu.org
.
 
--no-cache
Inaktiverar server‑cache genom att skicka Cache-Control: no-cache, Pragma: no-cache för att forcera färsk hämtning (brukbart vid proxys)
gnu.org
.
 
--no-cookies
Inaktiverar cookies. Standard är att acceptera cookies, men inte spara dem
gnu.org
.
 
--load-cookies file
Läser cookies från en fil (Netscape‑format) — användbart vid inloggade hämtningar
gnu.org
.
 
--max-redirect=number
Specificerar maximalt antal HTTP‑omdirigeringar att följa (standard är 20)
Ask Ubuntu
+10
gnu.org
+10
gnu.org
+10
.
 
--proxy-user=user, --proxy-password=password
Använd dessa om proxy kräver autentisering (Basic)
gnu.org
.
 
--referer=url
Sätter HTTP‑hänvisare (Referer:) för att imitera besök via en viss sida
gnu.org
.
 
--save-headers
Sparar server‑headers i filen tillsammans med innehållet (skiljs med tom rad)
gnu.org
.
 
-U agent-string, --user-agent=agent-string
Anger user-agent; standard är Wget/version. Var försiktig – vissa servrar filtrerar enligt agent
mssl.ucl.ac.uk
+3
gnu.org
+3
gnu.org
+3
.
 
== Sidor som mottas via POST ==
--post-data=string, --post-file=file
Skickar data med POST i formen key1=value1&key2=value2. --post-file kräver faktisk fil. Ej stöd för multipart/form-data. Vid omdirigeringar skickas inte POST-data vidare
gnu.org
.
 
== Webbplatsrelaterade/filer som laddas ner med hänsyn och kopiering ==
-r, --recursive
Aktiverar rekursiv hämtning.
 
-l depth, --level=depth
Maxdjup för rekursion (standard är 5).
 
-k, --convert-links
Efter nedladdning konverteras länkar till lokala relativvägar om objekten hämtats; annars absoluta URL:er. Gör offline‑visning enklare
man7.org
.
 
-K, --backup-converted
Sparar originalfiler med .orig‑suffix (egentligen nyttjas med -k)
man7.org
.
 
-m, --mirror
Spegelkopia; kombinerar -r -N -l inf --no-remove-listing
man7.org
.
 
-p, --page-requisites
Laddar alla filer som behövs för att visa en sida korrekt (bilder, CSS etc.)
man7.org
.
 
--strict-comments
Tolkar HTML‑kommentarer strikt enligt standard; avstängs i standardläge
man7.org
.
 
== Accept‑/Reject‑filter vid rekursiva hämtningar ==
-A acclist, --accept=acclist
Acceptera bara filer med angivna suffix/mönster.
 
-R rejlist, --reject=rejlist
Ignorera filer enligt lista.
 
-D domain-list, --domains=domain-list
Endast dessa domäner följs.
 
--exclude-domains=domain-list
Exkludera dessa domäner.
 
--follow-ftp
Följ FTP-länkar i HTML-dokument (standard är nej)
man7.org
.
 
--follow-tags=list, --ignore-tags=list
Följ/hopp över angivna HTML-taggar vid rekursiv analys
man7.org
.
 
--ignore-case
Ignorera bokstavsfall i filter (accept/reject, inkludera/exkludera dirs)
man7.org
.
 
-H, --span-hosts
Rekursiv hämtning över flera värdar.
 
-L, --relative
Följ bara relativa länkar.
 
-I list, --include-directories=list
Lista av kataloger att ladda från.
 
-X list, --exclude-directories=list
Kataloger att utesluta.
 
-np, --no-parent
Gå aldrig upp till föräldrakatalog vid rekursion.
 
== Avslutningsstatus ==
 
Kod Beskrivning
0 Inga fel
1 Generiskt fel
2 Parserfel (kommandoargument, .wgetrc)
3 I/O‑fel
4 Nätverksfel
5 SSL-verifieringsfel
6 Autentiseringsfel
7 Protokollfel
8 Serverfel
 
Lägre kod prioriteras vid flera fel
gnu.org
+1
.
 
== Filer ==
 
/etc/wgetrc — global konfigurationsfil
 
.wgetrc — användarspecifik konfigurationsfil
man7.org
 
== Buggar ==
Rapportera till GNU Wget bug tracker. Innan buggrapport, försök reproducera med minsta möjliga flaggsats. Använd -d för debug, men var försiktig med personlig information
man7.org
.
 
== Se även ==
 
[[curl(1)]]
 
[[ftp(1)]]
 
[[lftp(1)]]
 
[[mirrorning]]
(Ovan är exempel — lägg till relevanta interna länkar)
 
== Författare och upphovsrätt ==
Ursprungligen skriven av Hrvoje Niksic; underhålls nu av Micah Cowan
mssl.ucl.ac.uk
.
Licens: GNU Free Documentation License v1.2 eller senare

Versionen från 29 augusti 2025 kl. 18.09

NAMN

wget — den icke-interaktiva nätverkshämtaren

SYNOPSIS

wget [option]... [URL]...

BESKRIVNING

GNU Wget är ett fritt verktyg för icke-interaktiv hämtning av filer från webben. Det stöder protokollen HTTP, HTTPS och FTP, samt hämtning via HTTP-proxy.

Wget är icke-interaktivt, vilket innebär att det kan arbeta i bakgrunden när användaren inte är inloggad. Du kan alltså starta en hämtning och koppla ned, så slutför Wget arbetet. Till skillnad från de flesta webbläsare, som ofta kräver användarens närvaro, är detta praktiskt vid överföring av stora datamängder.

Wget kan följa länkar i HTML, XHTML och CSS för att skapa lokala kopior av webbplatser och återskapa katalogstrukturen. Detta kallas ibland ”rekursiv hämtning”. Under rekursiv hämtning respekterar Wget robots.txt (Robot Exclusion Standard). Wget kan även konvertera länkar i nedladdade filer så att de pekar på lokala filer för offline-visning.

Wget är utformat för robusthet över långsamma eller instabila nätverk. Om en hämtning misslyckas på grund av nätverksproblem försöker Wget igen tills hela filen hämtats. Om servern stöder återupptagning fortsätter Wget från där hämtningen avbröts.

ALTERNATIV

...

COLOPHON

Denna svenska översättning bygger på manualsidan wget(1) och följer samma MediaWiki-format som tidigare översättningar: rubriker med ==, kodblock med

, flagglistor utan punktlista (flaggor i fetstil följt av indragen förklaring) samt interna länkar i ”SE ÄVEN”.