We houden er allemaal van om dingen van internet te downloaden, en er zijn enorm veel geweldige tools voor downloadbeheer die we kunnen gebruiken om onze downloads te plannen. Het is misschien eenvoudiger om een downloadmanager te gebruiken, maar het kan geen kwaad om de tools die al bij onze Ubuntu worden geleverd te verkennen en er volledig gebruik van te maken.
In dit artikel laten we je ingebouwde software in Ubuntu zien die we kunnen gebruiken om dingen van internet te downloaden met wget . Bovendien laten we u zien hoe u de download kunt plannen met Cron.
Download met Wget
Wget is een gratis softwarepakket voor het ophalen van bestanden met behulp van HTTP, HTTPS en FTP, de meest gebruikte internetprotocollen. Het is een niet-interactieve opdrachtregelhulpprogramma, dus het kan gemakkelijk worden aangeroepen vanuit scripts, cron-taken, terminals zonder X-Windows-ondersteuning, enz.
Open uw terminal en laten we eens kijken hoe we wget kunnen gebruiken om dingen van internet te downloaden. De basissyntaxis van downloaden met wget is de volgende:
wget [option]… [URL]…
Met deze opdracht wordt de wget-handleiding naar uw lokale schijf gedownload
wget http://www.gnu.org/software/wget/manual/wget.pdf
Ληνύχ Κρών
Ubuntu wordt geleverd met een cron-daemon die wordt gebruikt voor het plannen van taken die op een bepaald moment moeten worden uitgevoerd. Met Crontab kunt u acties en tijden specificeren waarop ze moeten worden uitgevoerd. Dit is hoe u normaal gesproken een taak plant met behulp van het opdrachtregelprogramma.
Open een terminalvenster en voer crontab -e in.
Elk van de secties in een crontab wordt gescheiden door een spatie, waarbij de laatste sectie een of meer spaties bevat. Een cron-invoer bestaat uit minuut (0-59), uur (0-23, 0 = middernacht), dag (1-31), maand (1-12), weekdag (0-6, 0 = zondag), commando. Het derde item in de bovenstaande crontab downloadt wget.pdf om 2 uur 's nachts. De eerste vermelding (0) en de tweede vermelding (2) betekent 2:00. De derde tot en met de vijfde invoer (*) betekent elk moment van de dag, maand of week. Het laatste item is het wget-commando om de wget.pdf van de opgegeven URL te downloaden.
Dat is de basis van wget en hoe Cron werkt. Laten we eens kijken naar een realistisch voorbeeld van hoe u een download plant.
Download plannen
We gaan Firefox 3.6 downloaden om 2 uur 's ochtends, aangezien onze ISP maar een beperkte hoeveelheid data geeft, moeten we de download om 8 uur stoppen. Dit is hoe de opstelling eruit ziet.
Negeer de eerste 2 vermeldingen in de bovenstaande crontab. Het derde en vierde commando zijn de enige 2 commando's die je nodig hebt. De derde opdracht stelt een taak in die Firefox om 2 uur 's nachts zal downloaden:
[code]
0 2 * * * wget -c http://download.mozilla.org/?product=firefox-3.6.6&os=win&lang=en-GB
[/code]
De -c opties geven aan dat wget de bestaande download moet hervatten als deze niet is voltooid.
Het vierde commando stopt wget om 8 uur. ‘Killall’ is een unix-commando dat processen op naam doodt.
[code]
0 8 * * * killall wget
[/code]
De killall-wget vertelt Ubuntu om te stoppen met het downloaden van het bestand door wget om 8 uur 's ochtends.
Andere nuttige wget-opdrachten
1. Specificeer de directory om een bestand te downloaden
[code]
wget –output-document = / home / zainul / Downloads / wget manual.pdf http://www.gnu.org/software/wget/manual/wget.pdf
[/code]
met de optie –output-document kunt u de directory en de naam van het bestand dat u downloadt specificeren
2. Downloading a website
wget is ook in staat om een website te downloaden.
[code]
wget -m http://www.google.com/profiles/zainul.franciscus
[/code]
Met de bovenstaande opdracht wordt mijn volledige Google-profielwebpagina gedownload. De optie ‘-m’ vertelt wget om een ‘spiegelbeeld’ van de opgegeven URL te downloaden.
Een andere belangrijke optie is om wget te vertellen hoeveel links het moet volgen wanneer het een website downloadt.
[code]
wget -r -l1 http://www.google.com/profiles/zainul.franciscus
[/code]
Het bovenstaande wget-commando gebruikt twee opties. De eerste optie ‘-r’ vertelt wget om de opgegeven website recursief te downloaden. De tweede optie ‘-l1’ vertelt wget om alleen het eerste niveau met links van die gespecificeerde website te krijgen. We kunnen tot drie niveaus ‘-l2’ en ‘-l3’ instellen.
3. Robotinvoer negeren
Webmaster onderhoudt een tekstbestand met de naam Robot.txt. ‘Robot.txt’ houdt een lijst met URL's bij die een webpagina-crawler zoals wget niet mag crawlen. We kunnen wget vertellen om de ‘Robot.txt’ met ‘-erobots = off’ optie te negeren. Het volgende commando vertelt wget om de eerste pagina van mijn Google-profiel te downloaden en de ‘Robot.txt.
[code]
wget -erobots = uit http://www.google.com/profiles/zainul.franciscus
[/code]
Een andere handige optie is -U. Deze optie maskeert wget als een browser. Houd er rekening mee dat het maskeren van een applicatie als een andere applicatie in strijd kan zijn met de voorwaarden en service van een webserviceprovider.
[code]
wget -erobots=off -U Mozilla http://www.google.com/profiles/zainul.franciscus
[/code]
Gevolgtrekking
Wget is een heel oud, maar hackbaar GNU-softwarepakket dat we kunnen gebruiken om bestanden te downloaden. Wget is een interactieve opdrachtregelhulpprogramma, wat betekent dat we het op onze computer op de achtergrond kunnen laten draaien zonder een applicatie te hoeven starten. Bekijk de man-pagina van wget
[code]
$ man wget
[/code]
om andere opties te begrijpen die we kunnen gebruiken met wget.
Links
Wget-handleiding
Hoe twee gedownloade bestanden te combineren wanneer wget halverwege mislukt
Linux QuickTip: downloaden en verwijderen in één stap