Ti sei mai chiesto se e come sia possibile scaricare un intero sito web utilizzando Linux?
Spesso nasce l’esigenza di scaricare un intero sito web per poter recuperare files contenuti nel sito o addirittura per poterlo clonare. Su Linux questa operazione è molto semplice.
Vediamo come fare!Lo strumento ideale è WebHTTrack Website Copier.
Per installarlo, aprite un terminale e digitate:
apt-get update
apt-get install webhttrack
per installare la versione GUI:
apt-get update
apt-get install httrack
A questo punto lo trovate sotto applicazioni/Internet.
Possibili problematiche
Se non si apre con Chrome segnalandovi un errore tipo:
impossibile aprire la pagina http://computer:8080/server/step2.html
non preoccupatevi!!
Aprite il terminate e digitate:
sudo gedit /usr/bin/webhttrack
poi modificate la 6 (o 7) riga in modo che diventi cosi:
SRCHBROWSEREXE=”firefox x-www-browser www-browser iceape mozilla iceweasel abrowser firebird galeon konqueror opera netscape”
In sostanza gli stiamo dicendo di aprirsi con Firefox. Adesso funziona!!
Come scaricare un sito in locale per la navigazione offline con WebHTTrack: Spesso abbiamo l’esigenza di scari… http://t.co/ljQUhzGVWh