C’est plus un pense bête qu’une astuce, et ça m’évitera de chercher encore une fois.
Pour l’anecdote, j’ai scripté cet usage afin de garder une copie de sauvegarde d’un site hébergé chez le prestataire d’un client qui a des « problèmes » avec celui ci. En cas de…je ne sais pas, mais au cas où, j’ai une copie de sauvegarde permettant une reprise sans avoir à tout recréer de zéro (images, mise en page, css,…). Et j’ai ainsi l’évolution des modifications sur les x derniers jours (une sorte de google cache en local)
Si vous voulez télécharger un site entier, peut être pour le visiter off-line, wget peut le faire . Par exemple:
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html/
Cette commande va télécharger le site www.website.org/tutorials/html/.
Les options sont:
- –recursive: télécharge le site web entier.
- –domains website.org: ne suit pas les liens pointant hors du domaine website.org.
- –no-parent: ne suis pas les liens pointant hors du dossier tutorials/html/.
- –page-requisites: récupère tous les éléments qui composent la page (images, CSS et cie).
- –html-extension: enregistre les fichiers avec l’extention .html.
- –convert-links: convertit les liens afin qu’ils fontionnent localement (off-line).
- –restrict-file-names=windows: modifie les noms de fichiers afin qu’ils fonctionnent aussi sur Windows.
- –no-clobber: n’écrase pas les fichiers déjà existants (utilisé en cas de téléchargement interrompu et repris).
Il peut aussi être important d’ajouter les options --wait=9 --limit-rate=10K
qui éviteront de surcharger le serveur qui vous fournit les pages et d’éviter, éventuellement, de vous faire blacklister par un admin un peu pointilleux.
- –wait=X : attend X secondes entre chaque téléchargement
- –limit-rate=XK : limite la bande passante utilisée à X Ko/s
Utiliser ces options permet plus de souplesse que de simplement utiliser l’option -m (mirror).
Notez que wget existe aussi sous windows.
source: http://www.linuxjournal.com/content/downloading-entire-web-site-wget
Ping : Utiliser wget pour télécharger un site entier | Astuces d'Absolacom | Investissez sur vous | Scoop.it
Merci pour ce pense bête sur le wget magic que je ne connaissais pas avant de voir the social network 😉 wget est une instruction puissante dont j’aimerai bien connaitre tous les secret 😉
merci pour ce petit pense bete.
j’ai pas de linux sous la main.. donc je vas tester ca sous windows.