Descargar web completa con Wget

Con la siguiente sentencia en consola Linux, podremos descargar una web por completo. Sus imágenes, ficheros JavaScript, ficheros CSS…
En muchas ocasiones, wget te puede sacar de muchos apuros, entre lo que estan no perder los resursos de una web a la que por diferentes motivos no puedes acceder (pérdida de contraseñas, tu programador no te la da…)

Pues vamos a ello:

1
wget --limit-rate=100k --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla http://www.miweb.com

–limit-rate=100k: Limitamos velocidad descarga a 100 Kb /sec. Evitamos que nos puedan meter en listas negras.
–no-clobber: no sobrescribe ficheros que existen (por si reanudas conexión si anteriormente se ha cortado)
–convert-links: convierte los enlaces para que pueda trabajar en local
–random-wait: Esperamos un tiempo aleatorio entre descargas (hay webs que no les gusta que descargues sus webs)
-r: Recursive – descarga web entera recursivamente
-p: lo descarga todo (imágenes, css, javascripts…)
-E: mira las extensiones de los ficheros
-e robots=off: haremos que no parezcamos un robot
-U mozilla: haremos que crea que lo visitamos desde navegador mozilla

Pues eso es todo, espero que os sea de utilidad

Información relacionada

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*