Descargando Paginas WEB con Wget

No Comments
Bueno cuando me comenzo a agradar la Esteganografia conoci el blog de @hecky neobits.org y me cansaba el de nunca poder verla bien, a fondo asi que desde entonces me acostumbre que si un sitio me agrada y lo necesito para ir aprendiendo cuando este sin internet o por algun motivo no tenga red me lo bajo en local y me pongo a leer jejeje en ese entonces andaba en Window$ y hacia uso de Teleṕort si mal no recuerdo aqui una muestra de las que baje.


Ademas ... al fin encontre recien el Blog de @hecky, xD esta version es del 2010 =) me acuerdo que anda en algun lado anda la del 2009 ¬¬ cuando aun no andaba con su dominio.


Ahora en linux wget nos permite bajar toda una web, y poder tenerla en tu repositorio personal. El comando wget se usa para bajarse algo de la web, incluso desde FTP, sin tener que utilizar un cliente, navegador, etc. Los flags -r y -p se usan para bajarlo todo en modo recursivo, con su estructura de directorios, y para bajarse imágenes, CSS, etc, que nos ayuden a general el HTML igual que en la web original, respectivamente.

wget -r -p -E -k http://neobits.org



 
-r: descarga de todas las carpetas (recursiva)
-p: descarga de todo lo necesario (imágenes, js, etc.)
-E: añadir extensión .html a los ficheros descargados
-k: convertir los enlaces a los ficheros locales.




No es necesario que creemos un directorio con el nombre ya que wget llega a crear el directorio.

Si queremos bajar varias webs solo damos lo siguiente guardando en un txt el listado.

wget -r -p -i listado.txt

0 comentarios

Publicar un comentario en la entrada