El 2004-04-23 a las 23:24 +0200, david e. galan escribió:
holas a tod@s, leyendo la man de wget he llegado a la conclusion de que el comando necesario para bajar por ejemplo todas las fotos de una pagina web de tu amigo x que tenga fotos de sus vacas seria
wget -rL -A jpg (suponiendo que esten en jpg) http://url
vale, pues no funciona nada, se conecta y tal pero no baja mas que el index.html,
Según el manual (Examples, Advanced Usage): * You want to download all the GIFs from a directory on an HTTP server. You tried `wget http://www.server.com/dir/*.gif', but that didn't work because HTTP retrieval does not support globbing. In that case, use: wget -r -l1 --no-parent -A.gif http://www.server.com/dir/ More verbose, but the effect is the same. `-r -l1' means to retrieve recursively (*note Recursive Retrieval::), with maximum depth of 1. `--no-parent' means that references to the parent directory are ignored (*note Directory-Based Limits::), and `-A.gif' means to download only the GIF files. `-A "*.gif"' would have worked too. O sea, sería: wget -r -l1 --no-parent -A.jpg http://url si esa url es el directorio exacto donde están. -- Saludos Carlos Robinson