holas a tod@s, leyendo la man de wget he llegado a la conclusion de que el comando necesario para bajar por ejemplo todas las fotos de una pagina web de tu amigo x que tenga fotos de sus vacas seria wget -rL -A jpg (suponiendo que esten en jpg) http://url vale, pues no funciona nada, se conecta y tal pero no baja mas que el index.html, el caso es que leyendo la man observo esto de los niveles de recursividad, e introduzco al azar una cifra elevada digamos 9, pero tampoco, y usando la interfaz gtk ya desesperado pues tampoco, empiezo a pensar que una herramienta que se presume tan potente debe ser para gente mas sabia que yo, porque debo tener por algun sitio algun error de concepto, alguien tiene idea de esto, gracias y un saludo a tod@s.
El 2004-04-23 a las 23:24 +0200, david e. galan escribió:
holas a tod@s, leyendo la man de wget he llegado a la conclusion de que el comando necesario para bajar por ejemplo todas las fotos de una pagina web de tu amigo x que tenga fotos de sus vacas seria
wget -rL -A jpg (suponiendo que esten en jpg) http://url
vale, pues no funciona nada, se conecta y tal pero no baja mas que el index.html,
Según el manual (Examples, Advanced Usage): * You want to download all the GIFs from a directory on an HTTP server. You tried `wget http://www.server.com/dir/*.gif', but that didn't work because HTTP retrieval does not support globbing. In that case, use: wget -r -l1 --no-parent -A.gif http://www.server.com/dir/ More verbose, but the effect is the same. `-r -l1' means to retrieve recursively (*note Recursive Retrieval::), with maximum depth of 1. `--no-parent' means that references to the parent directory are ignored (*note Directory-Based Limits::), and `-A.gif' means to download only the GIF files. `-A "*.gif"' would have worked too. O sea, sería: wget -r -l1 --no-parent -A.jpg http://url si esa url es el directorio exacto donde están. -- Saludos Carlos Robinson
El Sábado, 24 de Abril de 2004 12:29, Carlos E. R. escribió:
O sea, sería:
wget -r -l1 --no-parent -A.jpg http://url
si esa url es el directorio exacto donde están.
Siempre y cuando el servidor http en cuestión indexe el directorio no?
Saludos Carlos Robinson
El 2004-04-24 a las 13:38 +0200, Javier Payno escribió:
wget -r -l1 --no-parent -A.jpg http://url
si esa url es el directorio exacto donde están.
Siempre y cuando el servidor http en cuestión indexe el directorio no?
Esa es una duda que tengo, hay que probarlo. El mensaje original tenía un error con el punto ("-A.jpg", no "-A jpg") -- Saludos Carlos Robinson
El sáb, 24-04-2004 a las 14:19, Carlos E. R. escribió:
El 2004-04-24 a las 13:38 +0200, Javier Payno escribió:
wget -r -l1 --no-parent -A.jpg http://url
si esa url es el directorio exacto donde están.
Siempre y cuando el servidor http en cuestión indexe el directorio no?
Esa es una duda que tengo, hay que probarlo. El mensaje original tenía un error con el punto ("-A.jpg", no "-A jpg")
-- Saludos Carlos Robinson
holas! veamos segun entiendo yo lo que pone el manual de wget si omites l1 por defecto busca en 7 niveles, y la -r determina la busqueda recursiva por directorios inferiores, --no-parent determina que no suba a otros directorios por encima del que determinas en el http, y la -A pues selecciona el tipo de archivos a bajar, vale, pero teoricamente en funcion de lo que he leido, omitiendo el l1 y poniendo la dire del index.html, o sea la pagina de inicio, tendria que buscar recursivamente por directorios inferiores archivos jpg, si ademas añades la opcion -L es decir wget -rL -A jpg http://dire_de_la_pagina cosa que no sucede puesto que sigue bajando el index.html y punto, quiza com apuntais, sea cosa de la configuracion del servidor http, desconozco cualquier cosa relativa a la configuracion de servidores http, nunca he montado uno, el caso es que o no he entendido nada o en este caso no funciona, que opinais? muchisimas gracias por vuestras opiniones, saludos
david e. galan escribió:
holas! veamos segun entiendo yo lo que pone el manual de wget si omites l1 por defecto busca en 7 niveles, y la -r determina la busqueda recursiva por directorios inferiores, --no-parent determina que no suba a otros directorios por encima del que determinas en el http, y la -A pues selecciona el tipo de archivos a bajar, vale, pero teoricamente en funcion de lo que he leido, omitiendo el l1 y poniendo la dire del index.html, o sea la pagina de inicio, tendria que buscar recursivamente por directorios inferiores archivos jpg, si ademas añades la opcion -L es decir wget -rL -A jpg http://dire_de_la_pagina cosa que no sucede puesto que sigue bajando el index.html y punto, quiza com apuntais, sea cosa de la configuracion del servidor http, desconozco cualquier cosa relativa a la configuracion de servidores http, nunca he montado uno, el caso es que o no he entendido nada o en este caso no funciona, que opinais? muchisimas gracias por vuestras opiniones, saludos
Hola a tod@s. Si que funciona, pero te comento, en la mayoria de los servidores no te dejan acceder a todo sus directorios y tienen restricciones (como es normal) por lo tanto lo mas facil es hacer esto otro wget -r -l1 --no-parent -A.jpg -i lista Donde lista es un archivo que te creaste, y en donde dices todas las rutas de las cuales quieres descargar. Un saludo.
Cecilia Marquina escribió:
david e. galan escribió:
holas! veamos segun entiendo yo lo que pone el manual de wget si omites
l1 por defecto busca en 7 niveles, y la -r determina la busqueda recursiva por directorios inferiores, --no-parent determina que no suba a otros directorios por encima del que determinas en el http, y la -A pues selecciona el tipo de archivos a bajar, vale, pero teoricamente en funcion de lo que he leido, omitiendo el l1 y poniendo la dire del index.html, o sea la pagina de inicio, tendria que buscar recursivamente por directorios inferiores archivos jpg, si ademas añades la opcion -L es decir wget -rL -A jpg http://dire_de_la_pagina cosa que no sucede puesto que sigue bajando el index.html y punto, quiza com apuntais, sea cosa de la configuracion del servidor http, desconozco cualquier cosa relativa a la configuracion de servidores http, nunca he montado uno, el caso es que o no he entendido nada o en este caso no funciona, que opinais? muchisimas gracias por vuestras opiniones, saludos
Hola a tod@s.
Si que funciona, pero te comento, en la mayoria de los servidores no te dejan acceder a todo sus directorios y tienen restricciones (como es normal) por lo tanto lo mas facil es hacer esto otro
wget -r -l1 --no-parent -A.jpg -i lista
Donde lista es un archivo que te creaste, y en donde dices todas las rutas de las cuales quieres descargar.
Un saludo.
Hola otra vez Con respecto a lo anterior tengo una duda, ya que yo lo utilizo con listas, pero no se si se puede dirigir hacia un script. Un Saludo.
El 2004-04-26 a las 11:36 +0200, david e. galan escribió:
pues selecciona el tipo de archivos a bajar, vale, pero teoricamente en funcion de lo que he leido, omitiendo el l1 y poniendo la dire del index.html, o sea la pagina de inicio, tendria que buscar recursivamente por directorios inferiores archivos jpg, si ademas añades la opcion -L es decir wget -rL -A jpg http://dire_de_la_pagina
En cualquier caso sería "-A.jpg", y no "-A jpg", como ya te dije. Lo puedes ver en los ejemplos del manual. Además, lo de buscar recursivamente por directorios inferiores, me parece que sólo lo va a hacer por directorios referidos en algún html que haya visto antes, no por todos los que existan. -- Saludos Carlos Robinson
participants (4)
-
Carlos E. R.
-
Cecilia Marquina
-
david e. galan
-
Javier Payno