Buenas, alguien sabe alguna forma de descargar todos los archivos .rar de una web? Se acerca san juan y necesito descargar unas 4000 canciones para el karaoke (.kar) de una web, y ir uno por uno me puedo morir xDDD Os estaria eternamente agradecido.
Una saludo
van numerados?
wget -c http://dominio.com/carpeta/fichero{0-99999}.kar
esto solo es posible con wget y bash, pero tambien con cygwin
no no va numerado, y con lso pocos dias que quedan es imposible bajarlo todo, teniendo que ir a trabajar y sin casi tiempo xD
Creo que puedo tener la solución a tu problema.
Descargate Orbit que es un gestor de descargas: http://dl.orbitdownloader.com/dl/OrbitDownloaderSetup.exe
Cuando ya lo tengas instalado, tendrás que reiniciar el navegador que uses (yo utilizo firefox y me va bien) y vas a la página donde están todos los rar.
Cuando ya esté cargada por completo la página haz click derecho en un hueco de la pagina donde no haya nada y aparezeran dos opciones nuevas, Download by Orbit y Download All by Orbit. Bien pues tu escoges Download All by Orbit y si todo sale bien te descargará TODO lo que haya en la web, te descargará todos los .rar y la página completa.
Espero no haber llegado tarde, no vi el post.
Yo en webs de descarga directa que acortan los links largos, por ejemplo media-vida lo hace http://www.elpais.com/articulo/internacional/Ahmadineyad/exige/EE/UU/Reino/Unido/dejen/interferir/Iran/elpepuint/20090621elpepuint_4/Tes, lo que hacía es seleccionar el cacho de texto y en firefox darle a "ver código fuente seleccionado", y tirar de Notepad2 con expresiones regulares y reemplazo, por lo que limpia todo el código en 1 segundo dejando solo las direcciones (vamos, lo que sería el valor del href del tag <a> en html). Esto podría ser aplicable en este caso, lo único que podrías necesitar de más conocimientos.