burner skrev:Så laddade hem länkarna och stippade dessa enligt
cat index.html.1 | cut -d"/" -f 2 | sed 's/<//g' | sed 's/^/http:\/\/www.diff.ru:8000\//'
så får får användbara länkar enligt formatet
http://www.diff.ru:8000/Aprilia_Pegaso_655_%2795_Repair_Manual.zip">Aprilia_Pegaso_655_'95_Repair_Manual.zip
http://www.diff.ru:8000/Aprilia_RSV_Mille_Repair_Manual.zip">Aprilia_RSV_Mille_Repair_Manual.zip
http://www.diff.ru:8000/BMW_F650CS_Repair_Manual.zip">BMW_F650CS_Repair_Manual.zip
osv.....
hela listan finns att ladda hem på http://www.thegate.nu/tmp/download.txt
Kör sedan följande script, om en länk tex. inte fungerar för att servern inte svarar så görs 30st försök innan scriptet hoppar över länken och försöker ladda hem nästa länk(manual)
Allt fungerar automatisk så man slipper bryr sig.
#!/bin/sh
################################
# Made 2005-03-06 by Fredrik
# This script is for lazy people
# and will download all pdf, rar
# and zip files in download.txt
################################
#For each row i txtfile
for LINK in `cat download.txt`
do
#Only WGET if link was found
if [ "$LINK" != "" ];
then
wget --tries=30 $LINK
fi
done
#Then find all pdf and zip files and compress and archive it
#Do not includes html pages like 404-Page not found, that's crap!
rm *.html* *.htm* *.php*
tar czf serviceAndRepairManuals.tar.gz `ls *.rar *.pdf *.zip`
rm *.pdf *.zip *.rar
Jag sätter på det nu så får vi se när det är klart.
Men Ricken du kanske nästan är klar ?
Ursäkta en dator-idiot men förklara hur man gör med scriptet, var man lägger det osv. Förklara som det är till en 3-åring Sen kan jag testa o köra det, lånar en go lina med go fart..