wget brauchen um Homepage zu archivieren, wiki zu synchronisieren etc.
mit browser extension cookies.txt generieren (nach Anmeldung)
wget -pkrEx -linf -nH --cut-dirs=1 -P /wkArchive/test/wget --restrict-file-names=windows --load-cookies /wkData/pc/cookies.txt \ -v -o wget.log --rejected-log=wget.rLog https://localhost/home/spWaJ34/ --page-requisites --convert-links to downloaded locals recursive --adjust-extension, important, so pageFiles and directories do not clash (menuChoice Behörden shows always on webpage, not local file force directories levels output directory without host cut first 1 outputdirectories outputdirectory prefix translate url to filenames, with windows ? are encoded, so retrieval works load cookies from this file, first login and export cookies using firefoxAddon export Cookies verbose logfiles start url/domain
älteres 2019
- versuch spWaJa34:
- cd /wkData/tmp/wget1; wget -rp -k -nc -o log.txt https://localhost/home/spWaJ34/aktuell
- css etc. nicht gefunden, weil links darafu mit href="...css?..." definiert sind und files heissen auch so, aber links sind nicht urlencoded auf cms etc. sind
- weiterlesen links zeigen auf https: statt files, Grund unbekannt
- wiki
- cd /wkData/tmp/wget1; wget -rpk -o log.txt https://localhost
- alle edits, histories usw. werden generiert, -R "*action=*" funktioniert nicht, da laut docu, der queryPart nicht verglichen wird. aber auch link funktioniert nicht, da nicht urlencode'd
- Puff, weil viele file<->directories gleich heissen. index.php ist directory usw..