wget

wget brauchen um Homepage zu archivieren, wiki zu synchronisieren etc.

mit browser extension cookies.txt generieren (nach Anmeldung)

wget -pkrEx -linf -nH --cut-dirs=1 -P /wkArchive/test/wget --restrict-file-names=windows --load-cookies /wkData/pc/cookies.txt \
     -v -o wget.log --rejected-log=wget.rLog  https://localhost/home/spWaJ34/ 
      --page-requisites
       --convert-links to downloaded locals
        recursive
         --adjust-extension, important, so pageFiles and directories do not clash (menuChoice Behörden shows always on webpage, not local file
          force directories
            levels
                  output directory without host
                      cut first 1 outputdirectories
                                   outputdirectory prefix
                                                           translate url to filenames, with windows ? are encoded, so retrieval works
                                                                                        load cookies from this file, first login and export cookies using firefoxAddon export Cookies
     verbose
       logfiles
                                              start url/domain 

älteres 2019

  • versuch spWaJa34:
    • cd /wkData/tmp/wget1; wget -rp -k -nc -o log.txt https://localhost/home/spWaJ34/aktuell
    • css etc. nicht gefunden, weil links darafu mit href="...css?..." definiert sind und files heissen auch so, aber links sind nicht urlencoded auf cms etc. sind
    • weiterlesen links zeigen auf https: statt files, Grund unbekannt
  • wiki
    • cd /wkData/tmp/wget1; wget -rpk -o log.txt https://localhost
    • alle edits, histories usw. werden generiert, -R "*action=*" funktioniert nicht, da laut docu, der queryPart nicht verglichen wird. aber auch link funktioniert nicht, da nicht urlencode'd
    • Puff, weil viele file<->directories gleich heissen. index.php ist directory usw..