Often I want to simply backup a single page from a website. Until now I always had half-working solutions, but today I found one solution using wget which works really well, and I decided to document it here. That way I won’t have to search it again, and you, dear readers, can benefit from it, too ☺
Update 2020: You can also use the copyweb-script from pyFreenet:
copyweb -d TARGET_FOLDER URL
Install viapip3 install --user pyFreenet3
.
wget --no-parent --timestamping --convert-links --page-requisites --no-directories --no-host-directories --span-hosts --adjust-extension --no-check-certificate -e robots=off -U 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.1.6) Gecko/20070802 SeaMonkey/1.1.4' [URL]
Optionally add --directory-prefix=[target-folder-name]
(see the meaning of the options and getting wget for some explanation)
Nachdem nun die ARD ihre Artikel löschen muss und bereits 80% der Rezepte gelöscht wurden, speichere ich jetzt alle ihre Rezepte auf meinem eigenen Rechner.
Da ich das mit den anderen bisher nicht gemacht habe, nutze ich wget, um das für die noch existierenden nachzuholen. Ich vermute, dass du das auch machen willst, so dass dir die Rezepte, für die du GEZ gezahlt hast, nicht gestohlen werden können.
Deshalb ist hier mein wget-Aufruf: