Wie kann ich meine Websie offline/online archivieren (wget)?

  • Ersteller Paul.FinnEdison
  • Erstellt am
P

Paul.FinnEdison

Jungspund
Hallo

Ich versuche gerade eine alte PHP website offline zu sichern.
Das Ziel ist folgendes:
> Ich möchte alle daten der website in einem Ordner haben

1) Damit ich das offline alles durchsurfen kann
2) Den Ordner hochladen kann und dann OHEN PHP die Seite duch surfen kann

Es ist eine alte PHP Seite, die nicht mehr gewartet, und daher "offline" gehen soll, aber zwecks archivieren ...
Es geht auch nicht um einen Mitgliederbereich - also wirklich nur alles was online ohne log-in etc erreichbar ist.

Ich spiele dabei momentan mit folgendem command herum:
Bash:
URL="http://www.example.org"
OPTIONS="--recursive --convert-links --page-requisites -E"
wget $OPTIONS $URL

Mein Problem dabei ist jetzt folgendes:
* Einige Daten kommen von anderen Domains (root.example.org, site2.example.org, example.org) wie kann ich diese einbinden? (mit span-hosts habe ich es nicht geschafft in einem Ordner - der on/off-line funktionert)
** wobei ich natürlich nicht das ggf google analytics im neuen drinnen sein muss - glaube ich :)
* Wie kann ich den download Prozess anhalten und wieder starten?
* Wie kann ich am besten prüfen ob ich alles habe?
 
Ich verstehe nicht ganz worauf du hinaus willst?

1) Leider kann ich auf den Server nicht per SSH zugreifen ("FTP only")
2) Was soll das bringen? Am server liegen die PHP scripte, die die HTML seiten erstellen - die kann ich ja nicht lokal oder von einem statischen (also ohne script engine) webserver normal besuchen.
 
Leider kann ich auf den Server nicht per SSH zugreifen
Und wie administrierst du den Server?
2) Was soll das bringen? Am server liegen die PHP scripte, die die HTML seiten erstellen - die kann ich ja nicht lokal oder von einem statischen (also ohne script engine) webserver normal besuchen.
Du brauchst doch die Sourcen/Scripte als Backup, damit kannst du den Server immer wieder neu aufsetzen.

Von meinem Servern werden täglich per systemd, rsync und ssh die entsprechenden Dateien/Verzeichnisse auf meinem Server zu Hause gesichert.
 
Und wie administrierst du den Server?
Nicht den vollständigen Server - aber per Web Interface.

Du brauchst doch die Sourcen/Scripte als Backup, damit kannst du den Server immer wieder neu aufsetzen.
Nein - ich will den Server nicht neu aufsetzen können. Ich will kein Backup - es geht eben eher um Archivierung.
Eine statische Sicherung -> so wie ich es beschrieben habe: Es soll auch offline und von einem "statischen" Server. (Sorry, mir fehlt das richtige Wort dafür)

Von meinem Servern werden täglich per systemd, rsync und ssh die entsprechenden Dateien/Verzeichnisse auf meinem Server zu Hause gesichert.
Hört such gut an. Verstehe aber nach wie vor nicht wie mir das helfen würde.
 

Ähnliche Themen

wget: Lädt bestimmte Dateitypen nicht

Onlineumfrage programmieren (mehrseitige HTML Formular an PHP übergeben)

Zurück
Oben