Suche Tool/Script: ganze PHP Webseite als HTML speichern

flowtec

Cadet 2nd Year
Registriert
Feb. 2006
Beiträge
23
Hallo,

folgendes Problem:

Ich habe hier ein Content Management System, welches natürlich dynamische Seiten mittels PHP erzeugt. Ich bräuchte diese Seite aber auf einem System, welches weder PHP noch MySQL beherrscht.

Es wäre ja möglich, die ganze Seitenstruktur durchzuklicken und als HTML zu speichern. Die ganzen Links müssten ggf. angepasst werden (obwohl dank mod_rewrite keine .php-Links vorkommen). Diese "statische Kopie" meines CMS könnte dann über reines HTML, CSS und meinetwegen JS laufen.

Diesen Vorgang könnte man dann immer automatisiert wiederholen, wenn im CMS was verändert wurde.

Nun bin ich auf der Suche nach einem Tool, was genau das automatisiert macht (egal ob vollautomatisch oder nach manuellem Anstoßen). Egal ob das Windows-Programm oder als serverseitiges Script (PHP, Perl). Ich weiß dass es diverse "Webseiten-Dumper" gibt. In Verbindung eines der Programme, die einen lokalen Ordner mit einem FTP Server synchronisieren, könnte das wohl funktionieren. Vielleicht gibt es eine elegantere Lösung? Am allerfeinsten wäre natürlich etwas serverseities, das per Cronjob arbeitet.

Kennt jemand irgend sowas in der Richtung?

Vielen Dank.
 
Mmh. Ich kenne nicht solch ein Tool, aber Suchmaschinen speichern ja auch im Cache die Seiten ab.
Du bräuchtest also ein ähnliches System. Wenn du schon etwas Erfahrung mit PHP hast kannst du das auch selbst realisieren.
 
Gibt es nicht und wird es zumindest zufriedentstellen auch nicht geben, meines Wissens nach.
Spätestens wenn's Captchas oder Seiten gibt, wo man sich einloggen muss "ist aus die Maus".
 
Ich wüsste was anderes, falls es erlaubt ist, Alternativen zu benennen.

und zwar von Apache-Friends dieses XAMPP. Es ist kostenlos und damit bekämst du MySQL und PHP super easy auf alle Computer wo du das installierst.

Wenn die Seite allerdings hauptsächlich ihre Inhalte aus einer MySQL-Datenbank bezieht wird es eher schwierig, da man die Datenbank noch auf die Festplatte ziehen muss.

Auf alle Fälle zieht man dann die Webseiten-Daten in den Ordner
.../XAMPP/htdocs/Name der Webseite/

und dann im Browser öffnet man dann die Daten indem man in der Adressleiste
localhost/Name der Webseite/
eingibt, und wenn die Funktionen für Apache und MySQL aktiviert sind (über "XAMPP Control Panel"), müsstest du dann die Seite an sich und ebenso dynamisch zum Laufen bekommen.

Ist nur so ein Vorschlag von mir, da ich nicht weiß, wieso du die sonst statisch haben willst ;)

Mit freundlichen Grüßen
Marko
 
Für meine Zwecke wär das mit den Captchas egal - gibt es bei mir nicht.

Mit PHP habe ich durchaus Erfahrung, aber die nötige Arbeit und das Debuggen würde ich eben gerne vermeiden.

@MarkoH: Danke für den Hinweis, aber XAMPP ist mir bekannt. Das Problem ist nur, da wo ich die Seiten brauche habe ich kein Windows oder ähnliches, wo ich mal eben sowas installieren kann. Sondern nur ein simpler Webserver, der nicht viel mehr kann als HTML-Dateien auszuliefern.
 
Ja, das Problem hatte ich auch bei meinem 1&1-Webspace, der im DSL-Paket enthalten ist.
Eine andere Lösung, als auf meine eigentliche Seite per .htaccess zu verweisen, fiel mir da nicht ein.
Ich weiß zwar nicht wie es mit deinem Webserver aussieht, aber wenn .htaccess keine Lösung für dich ist, könntest du versuchen die Seite per iFrame einzubinden. Eine valide Methode ist das allerdings nicht- ich würde das auch nur im Notfall machen!
 
Das sollte mit wget gehen. Entweder gleich eine GUI dazuinstallieren oder direkt über die Eingabeaufforderung:
Code:
wget -r -k -E -l 8 http://example.com
Dieses Kommando lädt den kompletten Inhalt von example.com rekursiv (-r) bis zu einer Tiefe von 8 Links (-l 8) in das aktuelle Verzeichnis herunter, konvertiert URLs in relative Pfade (-k) und setzt die Dateiendung auf .html (-E).

Dann nur noch mit einem FTP-Client der Wahl hochladen und dann sollte es das gewesen sein.
 
Zuletzt bearbeitet:
Naja, is nichts anderes als "Offline verfügbar machen". Um Seiten quasi zu dumpen gibt's genug Tools. Unter Windows bräuchtest nur was, was per CMD aufrufbar ist und dann den Folder per FTP hochladen, bzw. direkt auf dem Webserver die Seite "Offline verfügbar machen"... Unter Linux dürfts mit bereits beschrieben Lösung noch am einfachsten sein.

Sollte kein Problem sein, ob's sinnvoll ist, ist eine andere Sache... Vorallem je größer die Seite wird, und je öfter man Änderungen vor nimmt, desto aufwendiger.

MfG, Thomas
 
versuch es doch einfach mal mit httrack. damit kannst sogar passwort geschützte seiten downloaden als html damit mach ich das immer
 
So wie es sich für mich liest, würde es dir im Prinzip langen wenn sich das gesuchte Programm von Link-zu-Link durchklickt bis es irgendwann an das Ende deiner Webseite angelangt ist und eben jede abgerufene PHP-Seite lokal in einen benutzerdefinierten Ordner abspeichert (natürlich in der Ordner-Struktur wie es auf der Webseite vorhanden ist).

Sowas müsste sich eigentlich ziemlich einfach mithilfe von PHP und einer kleinen Datenbank realisieren lassen.
Curl dürfte dabei eine ziemlich gute Hilfe sein die einzelnen Seiten herunterzuladen, anschließend kann man es ja mit fwrite in eine Datei schreiben :>

mfg, Bl4ckbyt3
 

Ähnliche Themen

Zurück
Oben