1. Liebe Forumsgemeinde,

    aufgrund der Bestimmungen, die sich aus der DSGVO ergeben, müssten umfangreiche Anpassungen am Forum vorgenommen werden, die sich für uns nicht wirtschaftlich abbilden lassen. Daher haben wir uns entschlossen, das Forum in seiner aktuellen Form zu archivieren und online bereit zu stellen, jedoch keine Neuanmeldungen oder neuen Kommentare mehr zuzulassen. So ist sichergestellt, dass das gesammelte Wissen nicht verloren geht, und wir die Seite dennoch DSGVO-konform zur Verfügung stellen können.
    Dies wird in den nächsten Tagen umgesetzt.

    Ich danke allen, die sich in den letzten Jahren für Hilfesuchende und auch für das Forum selbst engagiert haben. Ich bin weiterhin für euch erreichbar unter tti(bei)pcwelt.de.
    Dismiss Notice

Web-Seiten komplett (rekursiv) speichern ?

Discussion in 'Software allgemein' started by BratHering, Apr 3, 2004.

Thread Status:
Not open for further replies.
  1. BratHering

    BratHering Megabyte

    hallo,

    ich bin auf der Suche nach einem Programm (möglichst FreeWare), mit dem man Web-Seiten KOMPLETT mit allem inhalt, d. h. scripten, Multimedia-Content (Bilder, Videos) und mit allen verlinkten UnterSeiten auf die festplatte bannen kann...

    kennt jemand vielleicht ein solches?


    MfG
    Br@tHering
     
  2. ign

    ign Megabyte

  3. BratHering

    BratHering Megabyte

    vielen herzlichen dank @ all :) .
    jetzt hab ich was ich wollte.


    MfG
     
  4. pcw_user

    pcw_user Byte

  5. sarkastic_one

    sarkastic_one Halbes Megabyte

    Ich verwende dieses WGet .

    Einzelne Dateien lade ich so
    Code:
    wget -N --passive-ftp <datei-url>
    FTP-Verzeichnisse so
    Code:
     wget -r -N --passive-ftp <ftp-url>
     
  6. Rattiberta

    Rattiberta Halbes Gigabyte

  7. BratHering

    BratHering Megabyte

    wow, danke für die schnellen, antworten, also dieses spider ist genau das was ich gesucht habe...


    aber noch eine frage an "sarkastic_one":
    meinst du mit WGET etwa das GNU Wget? - weil ich habe das reinzufällig ebenfalls auf meinem rechner in CygWin.

    ich habe eben "wget --help" eingegeben und tatsächlich da sind ja ewig viele parameter funktionen...

    also heisst das, damit könnte man auch eine Website OHNE fremdlinks aber mit eigenen Links und multimedia inhalten speichern?

    kannst du mir vielleicht auch ein parameter beispiel nennen, wie man das benutzen könnte?


    MfG
     
  8. sarkastic_one

    sarkastic_one Halbes Megabyte

    Für einfache Sachen verwende ich WGet (Windows-Version) und für "komplexere" (ganze Websites inklusive Fremdlinks) leech.

    WGet ist komplett frei, aber es modifiziert die Links in den Html-Seiten nicht. Das Image ist also nicht lokal/offline lauffähig. Leech korrigiert die Links und erzeugt ein vollständiges und lauffähiges Abbild - ist aber Shareware und auf 25 Images beschränkt.
     
  9. Gast

    Gast Guest

Thread Status:
Not open for further replies.

Share This Page