Microsys
  

So laden Sie Websites aus Internetarchiven herunter

Wenn Sie Ihre alte Website und ihren Inhalt verloren haben, ist es möglicherweise immer noch möglich, sie von einigen Internetarchiv-Websites und -Diensten herunterzuladen.

Haben Sie die Erlaubnis, Ihre alte Website herunterzuladen?

Wenn Sie jemals Ihre eigenen urheberrechtlich geschützten Inhalte und Websites verloren haben, weil Sie beispielsweise vergessen haben, die Kosten für Webserver und Hosting zu erneuern, wissen Sie, wie groß das Problem sein kann, alles wieder aufzubauen.

Einige Internetarchiv-Websites haben eine Richtlinie, die Folgendes vorsieht:
  • Ohne Erlaubnis alle für sie interessanten Websites herunterladen, speichern und anzeigen.
  • Geben Sie an, dass es Ihnen nicht gestattet ist, Ihre eigenen alten Websites und Inhalte von ihnen herunterzuladen.

Da wir keine Anwälte sind, können wir keine Rechtsberatung erteilen und wissen daher nicht, ob es Ihnen beispielsweise im Rahmen einer fairen Nutzung gestattet ist, Ihre eigenen urheberrechtlich geschützten Websites und Inhalte aus solchen Internetarchiven herunterzuladen.

Möglicherweise möchten Sie Folgendes tun:
  • Bitten Sie das Archiv, das eine Kopie Ihrer Website enthält, um eine ausdrückliche Genehmigung.
  • Wenden Sie sich an einen Anwalt und lassen Sie sich rechtlich beraten, bevor Sie fortfahren.


So konfigurieren Sie den A1-Website-Download

  • Website scannen > Pfade
    • Legen Sie die Website-Domänenadresse und/oder den Verzeichnispfad auf dieselbe Stammdomänenadresse fest, auf der sich die Internetarchivseiten Ihrer alten Website befinden, z. B. http://content.example.org.
    • In „Beyond website root path“ (Beyond website root path) starten Sie das Scannen von Pfaden und fügen den Pfad zum Stammverzeichnis Ihrer archivierten Website hinzu, z. B. http://content.example.org/archives/timestamp-and-more/http://example.com/.

      Hinweis: Der Datei-Download-Pfad dieser URL ist auch der beste Ausgangspunkt, um die heruntergeladenen Inhalte offline anzuzeigen und zu durchsuchen.

  • Website scannen > Crawler-Optionen
    • Deaktivieren Sie die Option „//“ korrigieren, wenn es in internen Links anstelle von „/“ verwendet wird.
    • Deaktivieren Sie die Option „Interne“ URLs korrigieren, wenn die Root-URL der Website zu einer anderen Adresse weiterleitet.

  • Website scannen > Crawler Engine
    • Stellen Sie die maximale Anzahl gleichzeitiger Verbindungen (Datenübertragung) auf 2 ein. Wir tun dies, weil wir die Belastung des Servers minimieren möchten, der eine Kopie Ihrer Website in seinem Archiv speichert.

  • Website scannen > Analysefilter
    • Fügen Sie bei der Grenzwertanalyse interner URLs, die als „relativer Pfad“ ODER „Text“ ODER „Regex“ in der Liste übereinstimmen, einen Grenzwert hinzu, der einschränkt, welche Seiten-URLs heruntergeladen und analysiert werden. Beispiel könnte sein : ::201(0|1)[-0-9A-Za-z_]+/https?://(www\.)?example\.com.

      Hinweis: Durch das Hinzufügen solcher Filter können Sie Crawling und Analyse auf genau die Teile beschränken, die Sie benötigen. Da jedoch einige Archivdienste Seiten auf andere Daten und URL-Versionen umleiten (z. B. mit und ohne den .www- Teil), sollten Ihre Filter nicht zu spezifisch sein.

  • Website scannen > Ausgabefilter
    • Fügen Sie bei der Begrenzung der Ausgabe interner URLs, die als „relativer Pfad“ ODER „Text“ ODER „Regex“ in der Liste übereinstimmen, eine Begrenzung hinzu, die einschränkt, welche Seiten-URLs heruntergeladen und in die Ausgabe einbezogen werden. Beispiel könnte sein : ::201(0|1)[-0-9A-Za-z_]+/http://example\.com.

      Hinweis: Die Verwendung dieser Option erfordert besondere Sorgfalt und ist nur relevant, wenn Sie den Download sehr genau auf die genauen Teile beschränken müssen, die Sie benötigen.


Während Sie die Konfiguration noch testen, möchten Sie möglicherweise Folgendes deaktivieren:
  • Ältere Versionen:
    • Website scannen | Crawler-Optionen | Wenden Sie die Filter „Webmaster“ und „Ausgabe“ an, nachdem der Website-Scan beendet wurde
  • Neuere Versionen:
    • Website scannen | Ausgabefilter | Nachdem der Website-Scan beendet wurde: Ausgeschlossene URLs entfernen
    • Website scannen | Webmaster-Filter | Nachdem der Website-Scan beendet wurde: URLs mit noindex/disallow entfernen
A1 Website Download
A1 Website herunterladen | Hilfe | vorherige | nächste
Laden Sie vollständige Websites herunter und nehmen Sie sie mit, um sie in Offline-Medien zu durchsuchen. Kopieren und speichern Sie ganze Websites für Sicherungs-, Archivierungs- und Dokumentationszwecke. Verlieren Sie nie wieder eine Website.
Diese Hilfeseite wird von betreut
Als einer der Hauptentwickler haben seine Hände den größten Teil des Codes in der Software von Microsys berührt. Wenn Sie Fragen per E-Mail senden, ist die Wahrscheinlichkeit groß, dass er derjenige ist, der antwortet.
Teile diese Seite mit Freunden   LinkedIn   Twitter   Facebook   Pinterest   YouTube  
 © Copyright 1997-2024 Microsys

 Mit der Nutzung dieser Website erklären Sie sich mit unseren Rechtlichen, Datenschutzrichtlinien und Cookie Informationen einverstanden.