Importieren und crawlen Sie eine Liste von Seiten

Erläutert den einfachsten Weg, das technische SEO-Programm einzurichten, um eine Liste spezifischer Seiten einer Website zu crawlen und zu analysieren.

Hinweis: Wir haben ein Video-Tutorial:





So importieren Sie die Seiten-URLs und Daten, die Sie analysieren möchten

Bevor Sie etwas anderes tun können, müssen Sie zunächst die Liste der gewünschten Seiten importieren. Sie können dies über das Menü „Datei“ tun.

In den neuesten Versionen trägt der Menüpunkt zum Importieren den Titel URLs und Daten aus Datei im „intelligenten“ Modus importieren...

Seitenliste importieren

Wählen Sie eine Datei mit der Liste der URLs aus, die Sie importieren möchten. Es kann in verschiedenen Formaten vorliegen, einschließlich .CSV, .SQL und .TXT.

Die Software wird automatisch ermitteln (versuchen), welche URLs in die internen und externen Registerkarten gelangen.

Dies geschieht, indem es erkennt, ob die Mehrheit der importierten URLs folgende sind:
  • Von derselben Domain und platzieren Sie diese auf der Registerkarte „Interne Kategorie“. (Der Rest wird ignoriert.)
  • Von mehreren Domänen und platzieren Sie diese auf der Registerkarte „Externe Kategorie“. (Der Rest wird ignoriert.)

Hinweis: Wenn Sie bereits vorhandene Website-Daten geladen haben, fügt TechSEO360 die importierten URLs hinzu, wenn die Stammdomäne dieselbe ist.

Hinweis: Um alle importierten URLs in die Registerkarte „Externe Kategorie“ zu zwingen, können Sie Datei | verwenden URLs und Daten aus Datei in „externe“ Liste importieren ...

Zusätzliche Daten werden importiert und hinzugefügt, wenn die Dateien aus bestimmten Quellen stammen und ihren ursprünglichen Namen beibehalten haben:
  • Apache- Serverprotokolle:
    • Welche Seiten wurden von GoogleBot aufgerufen? Dies wird von [googlebot] in der Datenspalte URL Flags angezeigt.
    • Welche URLs, die nicht intern verlinkt oder verwendet werden. Dies wird durch [orphan] in der Datenspalte URL Flags angezeigt.
  • CSV-Exporte der Google Search Console:
    • Welche Seiten werden von Google indiziert? Dies wird von [googleindexed] in der Datenspalte URL Flags angezeigt.
    • Klicks für jede URL in den Google-Suchergebnissen – diese werden in der Datenspalte „Klicks“ angezeigt.
    • Impressionen jeder URL in den Google-Suchergebnissen – diese werden in der Datenspalte Impressions angezeigt.
    • In GSC: Website auswählen, auf Bericht öffnen klicken, alle Daten aktivieren, auf Exportieren klicken, CSV herunterladen auswählen, entpacken und Pages.csv suchen.
  • Majestic CSV-Exporte:
    • Link-Score aller URLs – dieser wird in der Datenspalte Backlinks-Score angezeigt. Sofern verfügbar, werden die Daten verwendet, um die Berechnungen hinter den Datenspalten „Wichtigkeitswert berechnet“ und „Wichtigkeitswert skaliert“ weiter zu verbessern.



Crawlen Sie importierte interne URLs

Das Crawlen importierter URLs, die zu einer einzelnen Website gehören, ist unkompliziert.

Bevor Sie den Scan nach dem Import starten, wählen Sie eine der Optionen für das erneute Crawlen aus:
  • Website scannen | Erneut crawlen (vollständig) – Dadurch werden neue URLs gecrawlt, die während des Scans gefunden wurden.
  • Website scannen | Erneutes Crawlen (nur aufgeführt) – Dadurch wird vermieden, dass neue URLs für die Analyse oder Scan-Ergebnisse einbezogen werden.

Sie können jetzt auf die Schaltfläche „Scan starten“ klicken.


Beschränken Sie das Crawlen interner URLs

Hinweis: Dieser Abschnitt ist nur erforderlich, wenn Sie das Crawlen interner URLs weiter einschränken möchten.

Sie können diesen Schritt überspringen, wenn:
  • Der obige Abschnitt „Importierte interne URLs crawlen“ ist für Ihre Anforderungen ausreichend.
  • Sie interessieren sich nur für externe URLs.

Eine einfache Möglichkeit, das Crawlen interner URLs einzuschränken, ist die Verwendung der im Bild unten gezeigten Schaltfläche.

Dadurch werden alle ausgewählten Website-URLs zu einem Limit hinzugefügt, das sowohl in den Analysefiltern als auch in den Ausgabefiltern aufgeführt werden soll.

Seitenliste importieren

Hinweis: Wenn Sie einschränken möchten, welche URLs in erneute Crawls einbezogen werden sollen, ist es oft einfacher, die linke Ansicht in den Listenmodus zu wechseln.

Hinweis: Wenn Sie URLs überprüfen lassen möchten, die nicht in der importierten Liste enthalten sind, müssen Sie sicherstellen, dass der Crawler sie analysieren und in die Ergebnisse einbeziehen darf.

Hinweis: Denken Sie daran, die folgenden Optionen aktiviert zu lassen, wenn Sie Ausgabefilter verwenden:
  • Ältere Versionen: Website scannen | Crawler-Optionen | Wenden Sie die Filter „Webmaster“ und „Ausgabe“ an, nachdem der Website-Scan beendet wurde
  • Neuere Versionen: Website scannen | Ausgabefilter | Nachdem der Website-Scan beendet wurde: Ausgeschlossene URLs entfernen

Auf diese Weise werden nach Abschluss des Site-Crawlings nur die URLs angezeigt, die Sie interessieren.

Hinweis: Wenn Sie vergessen, einen der Neucrawl- Modi zu verwenden und Crawling auf Filter beschränken verwenden, kann der Scan möglicherweise nicht gestartet werden, wenn Sie alle URLs ausgeschlossen haben, die zum Initiieren des Site-Crawlings verwendet wurden.


Crawlen Sie importierte externe URLs

  • Falls Sie externe URLs überprüfen lassen möchten:
    • Deaktivieren Sie Website scannen | Raupenmotor | Standardmäßig ist die Option „GET“ für Seitenanfragen.
    • Markieren Sie Website scannen | Datenerfassung | Option „Gefundene externe URLs speichern“.
    • Markieren Sie Website scannen | Datenerfassung | Option „Externe URLs überprüfen“ (und ggf. analysieren).

  • Falls Sie externe URLs analysieren lassen möchten:
    • Markieren Sie Website scannen | Raupenmotor | Standardmäßig ist die Option „GET“ für Seitenanfragen.
    • Markieren Sie Website scannen | Datenerfassung | Option „Gefundene externe URLs speichern“.
    • Markieren Sie Website scannen | Datenerfassung | Option „Externe URLs überprüfen“ (und ggf. analysieren).

  • Wie oben zu sehen ist, besteht der Hauptunterschied in der Option „Standardmäßig auf GET für Seitenanfragen“ in Website scannen | Raupenmotor.
    • GET- Anfragen funktionieren mit allen Servern, sind jedoch langsamer, da sie den gesamten Seiteninhalt herunterladen.
    • HEAD- Anfragen werden manchmal blockiert, sind aber normalerweise viel schneller, da sie nur HTTP-Header herunterladen.


Starten Sie den Crawl und sehen Sie sich die Ergebnisse an

  • Klicken Sie auf die Schaltfläche „Scan starten“.

    Seitenliste importieren

  • Warten Sie, bis der Scan abgeschlossen ist.

  • Ergebnisse anzeigen.

    Hinweis: Normalerweise ist es einfacher, die Ergebnisse anzuzeigen, wenn Sie von der linken Ansicht in den Listenmodus wechseln.

  • Wenn Sie die Ergebnisse exportieren möchten, lesen Sie die Hilfeseite zum Exportieren von Daten in CSV-Dateien.
TechSEO360
TechSEO360 | Hilfe | vorherige | nächste
SEO-Website-Crawler-Tool, das defekte Links findet, den Saftfluss interner Links analysiert, doppelte Titel anzeigt, eine benutzerdefinierte Code-/Textsuche durchführt und vieles mehr.
Diese Hilfeseite wird von betreut
Als einer der Hauptentwickler haben seine Hände den größten Teil des Codes in der Software von Microsys berührt. Wenn Sie Fragen per E-Mail senden, ist die Wahrscheinlichkeit groß, dass er derjenige ist, der antwortet.
Teile diese Seite mit Freunden   LinkedIn   Twitter   Facebook   Pinterest   YouTube  
 © Copyright 1997-2024 Microsys

 Mit der Nutzung dieser Website erklären Sie sich mit unseren Rechtlichen, Datenschutzrichtlinien und Cookie Informationen einverstanden.