Hinweis: Wir haben ein Video-Tutorial:
Obwohl die Videodemonstration
TechSEO360 verwendet, ist ein Teil davon auch für Benutzer von
A1 Website Analyzer anwendbar.
Bevor Sie etwas anderes tun können, müssen Sie zunächst die Liste der gewünschten Seiten importieren. Sie können dies über das Menü
„Datei“ tun.
In den neuesten Versionen trägt der Menüpunkt zum Importieren den Titel
URLs und Daten aus Datei im „intelligenten“ Modus importieren... Wählen Sie eine Datei mit der Liste der URLs aus, die Sie importieren möchten. Es kann in verschiedenen Formaten vorliegen, einschließlich
.CSV,
.SQL und
.TXT.
Die Software wird automatisch ermitteln (versuchen), welche URLs in die
internen und
externen Registerkarten gelangen.
Dies geschieht, indem es erkennt, ob die Mehrheit der importierten URLs folgende sind:
- Von derselben Domain und platzieren Sie diese auf der Registerkarte „Interne Kategorie“. (Der Rest wird ignoriert.)
- Von mehreren Domänen und platzieren Sie diese auf der Registerkarte „Externe Kategorie“. (Der Rest wird ignoriert.)
Hinweis: Wenn Sie bereits vorhandene Website-Daten geladen haben, fügt A1 Website Analyzer die importierten URLs hinzu, wenn die Stammdomäne dieselbe ist.
Hinweis: Um alle importierten URLs in die Registerkarte
„Externe Kategorie“ zu zwingen, können Sie
Datei | verwenden
URLs und Daten aus Datei in „externe“ Liste importieren ...
Zusätzliche Daten werden importiert und hinzugefügt, wenn die Dateien aus bestimmten Quellen stammen und ihren ursprünglichen Namen beibehalten haben:
- Apache- Serverprotokolle:
- Welche Seiten wurden von GoogleBot aufgerufen? Dies wird von [googlebot] in der Datenspalte URL Flags angezeigt.
- Welche URLs, die nicht intern verlinkt oder verwendet werden. Dies wird durch [orphan] in der Datenspalte URL Flags angezeigt.
- CSV-Exporte der Google Search Console:
- Welche Seiten werden von Google indiziert? Dies wird von [googleindexed] in der Datenspalte URL Flags angezeigt.
- Klicks für jede URL in den Google-Suchergebnissen – diese werden in der Datenspalte „Klicks“ angezeigt.
- Impressionen jeder URL in den Google-Suchergebnissen – diese werden in der Datenspalte Impressions angezeigt.
- In GSC: Website auswählen, auf Bericht öffnen klicken, alle Daten aktivieren, auf Exportieren klicken, CSV herunterladen auswählen, entpacken und Pages.csv suchen.
- Majestic CSV-Exporte:
- Link-Score aller URLs – dieser wird in der Datenspalte Backlinks-Score angezeigt. Sofern verfügbar, werden die Daten verwendet, um die Berechnungen hinter den Datenspalten „Wichtigkeitswert berechnet“ und „Wichtigkeitswert skaliert“ weiter zu verbessern.
Das Crawlen importierter URLs, die zu einer einzelnen Website gehören, ist unkompliziert.
Bevor Sie den Scan nach dem Import starten, wählen Sie eine der Optionen für das
erneute Crawlen aus:
- Website scannen | Erneut crawlen (vollständig) – Dadurch werden neue URLs gecrawlt, die während des Scans gefunden wurden.
- Website scannen | Erneutes Crawlen (nur aufgeführt) – Dadurch wird vermieden, dass neue URLs für die Analyse oder Scan-Ergebnisse einbezogen werden.
Sie können jetzt auf die Schaltfläche
„Scan starten“ klicken.
Hinweis: Dieser Abschnitt ist nur erforderlich, wenn Sie
das Crawlen interner URLs weiter einschränken möchten. Sie können diesen Schritt überspringen, wenn:
- Der obige Abschnitt „Importierte interne URLs crawlen“ ist für Ihre Anforderungen ausreichend.
- Sie interessieren sich nur für externe URLs.
Eine einfache Möglichkeit, das Crawlen interner URLs einzuschränken, ist die Verwendung der im Bild unten gezeigten Schaltfläche.
Dadurch werden alle ausgewählten Website-URLs zu einem
Limit hinzugefügt, das sowohl in
den Analysefiltern als auch
in den Ausgabefiltern aufgeführt werden soll.
Hinweis: Wenn Sie einschränken möchten, welche URLs in erneute Crawls einbezogen werden sollen, ist es oft einfacher, die linke Ansicht in den
Listenmodus zu wechseln.
Hinweis: Wenn Sie URLs überprüfen lassen möchten, die nicht in der importierten Liste enthalten sind, müssen Sie sicherstellen, dass der Crawler sie analysieren und in die Ergebnisse einbeziehen darf.
Hinweis: Denken Sie daran, die folgenden Optionen aktiviert zu lassen, wenn Sie Ausgabefilter verwenden:
- Ältere Versionen: Website scannen | Crawler-Optionen | Wenden Sie die Filter „Webmaster“ und „Ausgabe“ an, nachdem der Website-Scan beendet wurde
- Neuere Versionen: Website scannen | Ausgabefilter | Nachdem der Website-Scan beendet wurde: Ausgeschlossene URLs entfernen
Auf diese Weise werden nach Abschluss des Site-Crawlings nur die URLs angezeigt, die Sie interessieren.
Hinweis: Wenn Sie vergessen, einen der
Neucrawl- Modi zu verwenden und
Crawling auf Filter beschränken verwenden, kann der Scan möglicherweise nicht gestartet werden, wenn Sie alle URLs ausgeschlossen haben, die zum Initiieren des Site-Crawlings verwendet wurden.