Hinweis: Wir haben ein Video-Tutorial:
Obwohl die Videodemonstration
TechSEO360 verwendet, ist ein Teil davon auch für Benutzer des
A1 Sitemap Generator anwendbar.
Bevor Sie etwas anderes tun können, müssen Sie zunächst die Liste der gewünschten Seiten importieren. Sie können dies über das Menü
„Datei“ tun.
In den neuesten Versionen trägt der Menüpunkt zum Importieren den Titel
URLs und Daten aus Datei im „intelligenten“ Modus importieren... Wählen Sie eine Datei mit der Liste der URLs aus, die Sie importieren möchten. Es kann in verschiedenen Formaten vorliegen, einschließlich
.CSV,
.SQL und
.TXT.
Die Software wird automatisch ermitteln (versuchen), welche URLs in die
internen und
externen Registerkarten gelangen.
Dies geschieht, indem es erkennt, ob die Mehrheit der importierten URLs folgende sind:
- Von derselben Domain und platzieren Sie diese auf der Registerkarte „Interne Kategorie“. (Der Rest wird ignoriert.)
- Von mehreren Domänen und platzieren Sie diese auf der Registerkarte „Externe Kategorie“. (Der Rest wird ignoriert.)
Hinweis: Wenn Sie bereits vorhandene Website-Daten geladen haben, fügt A1 Sitemap Generator die importierten URLs hinzu, wenn die Stammdomäne dieselbe ist.
Hinweis: Um alle importierten URLs in die Registerkarte
„Externe Kategorie“ zu zwingen, können Sie
Datei | verwenden
URLs und Daten aus Datei in „externe“ Liste importieren ... Das Crawlen importierter URLs, die zu einer einzelnen Website gehören, ist unkompliziert.
Bevor Sie den Scan nach dem Import starten, wählen Sie eine der Optionen für das
erneute Crawlen aus:
- Website scannen | Erneut crawlen (vollständig) – Dadurch werden neue URLs gecrawlt, die während des Scans gefunden wurden.
- Website scannen | Erneutes Crawlen (nur aufgeführt) – Dadurch wird vermieden, dass neue URLs für die Analyse oder Scan-Ergebnisse einbezogen werden.
Sie können jetzt auf die Schaltfläche
„Scan starten“ klicken.
Hinweis: Dieser Abschnitt ist nur erforderlich, wenn Sie
das Crawlen interner URLs weiter einschränken möchten. Sie können diesen Schritt überspringen, wenn:
- Der obige Abschnitt „Importierte interne URLs crawlen“ ist für Ihre Anforderungen ausreichend.
- Sie interessieren sich nur für externe URLs.
Eine einfache Möglichkeit, das Crawlen interner URLs einzuschränken, ist die Verwendung der im Bild unten gezeigten Schaltfläche.
Dadurch werden alle ausgewählten Website-URLs zu einem
Limit hinzugefügt, das sowohl in
den Analysefiltern als auch
in den Ausgabefiltern aufgeführt werden soll.
Hinweis: Wenn Sie einschränken möchten, welche URLs in erneute Crawls einbezogen werden sollen, ist es oft einfacher, die linke Ansicht in den
Listenmodus zu wechseln.
Hinweis: Wenn Sie URLs überprüfen lassen möchten, die nicht in der importierten Liste enthalten sind, müssen Sie sicherstellen, dass der Crawler sie analysieren und in die Ergebnisse einbeziehen darf.
Hinweis: Denken Sie daran, die folgenden Optionen aktiviert zu lassen, wenn Sie Ausgabefilter verwenden:
- Ältere Versionen: Website scannen | Crawler-Optionen | Wenden Sie die Filter „Webmaster“ und „Ausgabe“ an, nachdem der Website-Scan beendet wurde
- Neuere Versionen: Website scannen | Ausgabefilter | Nachdem der Website-Scan beendet wurde: Ausgeschlossene URLs entfernen
Auf diese Weise werden nach Abschluss des Site-Crawlings nur die URLs angezeigt, die Sie interessieren.
Hinweis: Wenn Sie vergessen, einen der
Neucrawl- Modi zu verwenden und
Crawling auf Filter beschränken verwenden, kann der Scan möglicherweise nicht gestartet werden, wenn Sie alle URLs ausgeschlossen haben, die zum Initiieren des Site-Crawlings verwendet wurden.