Microsys
  

A1 Website Analyzer-Leitfaden zu Website- und SEO-Audits

Die Analyse der eigenen Website ist oft der erste Schritt bei jedem SEO-Audit. Hier finden Sie eine Schritt-für-Schritt-Anleitung.

Hinweis: Wir haben ein Video-Tutorial:





Übersicht über den A1 Website Analyzer

A1 Website Analyzer ist ein Tool zur Website- und Linkanalyse, das seit seiner ursprünglichen Veröffentlichung 1.0 im Jahr 2006 ständig weiterentwickelt wird.

Unsere Software verfügt über ein breites Arsenal an Tools. In diesem Artikel erfahren Sie, wie Sie die meisten davon für verschiedene Website- und SEO-Prüfungsaufgaben verwenden.

Sie können direkt zu bestimmten Teilen dieses Artikels springen:


Erste Schritte – Website scannen

Auf dem ersten Bildschirm, den Sie sehen, können Sie die Website-Adresse eingeben und den Crawl starten:

Suchen und Konfigurieren von Scanoptionen

Standardmäßig sind die meisten erweiterten Optionen ausgeblendet und die Software verwendet ihre Standardeinstellungen.

Wenn Sie jedoch die Einstellungen ändern möchten, z. B. um mehr Daten zu sammeln oder die Crawl-Geschwindigkeit durch Erhöhung der Anzahl der maximalen Verbindungen zu erhöhen, können Sie alle Optionen sichtbar machen, indem Sie den vereinfachten einfachen Modus deaktivieren.

Im Screenshot unten haben wir die maximale Anzahl an Arbeitsthreads und gleichzeitigen Verbindungen angezeigt:

Suchen und Konfigurieren von Scanoptionen


Schnellberichte

Dieses Dropdown-Menü zeigt eine Liste vordefinierter „Schnellberichte“, die nach dem Scannen einer Website verwendet werden können.

schnelle Berichte

Diese vordefinierten Berichte konfigurieren die folgenden Optionen:
  1. Welche Datenspalten sind sichtbar?
  2. Welche „Schnellfilteroptionen“ aktiv sind.
  3. Der „Schnellfiltertext“.
  4. Aktiviert die Schnellfilterung.

Sie können all dies auch manuell festlegen, um Ihre eigenen benutzerdefinierten Berichte zu erstellen. Dieser Leitfaden enthält beim Durchlesen verschiedene Beispiele hierfür.


Sichtbare Datenspalten steuern

Bevor wir die Website nach dem Scan weiter analysieren, müssen wir wissen, wie man Datenspalten ein- und ausschaltet, da es ein wenig überwältigend sein kann, sie alle auf einmal zu sehen.

Das Bild unten zeigt, wo Sie Spalten ein- und ausblenden können.

Steuern sichtbarer Datenspalten

Möglicherweise möchten Sie auch die folgenden Optionen aktivieren oder deaktivieren:
  • Ansicht | Erlauben Sie große URL-Listen in Datenspalten
  • Anzeigen | Erlauben Sie relative Pfade innerhalb von URL-Listen in Datenspalten
  • Anzeigen | Seiten-URLs nur innerhalb von URL-Listen in Datenspalten anzeigen
.


Entdecken Sie interne Verlinkungsfehler

Bei der Suche nach Fehlern auf einer neuen Website ist es oft am schnellsten, Schnellfilter zu verwenden. In unserem folgenden Beispiel verwenden wir die Option „Nur URLs mit Filtertext in den Spalten „Antwortcode“ anzeigen“ in Kombination mit „404“ als Filtertext und klicken auf das Filtersymbol.

Auf diese Weise erhalten wir eine Liste von URLs mit dem Antwortcode 404, wie hier gezeigt:

Überprüfen Sie die interne Verlinkung

Wenn Sie auf der linken Seite eine 404-URL auswählen, können Sie auf der rechten Seite Details darüber sehen, wie und wo sie entdeckt wurde. Sie können alle URLs sehen, die auf die 404-URL verlinkt, verwendet (normalerweise das src- Attribut in HTML-Tags) oder umgeleitet haben.

Hinweis: Um auch externe Links prüfen zu lassen, aktivieren Sie diese Optionen:
  • Website scannen | Datenerfassung | Option „Gefundene externe Links speichern“.
  • Website scannen | Datenerfassung | Überprüfen Sie, ob externe URLs vorhanden sind (und analysieren Sie diese gegebenenfalls)

Wenn Sie dies für Exporte nutzen möchten (später erklärt), können Sie auch Spalten aktivieren, die Ihnen die wichtigsten internen Backlinks und Ankertexte anzeigen.

Exportieren interner Verlinkungsdaten


Siehe Zeilennummern, Ankertexte und Follow/Nofollow für alle Links

Für alle auf der gescannten Website gefundenen Links können folgende Informationen angezeigt werden:
  • Die Zeilennummer in der Seitenquelle, in der sich der Link befindet.
  • Der dem Link zugeordnete Ankertext.
  • Ob der Link folgt oder nofollow ist

Erweiterte Linkinformationen

Um sicherzustellen, dass Nofollow-Links beim Website-Crawling einbezogen werden, deaktivieren Sie die folgenden Optionen unter Website scannen | Webmaster-Filter:
  • Befolgen Sie das Nofollow-Meta-Tag „Roboter“.
  • Befolgen Sie ein Tag „rel“ nofollow


Sehen Sie, auf welche Bilder ohne „Alt“-Text verwiesen wird

Bei der Verwendung von Bildern auf Websites ist es oft von Vorteil, Markup zu verwenden, das sie beschreibt, also das alt Attribut im <img> -HTML-Tag zu verwenden.

Hierzu können Sie den integrierten Bericht „Nur Bilder anzeigen, bei denen bei einigen „verlinkt von“ oder „verwendet von““ Anker/„alt“ fehlen, verwenden. In diesem Bericht werden alle Bilder aufgelistet, die:
  • Wird ohne Alternativtext verwendet
  • Ohne Ankertext verlinkt.

Dies wird erreicht durch:
  • Es werden nur relevante Datenspalten angezeigt.
  • Filter aktivieren: Nur URLs anzeigen, die Bilder sind.
  • Filter aktivieren: Nur URLs anzeigen, bei denen „linked-by“ oder „used-by“ Anker oder „alt“ fehlen.

Wenn Sie die Ergebnisse anzeigen, können Sie in erweiterten Details sehen, wo auf jedes Bild verwiesen wird, ohne dass einer der oben genannten Texttypen vorliegt. Im Screenshot unten untersuchen wir die verwendeten Daten, die aus Quellen wie <img src="example.png" alt="example"> stammen.

Bilder mit fehlendem Alternativtext


Verstehen Sie die interne Navigation und die Bedeutung von Links

Es kann sehr nützlich sein, zu verstehen, wie Ihre internen Website-Strukturen Suchmaschinen und Menschen dabei helfen, Ihre Inhalte zu finden.

Menschen


Um zu sehen, wie viele Klicks ein Mensch benötigt, um von der Startseite aus zu einer bestimmten Seite zu gelangen, verwenden Sie die Datenspalte „Klicks zum Navigieren“.

Suchmaschinen


Während die PageRank-Bildung größtenteils der Vergangenheit angehört, helfen Ihre internen Links und der weitergegebene Linkjuice den Suchmaschinen immer noch dabei, zu verstehen, welche Inhalte und Seiten Ihrer Meinung nach auf Ihrer Website am wichtigsten sind.

Unsere Software berechnet mithilfe der folgenden Schritte automatisch Wichtigkeitswerte für alle URLs:
  1. Links auf Seiten mit vielen eingehenden Links erhalten mehr Gewicht.
  2. Der Linkjuice, den eine Seite weitergeben kann, wird unter den ausgehenden Links geteilt.
  3. Die Werte werden auf eine logarithmische Basis umgerechnet und auf 0...10 skaliert.

interne Verlinkung und Linkjuice

Sie können den Algorithmus über die Menüoptionen beeinflussen:
  • Werkzeuge | Option des Wichtigkeitsalgorithmus: Links „reduzieren“: Gewichtet wiederholte Links auf derselben Seite immer weniger. Weiter unten im Inhalt platzierte Links werden immer weniger gewichtet.
  • Werkzeuge | Option des Wichtigkeitsalgorithmus: Links „noself“: Ignoriert Links, die auf dieselbe Seite verweisen, auf der sich der Link befindet.

Um Nofollow- Links einzubeziehen (die eine deutlich geringere Gewichtung erhalten als Follow- Links), deaktivieren Sie diese Optionen unter Website scannen | Webmaster-Filter:
  • Befolgen Sie das Nofollow-Meta-Tag „Roboter“.
  • Befolgen Sie ein Tag „rel“ nofollow


Alle Weiterleitungen anzeigen, Canonical, NoIndex und Ähnliches

Es ist möglich, Website-weite Informationen darüber anzuzeigen, welche URLs und Seiten:
  • HTTP-Weiterleitungen.
  • Meta-Aktualisierungsweiterleitungen.
  • Ausgeschlossen durch robots.txt.
  • Markierter kanonischer Verweis auf sich selbst, kanonischer Verweis auf eine andere URL als sich selbst, noindex oder nofollow, noarchive, nosnippet.
  • Duplikate jeglicher Art, z. B. Index- oder fehlende Slash- Seiten-URLs.
  • Und mehr..

Die oben genannten Daten werden hauptsächlich aus Meta-Tags, HTTP-Headern und Programmanalysen von URLs abgerufen.

Um alle Daten anzuzeigen, beenden Sie den Website-Scan und aktivieren Sie die Sichtbarkeit dieser Spalten:
  • Kerndaten | Weg
  • Kerndaten | Antwortcode
  • Kerndaten | Statusflags für URL-Inhalte erkannt
  • URL-Referenzen | Anzahl der Weiterleitungen
  • URL-Referenzen | Leitet zum Pfad weiter
  • URL-Referenzen | Leitet zum Antwortcode weiter
  • URL-Referenzen | Weiterleitung zum Pfad (endgültig)
  • URL-Referenzen | Weiterleitung zum Antwortcode (endgültig)
    (Dies ist insbesondere hilfreich, um sicherzustellen, dass Ihre Weiterleitungsziele korrekt eingerichtet sind.)

kanonische und ähnliche Informationen

Beachten Sie, dass wir im obigen Screenshot die Baumansicht ausgeschaltet haben und stattdessen alle URLs im Listenansichtsmodus sehen.

So richten Sie einen umfassenden Filter ein, der alle Seiten anzeigt, die in irgendeiner Weise weiterleiten:
  1. Aktivieren Sie zunächst die Optionen:
    • Anzeigen | Datenfilteroptionen | Es werden nur URLs angezeigt, die alle in der Spalte „URL-Statusflags“ gefundenen [Filtertexte] enthalten
    • Anzeigen | Datenfilteroptionen | Es werden nur URLs angezeigt, deren Filtertextnummer in der Spalte „Antwortcode“ enthalten ist
    • Ansicht | Datenfilteroptionen | Zeigen Sie nur URLs an, bei denen es sich um Seiten handelt
  2. Danach verwenden Sie Folgendes als Schnellfiltertext:
    [httpredirect|canonicalredirect|metarefreshredirect] -[noindex] 200 301 302 307

Dadurch werden die Filter so konfiguriert, dass URLs nur angezeigt werden, wenn sie die folgenden Bedingungen erfüllen:
  • Die URL muss eine Seite sein und darf beispielsweise kein Bild sein.
  • Die URL muss entweder eine HTTP-Umleitung oder eine Meta-Aktualisierung oder einen kanonischen Verweis auf eine andere Seite ermöglichen.
  • Die URL darf keine Noindex-Anweisung enthalten.
  • Der URL-HTTP-Antwortcode muss entweder 200, 301, 302 oder 307 sein.


Suchen Sie nach doppeltem Inhalt


Doppelte Seitentitel, Kopfzeilen usw.


Im Allgemeinen ist es keine gute Idee, wenn mehrere Seiten dieselben doppelten Titel, Überschriften und Beschreibungen haben. Um solche Seiten zu finden, können Sie nach Abschluss des ersten Website-Crawlings die Schnellfilterfunktion verwenden.

Im Screenshot unten haben wir unseren Schnellfilter darauf beschränkt, nur Seiten mit doppelten Titeln anzuzeigen, die in einer ihrer Datenspalten auch die Zeichenfolge „das Spiel“ enthalten.

Seitentitel und doppelter Inhalt

Doppelter Seiteninhalt


Einige Tools können eine einfache MD5-Hash- Prüfung aller Seiten einer Website durchführen. Dadurch erfahren Sie jedoch nur, dass die Seiten zu 100 % identisch sind, was bei den meisten Websites nicht sehr wahrscheinlich der Fall ist.

Stattdessen kann A1 Website Analyzer Seiten mit ähnlichem Inhalt sortieren und gruppieren. Darüber hinaus können Sie eine visuelle Darstellung der hervorstechendsten Seitenelemente sehen. Zusammen ergibt dies eine nützliche Kombination zum Auffinden von Seiten, die möglicherweise doppelten Inhalt haben. Um dies zu verwenden:
  • Aktivieren Sie die Option Website scannen | Datenerfassung | Führen Sie eine Keyword-Dichteanalyse aller Seiten durch, bevor Sie die Website scannen.
  • Aktivieren Sie die Sichtbarkeit der Datenspalte Seiteninhaltsähnlichkeit.

Seiten mit ähnlichem Inhalt werden zusammengefasst

Bevor Sie einen Site-Scan starten, können Sie die Genauigkeit erhöhen, indem Sie unter Website analysieren | die folgenden Optionen festlegen Keyword-Analyse.
  • Stellen Sie „Stoppwörter auswählen“ entsprechend der Hauptsprache Ihrer Website ein oder wählen Sie „Automatisch “, wenn mehrere Sprachen verwendet werden.
  • Legen Sie die Option „Verwendung von Stoppwörtern“ auf „Aus Inhalt entfernt“ fest.
  • Standortanalyse festlegen | Maximale Wörter pro Phrase: 2.
  • Standortanalyse festlegen | Max. Ergebnisse pro Zähltyp auf einen höheren Wert als den Standardwert festlegen, z. B. 40.

Hinweis: Wenn Sie auf Ihrer Website mehrere Sprachen verwenden, lesen Sie hier, wie die Seitensprachenerkennung in A1 Website Analyzer funktioniert.

Doppelte URLs


Viele Websites enthalten Seiten, auf die über mehrere eindeutige URLs zugegriffen werden kann. Solche URLs sollten Suchmaschinen umleiten oder auf andere Weise auf die primäre Quelle verweisen. Wenn Sie die Sichtbarkeit der Crawler-Flags der Datenspalte aktivieren, können Sie alle Seiten-URLs sehen, die:
  • Leiten Sie mithilfe von Canonical, HTTP-Redirect oder Meta-Refresh explizit um oder verweisen Sie auf andere URLs.
  • Sind anderen URLs ähnlich, z. B. example/dir/, example/dir und example/dir/index.html. Für diese werden die primären und doppelten URLs basierend auf HTTP-Antwortcodes und interner Verlinkung berechnet und angezeigt.


Optimieren Sie Seiten für bessere SEO, einschließlich Titelgrößen

Für diejenigen, die On-Page-SEO für alle Seiten durchführen möchten, gibt es einen integrierten Bericht, der Ihnen die wichtigsten Datenspalten anzeigt, darunter:
  • Wortanzahl im Seiteninhalt.
  • Text versus Code-Prozentsatz.
  • Länge des Titels und der Beschreibung in Zeichen.
  • Titel- und Beschreibungslänge in Pixel.
  • Interne Verlinkung und Seitenbewertungen.
  • Klicks auf Links, die erforderlich sind, um eine Seite vom Domänenstamm aus zu erreichen.

einige der SEO-relevantesten Datenspalten

Hinweis: Es ist möglich, die Daten auf verschiedene Weise zu filtern – z. B. so, dass Sie nur Seiten sehen, deren Titel zu lang sind, um in den Suchergebnissen angezeigt zu werden.


Benutzerdefinierte Suchwebsite für Text und Code

Bevor Sie mit dem ersten Website-Scan beginnen, können Sie verschiedene Text-/Codemuster konfigurieren, nach denen Sie suchen möchten, während die Seiten analysiert und gecrawlt werden.

Sie können dies unter Website scannen | konfigurieren Datenerfassung, und es ist möglich, sowohl vordefinierte Muster zu verwenden als auch eigene zu erstellen. Dies kann sehr nützlich sein, um zu sehen, ob beispielsweise Google Analytics auf allen Seiten korrekt installiert wurde.

Beachten Sie, dass wir jedes unserer Suchmuster benennen müssen, damit wir sie später unterscheiden können.

In unserem Screenshot haben wir ein Muster namens ga_new, das mithilfe eines regulären Ausdrucks nach Google Analytic sucht. (Wenn Sie sich mit regulären Ausdrücken nicht auskennen, reicht es oft auch aus, einfach einen Ausschnitt des gesuchten Textes oder Codes zu schreiben.)

Stellen Sie beim Hinzufügen und Entfernen von Mustern sicher, dass Sie diese mithilfe der Schaltflächen [+] und [-] zur Dropdown-Liste hinzugefügt bzw. daraus entfernt haben.

benutzerdefinierte Suchen

Nachdem der Website-Scan abgeschlossen ist, können Sie sehen, wie oft jedes hinzugefügte Suchmuster auf allen Seiten gefunden wurde.

benutzerdefinierte Suchergebnisse


Sehen Sie sich die wichtigsten Schlüsselwörter in allen Website-Inhalten an

Es ist möglich, beim Site-Crawling die Top-Wörter aller Seiten zu extrahieren.

Aktivieren Sie dazu die Option Website scannen | Datenerfassung | Führen Sie eine Keyword-Dichteanalyse aller Seiten durch.

Der Algorithmus zur Berechnung der Keyword-Scores berücksichtigt folgende Dinge:
  • Versucht, Sprache zu erkennen und die richtige Liste von Stoppwörtern anzuwenden.
  • Die Keyword-Dichte im gesamten Seitentext.
  • Text in wichtigen HTML-Elementen ist wichtiger als normaler Text.

Die angezeigten Ergebnisse sind so formatiert, dass sie für Menschen lesbar sind, sich aber auch mit benutzerdefinierten Skripten und Tools problemlos weiter analysieren lassen. (Das ist nützlich, wenn Sie die Daten exportieren möchten.)

Websiteweite Inhalts- und Keyword-Analyse

Wenn Sie lieber eine detaillierte Aufschlüsselung der Schlüsselwörter auf einzelnen Seiten erhalten möchten, können Sie auch Folgendes erhalten:

Keyword-Analyse einzelner Seiten

Hier können Sie auch konfigurieren, wie Keyword-Scores berechnet werden. Weitere Informationen hierzu finden Sie auf der Hilfeseite von A1 Keyword Research zur On-Page-Analyse von Keywords.


Rechtschreibprüfung ganzer Websites

Wenn Sie in Website scannen | Wenn Sie sich bei der Datenerfassung für eine Rechtschreibprüfung entscheiden, können Sie nach Abschluss des Crawls auch die Anzahl der Rechtschreibfehler für alle Seiten sehen.

Um die spezifischen Fehler anzuzeigen, können Sie den Quellcode der folgenden Dateien anzeigen, indem Sie auf Extras | klicken Dokument zur Rechtschreibprüfung.

Übersicht über die Funktionsweise der Rechtschreibung

Wie Sie sehen, können die Wörterbuchdateien nicht alles enthalten. Daher ist es oft von Vorteil, einen vorläufigen Scan durchzuführen, bei dem Sie häufig verwendete Wörter, die für Ihre Website-Nische spezifisch sind, zum Wörterbuch hinzufügen.

Fügen Sie Wörter zum Rechtschreibwörterbuch hinzu


Validieren Sie HTML und CSS aller Seiten

A1 Website Analyzer kann mehrere verschiedene HTML/CSS-Seitenprüfer verwenden, darunter W3C/HTML, W3C/CSS, Tidy/HTML, CSE/HTML und CSE/CSS.

Da die HTML-/CSS-Validierung das Crawlen von Websites verlangsamen kann, sind diese Optionen standardmäßig deaktiviert.

Liste der für die HTML/CSS-Validierung verwendeten Optionen:
  • Website scannen | Datenerfassung | Aktivieren Sie die HTML/CSS-Validierung
  • Allgemeine Optionen und Tools | Werkzeugwege | TIDY-Ausführungspfad
  • Allgemeine Optionen und Tools | Werkzeugwege | Ausführbarer Pfad der CSE HTML Validator-Befehlszeile
  • Website scannen | Datenerfassung | Validieren Sie HTML mit dem W3C HTML Validator
  • Website scannen | Datenerfassung | Validieren Sie CSS mit dem W3C CSS Validator

Wenn Sie einen Website-Scan mit aktivierter HTML-/CSS-Validierung abgeschlossen haben, sieht das Ergebnis etwa so aus:

HTML- und CSS-Validierung


Integration mit Online-Tools

Um den täglichen Arbeitsablauf zu erleichtern, verfügt die Software über eine separate Registerkarte mit verschiedenen Online-Tools von Drittanbietern.

Abhängig von der ausgewählten URL und den verfügbaren Daten können Sie eines der Online-Tools in der Dropdown-Liste auswählen und die richtige URL einschließlich Abfrageparametern wird automatisch in einem eingebetteten Browser geöffnet.

verschiedene Online-Tools verfügbar


Crawlen Sie Websites mithilfe einer benutzerdefinierten Benutzeragenten-ID und eines Proxys

Manchmal kann es nützlich sein, die beim Crawlen von Websites verwendete Benutzeragenten-ID und IP-Adresse zu verbergen.

Mögliche Gründe können sein, wenn eine Website:
  • Gibt für Crawler andere Inhalte zurück als für Menschen, z. B. Website-Cloaking.
  • Verwendet IP-Adressbereiche, um das Land zu erkennen und anschließend auf eine andere Seite/Site umzuleiten.

Sie können diese Dinge unter Allgemeine Optionen und Tools | konfigurieren Internet-Crawler.

Proxy und Benutzeragenten-ID konfigurieren


Importieren Sie Daten von Drittanbieterdiensten

Sie können URLs und erweiterte Daten von Drittanbietern über das Menü Datei | importieren Importieren Sie URLs aus text/log/csv.

Je nachdem, was Sie importieren, werden alle URLs entweder auf den internen oder externen Registerkarten platziert.

Der Import kann sowohl zum Hinzufügen weiterer Informationen zu vorhandenen Crawling-Daten als auch zum Seeding neuer Crawls verwendet werden.

Es werden zusätzliche Daten importiert, wenn die Quelldaten stammen aus:
  • Apache- Serverprotokolle:
    • Welche Seiten wurden von GoogleBot aufgerufen? Dies wird von [googlebot] in der Datenspalte URL Flags angezeigt.
    • Welche URLs, die nicht intern verlinkt oder verwendet werden. Dies wird durch [orphan] in der Datenspalte URL Flags angezeigt.
  • CSV-Exporte der Google Search Console:
    • Welche Seiten werden von Google indiziert? Dies wird von [googleindexed] in der Datenspalte URL Flags angezeigt.
    • Klicks für jede URL in den Google-Suchergebnissen – diese werden in der Datenspalte „Klicks“ angezeigt.
    • Impressionen jeder URL in den Google-Suchergebnissen – diese werden in der Datenspalte Impressions angezeigt.
  • Majestic CSV-Exporte:
    • Link-Score aller URLs – dieser wird in der Datenspalte Backlinks-Score angezeigt. Sofern verfügbar, werden die Daten verwendet, um die Berechnungen hinter den Datenspalten „Wichtigkeitswert berechnet“ und „Wichtigkeitswert skaliert“ weiter zu verbessern.

Um einen Website-Crawl von den importierten URLs aus zu starten, können Sie:
  • Aktivieren Sie die Option Website scannen | Erneut crawlen.
  • Aktivieren Sie die Option Website scannen | Erneutes Crawlen (nur aufgeführt) – Dadurch wird vermieden, dass neue URLs in die Analysewarteschlange und die Ergebnisausgabe aufgenommen werden.

Um die importierten URLs im externen Tab zu crawlen, aktivieren Sie die folgenden Optionen:
  • Website scannen | Datenerfassung | Option „Gefundene externe Links speichern“.
  • Website scannen | Datenerfassung | Überprüfen Sie, ob externe URLs vorhanden sind (und analysieren Sie diese gegebenenfalls)



Exportieren Sie Daten in HTML, CSV und Tools wie Excel

Im Allgemeinen können Sie den Inhalt eines beliebigen Datensteuerelements exportieren, indem Sie darauf fokussieren/anklicken und anschließend die Datei | verwenden Ausgewählte Daten in Datei exportieren... oder Datei | Ausgewählte Daten in die Zwischenablage exportieren... Menüpunkte.

Standardmäßig werden Daten als Standard-CSV-Dateien exportiert. Falls das Programm, in das Sie die CSV-Dateien importieren möchten, jedoch besondere Anforderungen hat oder Sie beispielsweise auch Spaltenüberschriften aufgelistet haben möchten, können Sie die Einstellungen anpassen Menü Datei | Export- und Importoptionen.

Die Daten, die Sie normalerweise exportieren, finden Sie in der Hauptansicht. Hier können Sie benutzerdefinierte Exporte und Berichte erstellen, die genau die Informationen enthalten, die Sie benötigen. Wählen Sie einfach aus, welche Spalten sichtbar sind, aktivieren Sie vor dem Exportieren die gewünschten Schnellfilter (z. B. nur 404 nicht gefundene Fehler, doppelte Titel oder ähnliches).

Alternativ können Sie auch die integrierten Berichtsschaltflächen verwenden, die verschiedene Konfigurationsvoreinstellungen enthalten:

Voreinstellungen für allgemeine Berichte

Hinweis: Sie können viele weitere Datenansichten erstellen, wenn Sie lernen, wie Sie Filter und sichtbare Spalten konfigurieren.


Sehen Sie sich URLs mit AJAX-Fragmenten und -Inhalten an

Kurze Erklärung von Fragmenten in URLs:
  1. Page-relative-fragments: Relative Links innerhalb einer Seite:
    http://example.com/somepage#relative-page-link
  2. AJAX-Fragmente: clientseitiges Javascript, das serverseitigen Code abfragt und Inhalte im Browser ersetzt:
    http://example.com/somepage#lookup-replace-data
    http://example.com/somepage#!lookup-replace-data
  3. AJAX-fragments-Google-initiative: Teil der Google- Initiative „Making AJAX Applications Crawlable “:
    http://example.com/somepage#!lookup-replace-data
    Diese Lösung wurde inzwischen von Google selbst abgelehnt.

Vor dem Website-Scan:
  • Hash- Fragmente # werden bei Verwendung der Standardeinstellungen entfernt. Um dies zu ändern, deaktivieren Sie Folgendes:
    • In Website scannen | Crawler-Optionen | Ausschnitt „#“ in internen Links
    • In Website scannen | Crawler-Optionen | Ausschnitt „#“ in externen Links
  • Hashbang- Fragmente #! bleiben stets erhalten und enthalten.
  • Wenn Sie AJAX-Inhalte analysieren möchten, die unmittelbar nach dem ersten Laden der Seite abgerufen werden:
    • Windows: In Website scannen | Crawler-Engine wählt HTTP mit WinInet + IE-Browser aus
    • Windows: In Website scannen | Crawler-Engine wählt HTTP mithilfe der Mac OS API + Browser aus

Nach dem Website-Scan:
  • Um alle URLs mit # einfach anzuzeigen, verwenden Sie den Schnellfilter.
  • Wenn Sie #! Für AJAX-URLs können Sie von Folgendem profitieren:
    1. Sichtbarkeit der Datenspalte Kerndaten | aktivieren URL-Inhaltsstatusflags erkannt.
    2. Sie können nach den Flags „[ajaxbyfragmentmeta]“ und „[ajaxbyfragmenturl]“ filtern oder suchen.

Alle URLs mit Fragmenten anzeigen


Windows, Mac und Linux

A1 Website Analyzer ist als native Software für Windows und Mac verfügbar.

Das Windows-Installationsprogramm wählt abhängig von der verwendeten Windows-Version automatisch die beste verfügbare Binärdatei aus, z. B. 32 Bit oder 64 Bit.

Unter Linux können Sie stattdessen häufig Virtualisierungs- und Emulationslösungen wie WINE verwenden.


Kostenlose Testversion, Preis, Upgrades und Installation

Um die kostenlose 30-Tage-Testversion auszuprobieren, laden Sie sie einfach herunter und installieren Sie sie. Es gibt keine künstlichen Seiten- oder URL-Beschränkungen.

Wenn Sie A1 Website Analyzer kaufen, beträgt der Preis 69 USD und beinhaltet:
  • Alle Releases der Versionsreihe 11.x.
  • Es gibt keinen monatlichen oder jährlichen Abonnementpreis.
  • Sie können die Software so lange nutzen, wie Sie möchten.

Je nachdem, wann Sie kaufen, ist möglicherweise auch der Zugriff auf die 12.x-Serie enthalten, wenn die erste 12.x-Version innerhalb eines Jahres nach Ihrem 11.x-Kauf veröffentlicht wird. Wenn nicht, gibt es einen ermäßigten Upgrade-Preis.

Hinweis: Wenn Sie beispielsweise bereits Version 11.0.0 installiert haben, können Sie auf die neueste Version 11.0.0 aktualisieren, indem Sie diese einfach herunterladen und installieren.


Geschwister-Tools

Wenn dem A1 Website Analyzer eine Funktion fehlt, können Sie versuchen, die Schwestertools zu überprüfen. Einige gemeinsame Merkmale aller A1 -Tools sind:
  • Ähnliche Benutzeroberfläche.
  • Kann Projektdateien und Daten teilen.
  • Cross-Sale-Rabatte sind während des Bestellvorgangs verfügbar.

Sitemaps


Während A1 Website Analyzer keine Sitemaps erstellt, wird dies bei seinem Schwestertool A1 Sitemap Generator der Fall sein. Dazu gehören XML-Sitemaps, Video-Sitemaps, Bild-Sitemaps, HTML-Sitemaps und einige andere Formate.
A1 Website Analyzer
A1 Website Analyzer | Hilfe | vorherige | nächste
SEO-Website-Crawler-Tool, das defekte Links findet, den Saftfluss interner Links analysiert, doppelte Titel anzeigt, eine benutzerdefinierte Code-/Textsuche durchführt und vieles mehr.
Diese Hilfeseite wird von betreut
Als einer der Hauptentwickler haben seine Hände den größten Teil des Codes in der Software von Microsys berührt. Wenn Sie Fragen per E-Mail senden, ist die Wahrscheinlichkeit groß, dass er derjenige ist, der antwortet.
Teile diese Seite mit Freunden   LinkedIn   Twitter   Facebook   Pinterest   YouTube  
 © Copyright 1997-2024 Microsys

 Mit der Nutzung dieser Website erklären Sie sich mit unseren Rechtlichen, Datenschutzrichtlinien und Cookie Informationen einverstanden.