Doppelter Inhalt und doppelte URLs in XML-Sitemaps
Websites mit mehreren URLs, die Inhalte duplizieren, sind schlecht für das Ranking in Suchmaschinen. Doppelte URLs und Inhalte sollten beim Erstellen und Hochladen von XML-Sitemaps behoben werden.
Hinweis: Wir haben ein Video-Tutorial:

Lösen Sie Website-Seiten und URLs mit doppeltem Inhalt
Suchmaschinen und Software wie
TechSEO360 folgen allen internen Links und Weiterleitungen innerhalb Ihrer Website.
Möglichkeiten zur Lösung von Problemen mit doppelten Inhalten und Seiten-URLs:
- Vermeiden Sie Seiten mit doppeltem Inhalt.
- Vermeiden Sie Links zu Seiten, die doppelte Inhalte enthalten.
- Leiten Sie doppelte Seiten auf entsprechende URLs um, z. B. mit mod_rewrite.
- Leiten Sie WWW- und Nicht-WWW- URLs derselben Seite zum gleichen Ziel um.
- Sie können kanonische, noindex- und robots-Textdateien nach Seiten mit doppeltem Inhalt filtern.
- Filtern Sie URLs sowohl während als auch nach dem Crawlen mithilfe von Analyse- und Ausgabefiltern.
- Die Tools zur Linkanalyse in unserer Software können Ihnen dabei helfen, Website-Probleme zu erkennen und zu lösen.
Probleme mit doppelten Seiten-URLs
Auch wenn Suchmaschinen wie Google Sie nicht immer für doppelten Inhalt bestrafen, müssen sie dennoch eine der URLs/Seiten auswählen, die in den Suchergebnissen angezeigt werden sollen, und alle anderen Duplikate ignorieren. Das bedeutet, dass alle Links, die auf die falsche URL verweisen, möglicherweise ignoriert und nicht mehr vollständig gezählt werden, wenn Suchmaschinen wie Google und Bing die Wichtigkeit berechnen.
Probleme mit doppeltem Inhalt
Sie können in allen Seiten-URLs Ihrer Website nach doppeltem Inhalt im
Titel-Tag,
H1-Tag,
H2-Tag, Meta-Tag-Beschreibung und
Meta-Tag-Schlüsselwörtern suchen.
So prüfen Sie, ob Seitentitel, Beschreibungen oder Überschriften doppelt vorhanden sind:
- Wählen Sie im Dropdown den entsprechenden Filter aus.
- Drücken Sie die Filtertaste. Alle URLs mit doppelten Titeln werden jetzt angezeigt und gruppiert.
( Hinweis: Der Screenshot stammt von A1 Website Analyzer, was bedeutet, dass mehr Funktionen verfügbar sind.)
Sie können die Ergebnisse anzeigen, nachdem Sie die Schnellfilterung der beim Website-Crawling gesammelten Daten angewendet haben. Duplicate Content und Ähnlichkeitsanalyse
Sie können häufig visuell erkennen, welche Seiten ähnliche Inhalte haben, indem Sie die folgende Option aktivieren, bevor Sie den Site-Scan starten:
Website scannen | Datenerfassung | Führen Sie eine Keyword-Dichteanalyse aller Seiten durch 
Wenn
die Spracherkennung korrekt funktioniert, können Sie die Qualität noch weiter verbessern. Legen Sie einfach
die Keyword-Tools | fest
Content-Keyword-Analyse | Wählen Sie Stoppwörter aus, die entweder der Hauptsprache Ihrer Website entsprechen, oder
automatisch, wenn Ihre Website mehrere Sprachen verwendet. Dadurch kann der Crawler alle gängigen Wörter ausschließen und nur
Inhaltswörter analysieren.
Verwendung von Portnummern und WWW vs. Nicht-WWW in URLs
Haben Sie eine inkonsistente Verwendung von with-www vs. non-www, z. B.
http://example.com und
http://www.example.com ?
Haben Sie eine inkonsistente Verwendung von Portnummern, z. B.
http://www.example.com:80 und
http://www.example.com ?
Mit unserer
technischen SEO-Software können Sie
Root-Pfad-Aliase wie die beschriebenen konfigurieren. Allerdings kann selbst dies ein Problem darstellen, da alle im Website-Scan gefundenen internen URLs entweder in
„mit www“ oder
„nicht www“ konvertiert werden, was von den Pfaden abweichen kann, die Suchmaschinen wie Google bereits kennen und indiziert haben.
Hinweis: Normalerweise müssen Sie Einstellungen wie
Root-Pfad-Aliase nicht ändern. Stattdessen verarbeitet TechSEO360 URLs, die mit der Standard-HTTP-Portnummer und www/nicht-www gemischt sind, standardmäßig über die folgenden Optionen:
- Website scannen | Crawler-Optionen | Korrigieren Sie „interne“ URLs mit explizit definierter Standardportnummer
- Website scannen | Crawler-Optionen | Korrigieren Sie „interne“ URLs, bei denen „.www“ im Vergleich zum Website-Stamm falsch ist
Indexdatei- und Verzeichniswebsitepfade
Es ist oft eine schlechte Idee, die Verwendung ähnlicher URLs mit doppeltem Inhalt zu kombinieren. Verschiedene Suchmaschinen weisen darauf hin, dass doppelte URLs vorliegen und Ihre Website-Rankings darunter leiden können. Sie sollten solche Probleme
immer auf Ihrer Website beheben.
Einige Beispielprobleme und die Optionen unseres technischen SEO-Tools, um diese automatisch zu lösen:
1)
Wenn Sie
example/ mit
example/index.html mischen, verwenden Sie die Option:
Website scannen | Crawler-Optionen | Betrachten Sie nicht umgeleitete Indexdateinamen-URLs als „Duplikate“. URLs, die oben passen, erhalten den Antwortcode
-9: RedirectIndexFileDirRoot.

2)
Wenn Sie
dir/example/ mit
dir/example mischen, verwenden Sie die Option:
Website scannen | Crawler-Optionen | Betrachten Sie nicht umgeleitete URLs mit und ohne Schrägstrich als „Duplikate“. URLs, die oben passen, erhalten den Antwortcode
-14: rcRedirectNoSlashDirRoot.
HTML-Meta-Aktualisierungsweiterleitungen
Obwohl Seiten-
Meta-Refresh-Weiterleitungen von Suchmaschinen im Allgemeinen missbilligt werden, werden sie dennoch manchmal verwendet. Beispiel für einen Meta-Refresh-Redirect-HTML-Code:
<meta http-equiv="refresh" content="0;URL=http://www.example.com/new-url.html"> Die Crawler-Engine in unserer technischen SEO-Software erkennt Meta-Refresh-Weiterleitungen, wenn:
- Die Wartezeit für die Umleitung der Metaaktualisierung ist auf 0 festgelegt.
- Die Meta-Refresh-Umleitung führt zu einer anderen Seite.
URLs, die oben passen, erhalten den Antwortcode
-11: MetaRefreshRedirect.
Gemischte Groß-/Kleinschreibung in Website-URLs
Wenn Sie die Groß- und Kleinschreibung in URLs und Links mischen:
- Unix- Server wie Apache reagieren häufig mit festen internen Links auf einen einzelnen Fall in URLs, z. B. auf URLs mit Kleinbuchstaben.
- Möglicherweise möchten Sie Weiterleitungen für Anfragen einrichten, bei denen die Groß-/Kleinschreibung falsch ist, z. B. von alten externen Backlinks zu Ihrer Website.
Sie können die Option „ Website-Scan |“ deaktivieren Crawler-Optionen | Beachten Sie bei internen Pfaden in TechSEO360 die Groß-/Kleinschreibung

TechSEO360 |
Hilfe |
vorherige |
nächste SEO-Website-Crawler-Tool, das defekte Links findet, den Saftfluss interner Links analysiert, doppelte Titel anzeigt, eine benutzerdefinierte Code-/Textsuche durchführt und vieles mehr.
Diese Hilfeseite wird von
Thomas Schulz betreut
Als einer der Hauptentwickler haben seine Hände den größten Teil des Codes in der Software von Microsys berührt. Wenn Sie Fragen per E-Mail senden, ist die Wahrscheinlichkeit groß, dass er derjenige ist, der antwortet.