Dubleret indhold og dublerede URL'er i XML-sitemaps
Websites med flere URL'er, der duplikerer indhold, er dårlige for placeringer i søgemaskiner. Duplikerede URL'er og indhold bør løses, når du opretter og uploader XML-sitemaps.
Bemærk: Vi har en video tutorial:
Løs webstedssider og URL'er med duplicate content
Søgemaskiner og software som
TechSEO360 vil følge alle interne links og omdirigeringer på dit websted.
Måder at løse problemer med duplikeret indhold og side-URL'er:
- Undgå at have sider med duplikeret indhold.
- Undgå at linke til sider, der dublerer indhold.
- Omdiriger duplikerede sider til passende URL'er, f.eks. ved hjælp af mod_rewrite.
- Omdiriger www- og ikke-www- webadresser på samme side til samme destination.
- Du kan kanoniske, noindex og robots tekstfil filtrere sider med duplikeret indhold.
- Filtrer URL'er både under og efter crawl ved hjælp af analyse- og outputfiltre.
- Linkanalyseværktøjerne i vores software kan hjælpe dig med at opdage og løse webstedsproblemer.
Problemer med dublerede side-URL'er
Selvom søgemaskiner som Google ikke altid vil straffe dig for duplikeret indhold, vil de stadig skulle vælge en af de URL'er/sider, der skal vises i søgeresultaterne og ignorere alle andre dubletter. Det betyder, at alle links, der peger på den forkerte URL, potentielt vil blive ignoreret og ikke længere tælles fuldt ud, når søgemaskiner som Google og Bing beregner vigtighed.
Problemer med duplikeret indhold
Du kan tjekke for duplikeret indhold i
title tag,
h1 tag,
h2 tag meta tag beskrivelse og
meta tag søgeord på tværs af alle side-URL'er på dit websted.
Sådan tjekker du for dublerede sidetitler, beskrivelser eller overskrifter:
- Vælg det relevante filter i rullemenuen.
- Tryk på filterknappen. Alle URL'er med dublerede titler bliver nu vist og grupperet sammen.
( Bemærk: Skærmbilledet er fra A1 Website Analyzer, hvilket betyder, at flere funktioner er tilgængelige)
Du kan se resultaterne efter at have anvendt den hurtige filtrering af de data, der indsamles under webstedsgennemgangen. Duplikatindhold og lighedsanalyse
Du kan ofte visuelt se, hvilke sider der har lignende indhold ved at aktivere følgende mulighed, før du starter webstedsscanningen:
Scan hjemmeside | Dataindsamling | Udfør søgeordstæthedsanalyse af alle sider Hvis du har
sprogdetektion, der fungerer korrekt, kan du forbedre kvaliteten af dette yderligere. Indstil ganske enkelt
søgeordsværktøjer | Indhold søgeordsanalyse | Vælg stopord for enten at matche hovedsproget på dit websted eller
automatisk, hvis dit websted bruger flere sprog. Ved at gøre dette kan webcrawleren udelukke alle almindelige ord og kun analysere
indholdsord.
Brug af portnumre og WWW vs ikke-WWW i URL'er
Har du inkonsekvent brug af med-www vs. ikke-www, f.eks.
http://example.com og
http://www.example.com.
Har du inkonsekvent brug af portnumre, f.eks.
http://www.example.com:80 og
http://www.example.com.
Med vores
tekniske SEO-software kan du konfigurere
rodsti-aliasser som dem, der er beskrevet. Men selv dette kan forårsage et problem, da alle interne URL'er fundet i webstedsscanningen alle vil blive konverteret til enten
med-www eller
ikke-www, hvilket kan afvige fra de stier, som søgemaskiner som Google allerede kender til og har indekseret.
Bemærk: Normalt behøver du ikke at ændre indstillinger såsom
rodsti-aliaser. I stedet håndterer TechSEO360 som standard URL'er blandet med standard HTTP-portnummer og www/ikke-www via disse muligheder:
- Scan hjemmeside | Crawler muligheder | Ret "interne" URL'er med et eksplicit angivet standardportnummer
- Scan hjemmeside | Crawler muligheder | Ret "interne" URL'er med ".www" forkert sammenlignet med webstedsrod
Indeks fil- og bibliotekswebstedstier
Det er ofte en dårlig idé at blande brugen af lignende webadresser med duplikeret indhold. Forskellige søgemaskiner vil markere det som duplikerede URL'er, og dit websteds placeringer kan lide under det. Du bør
altid løse sådanne problemer på din hjemmeside.
Nogle eksempler på problemer og mulighederne i vores tekniske SEO-værktøj til at håndtere dem automatisk:
1)
Hvis du blander
eksempel/ med
eksempel/index.html, brug muligheden:
Scan hjemmeside | Crawler muligheder | Betragt ikke-omdirigerede indeksfilnavne-URL'er som "duplikater" URL'er, der passer til ovenstående, får svarkode
-9: RedirectIndexFileDirRoot.
2)
Hvis du blander
dir/example/ med
dir/example, brug mulighed:
Scan hjemmeside | Crawler muligheder | Betragt ikke-omdirigerede URL'er med skråstreg og ikke-skråstreg som "duplikater" URL'er, der passer til ovenstående, får svarkode
-14: rcRedirectNoSlashDirRoot.
HTML Meta Refresh Redirects
Selvom
omdirigeringer af metaopdatering af sider generelt er ilde set af søgemaskiner, bruges de stadig nogle gange. Eksempel på meta refresh redirect HTML-kode:
<meta http-equiv="refresh" content="0;URL=http://www.example.com/new-url.html"> Crawler-motoren i vores tekniske SEO-software genkender meta-opdateringsomdirigeringer, når:
- Ventetiden for omdirigering af metaopdatering er indstillet til 0.
- Meta-opdateringsomdirigeringen går til en anden side.
URL'er, der passer til ovenstående, får svarkode
-11: MetaRefreshRedirect.
Blandet sag i webstedswebadresser
Hvis du blander store og små bogstaver i URL'er og links:
- Unix- servere som Apache reagerer ofte med rette interne links til et enkelt tilfælde i URL'er, f.eks. til URL'er med små bogstaver.
- Du ønsker måske at konfigurere omdirigeringer for de anmodninger, der bruger forkert store bogstaver, f.eks. fra gamle eksterne backlinks til din hjemmeside.
Du kan deaktivere muligheden: Webstedsscanning | Crawler muligheder | Overvej interne stier, der skelner mellem store og små bogstaver i TechSEO360
TechSEO360 |
hjælp |
forrige |
Næste SEO website crawler værktøj, der kan finde brudte links, analysere internt link juice flow, vise duplikerede titler, udføre tilpasset kode/tekstsøgning og meget mere.
Denne hjælpeside vedligeholdes af
Thomas Schulz Som en af de ledende udviklere har hans hænder rørt det meste af koden i softwaren fra Microsys. Hvis du e-mailer spørgsmål, er chancerne for, at han vil være den, der svarer.