Gencrawl og genoptag crawl i Sitemap Generator
Nogle webservere er træge eller nægter adgang til ukendte crawlere som A1 Sitemap Generator. For at sikre, at alt bliver gennemgået, kan du bruge "genoptag"-funktionalitet i sitemapgeneratorværktøjet.
Der kan være mange grunde til at genoptage en hjemmesidescanning, efter at den er stoppet. En af dem er webservere, der typisk kan
overbelaste og reagere med fejlkoder til URL'er
- 503 : Tjenesten midlertidigt utilgængelig
- 500: Intern serverfejl
- -4 : CommError
En nem måde at afgøre, om der er fejl på hele webstedet, er at se
biblioteksoversigten for rodmappen/domænet.
Brug derefter
CV- funktionaliteten i
A1 Sitemap Generator til at crawle disse URL'er igen. Fortsæt med at gøre det, indtil der ikke er nogen fejl tilbage.
Mens webstedsscanningen kører, kan du til enhver tid:
- Sæt scanningen på pause, og stop den.
- Gem dit projekt og opret sitemaps.
- Genoptag og fortsæt din hjemmesidescanning.
Sådan bruger du funktionaliteten til scanning og crawl af websteder:
- At standse en scanning er det samme som at stoppe en scanning. Hvis scanningen er stoppet/pause eller internet afbrydes, kan du genoptage.
- For at genoptage en scanning skal du markere indstillingen Genoptag. (I gamle versioner var dette en trykknap .) Klik derefter på knappen Start scanning.
- Du kan gemme projektet. Dette giver dig mulighed for at indlæse projektet på et senere tidspunkt. Så kan du genoptage projektet.
Du kan gennemtvinge gencrawl af visse webadresser ved at ændre deres tilstandsflag i
webstedsanalyse, før du genoptager webstedsscanningen.
Afhængigt af programmet og versionen er standardadfærden, efter at en hjemmesidescanning er afsluttet af en eller anden grund, f.eks. at være sat på pause, at alle URL'er, der er udelukket af
webmasterfiltre, såsom
robots.txt- fil og
outputfiltre, fjernes.
Ovenstående adfærd er ikke altid ønsket, da det betyder, at webstedscrawleren vil bruge tid
på at genfinde URL'er, den har testet før. At løse:
- Ældre versioner:
- Fjern markeringen i Scan websted | Crawler muligheder | Anvend "webmaster"- og "output"-filtre, efter at webstedsscanningen stopper
- Nyere versioner:
- Fjern markeringen i Scan websted | Udgangsfiltre | Når webstedsscanningen stopper: Fjern ekskluderede webadresser
- Fjern markeringen i Scan websted | Webmaster filtre | Efter at webstedsscanningen stopper: Fjern URL'er med noindex/disallow
- Og så:
- Tjek Opret sitemap | Dokumentindstillinger | Fjern webadresser, der er ekskluderet af "webmaster"- og "output"-filtre.
Når filtrerede/ekskluderede URL'er ikke fjernes i webstedsscanningsresultaterne, kan du se deres
Crawler- og URL-statusflag :
Den måde hjemmesidens crawl fungerer internt på, har vi:
- Fundne URL'er: Dette er URL'er, der er blevet løst og testet.
- URL'er til analyseret indhold: Indholdet af disse URL'er (sider) er blevet analyseret.
- Analyserede referencer URL'er: Links fundet i indholdet af disse URL'er (sider) er blevet løst.
Det betyder, at alle sider, hvor alle links ikke er blevet løst, skal analyseres igen, når scanningen genoptages. For at undgå dette problem kan webstedscrawleren bruge
HEAD- anmodninger til hurtigt at løse links til verificerede URL'er. Selvom dette forårsager nogle ekstra anmodninger under gennemgang til serveren (omend alle
lys ), vil det minimere spild til næsten nul, når du bruger genoptag-funktionalitet.
For at konfigurere dette
skal du deaktivere :
Scan websted > Crawlermotor > Standard til GET for sideanmodninger Hvis du ikke ønsker at crawle hele webstedet igen, men
Resume er ikke relevant, fordi alle webadresser er blevet analyseret, kan du gøre følgende:
- I venstre side, hvor alle webadresser er angivet, skal du vælge dem, du vil have crawlet igen.
- I Crawler State Flags fjern markeringen af alle Analysis xxx flag undtagen Analysis required.
- Klik på knappen Gem i området Flag i Crawlertilstand.
- I Scan hjemmesiden tjek Resume (fuldt).
- Start scanningen.
Hvis du har problemer med at få alle webadresser inkluderet i webstedscrawl, er det vigtigt først at følge ovenstående anbefaling. Årsagen er, at URL'er med fejlsvarkoder ikke crawles for links. Ved at løse det problem vil du som regel også ende med flere URL'er.
Du kan finde flere forslag og tips i vores artikel
om hjælp til webcrawl.