Microsys
  

Importer og crawl en liste over sider

Forklarer den nemmeste måde at konfigurere søgeordsforskningsprogrammet til at gennemgå og analysere en liste over specifikke sider fra et websted.

Bemærk: Vi har en video tutorial:



Selvom videodemonstrationen bruger TechSEO360, er noget af det også anvendeligt for brugere af A1 Keyword Research.



Importer sidens webadresser til søgeordsforskning

Før du gør noget andet, skal du først importere listen over sider, du ønsker. Du kan gøre det fra menuen Filer.

I de nyeste versioner er menupunktet, der bruges til import, titlen Importer URL'er og data fra fil ved hjælp af "smart"-tilstand...

import liste over sider

Vælg en fil, der indeholder listen over URL'er, du ønsker at importere. Det kan være i en række forskellige formater, herunder .CSV, .SQL og .TXT.

Softwaren vil automatisk (prøve at) bestemme, hvilke URL'er der går ind på de interne og eksterne faner.

Det vil gøre det ved at genkende, om størstedelen af de importerede URL'er er:
  • Fra samme domæne og placer dem i den interne kategorifane. (Resten vil blive ignoreret.)
  • Fra flere domæner, og placer dem på fanen ekstern kategori. (Resten vil blive ignoreret.)

Bemærk: Hvis du allerede har indlæst eksisterende webstedsdata, tilføjer A1 Keyword Research de importerede URL'er, hvis roddomænet er det samme.

Bemærk: For at tvinge alle importerede URL'er til den eksterne kategorifane kan du bruge Fil | Importer URL'er og data fra fil til "ekstern" liste...


Gennemgå importerede interne webadresser

Gennemgang af importerede webadresser, der tilhører et enkelt websted, er ligetil.

Før du starter scanningen efter import, skal du vælge en af gencrawl- indstillingerne:
  • Scan hjemmeside | Gencrawl (fuld) - dette vil gennemgå nye URL'er fundet under scanning.
  • Scan hjemmeside | Gencrawl (kun på listen) - dette vil undgå at inkludere nye webadresser til analyse- eller scanningsresultater.

Du kan nu klikke på knappen Start scanning.


Begræns gennemgang af interne webadresser

Bemærk: Denne sektion er kun nødvendig, hvis du vil begrænse gennemgangen af interne webadresser yderligere.

Du kan springe dette trin over, hvis enten:
  • Ovenstående afsnit Crawl importerede interne URL'er er tilstrækkeligt til dine behov.
  • Du er kun interesseret i eksterne URL'er.

En nem måde at begrænse gennemgangen af interne URL'er på er at bruge knappen vist på billedet nedenfor.

Dette vil føje alle valgte websteds-URL'er til en grænse, der skal inkluderes i listen i både analysefiltre og outputfiltre.

import liste over sider

Bemærk: Hvis du vil begrænse, hvilke webadresser der skal inkluderes i gencrawl, er det ofte nemmere at skifte venstre visning til listetilstand.

Bemærk: Hvis du vil have markeret webadresser, der ikke er på den importerede liste, skal du sikre dig, at webcrawleren har tilladelse til at analysere og inkludere dem i resultaterne.

Bemærk: Husk at holde følgende indstillinger markeret, hvis du bruger outputfiltre:
  • Ældre versioner: Scan hjemmeside | Crawler muligheder | Anvend "webmaster"- og "output"-filtre, efter at webstedsscanningen stopper
  • Nyere versioner: Scan hjemmeside | Udgangsfiltre | Når webstedsscanningen stopper: Fjern ekskluderede webadresser

På den måde vil kun de webadresser, du er interesseret i, blive vist, efter at webstedsgennemgangen er afsluttet.

Bemærk: Hvis du glemmer at bruge en af gencrawl- tilstandene, og du bruger begrænse crawl til filtre, kan scanningen muligvis ikke starte, hvis du ekskluderede alle de webadresser, der blev brugt til at starte webstedscrawlet fra.


Gennemgå importerede eksterne webadresser

  • Hvis du vil have eksterne URL'er kontrolleret :
    • Fjern markeringen i Scan-webstedet | Crawlermotor | Standard til GET for sideanmodninger mulighed.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Mulighed for Gem fundne eksterne URL'er.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Bekræft eksterne URL'er (og analyser, hvis det er relevant).

  • I tilfælde af at du ønsker at få analyseret eksterne URL'er :
    • Sæt kryds ved Scan-webstedet | Crawlermotor | Standard til GET for sideanmodninger mulighed.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Mulighed for Gem fundne eksterne URL'er.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Bekræft eksterne URL'er (og analyser, hvis det er relevant).

  • Som det kan ses ovenfor, er den største forskel muligheden Standard til GET for sideanmodninger i Scan hjemmeside | Crawler motor.
    • GET- anmodninger fungerer med alle servere, men er langsommere, da de downloader alt sideindhold.
    • HEAD- anmodninger bliver nogle gange blokeret, men er normalt meget hurtigere, da de kun downloader HTTP-headere.


Start gennemgangen og se resultaterne

  • Tryk på start scanningsknappen.

    import liste over sider

  • Vent på, at scanningen er færdig.

  • Se resultater.

    Bemærk: Det er normalt nemmere at se resultaterne, når du skifter venstre visning til listetilstand.

  • Hvis du vil eksportere resultaterne, kan du se hjælpesiden om eksport af data til CSV-filer.
A1 Keyword Research
A1 Keyword Research | hjælp | forrige | Næste
Komplet PPC- og SEO-nøgleordsværktøjssæt. Positionstjek inklusive historie, analyser konkurrence, analyser søgeordstæthed og indhold, organiser og kombiner søgeordslister og meget mere.
Denne hjælpeside vedligeholdes af
Som en af de ledende udviklere har hans hænder rørt det meste af koden i softwaren fra Microsys. Hvis du e-mailer spørgsmål, er chancerne for, at han vil være den, der svarer.
Del denne side med dine venner   LinkedIn   Twitter   Facebook   Pinterest   YouTube  
 © Copyright 1997-2024 Microsys

 Brug af denne side inkluderer accept af vores juridisk, privatliv og cookie information.

Se vores prisrobot indenfor emner: Maling | Stiger | Stilladser | Vinduespudsning | Robotstøvsuger | Støvsuger | Maskiner | Køkken | Kaffe | Bad | Mobil | Bærbar | Printer