Microsys
  

Download liste over sider med webstedskopisoftware

Viser den nemmeste måde at konfigurere vores hjemmesidekopiværktøj til at downloade en liste over specifikke sider fra en hjemmeside.

Bemærk: Vi har en video tutorial:



Selvom videodemonstrationen bruger TechSEO360, er noget af det også relevant for brugere af A1 Website Download.



Importer liste over sider og andre fil-URL'er, du vil downloade

Før du gør noget andet, skal du først importere listen over sider, du ønsker. Du kan gøre det fra menuen Filer.

I de nyeste versioner er menupunktet, der bruges til import, titlen Importer URL'er og data fra fil ved hjælp af "smart"-tilstand...

importere liste over sider

Vælg en fil, der indeholder listen over URL'er, du ønsker at importere. Det kan være i en række forskellige formater, herunder .CSV, .SQL og .TXT.

Softwaren vil automatisk (prøve at) bestemme, hvilke URL'er der går ind på de interne og eksterne faner.

Det vil gøre det ved at genkende, om størstedelen af de importerede URL'er er:
  • Fra samme domæne og placer dem i den interne kategorifane. (Resten vil blive ignoreret.)
  • Fra flere domæner, og placer dem på fanen ekstern kategori. (Resten vil blive ignoreret.)

Bemærk: Hvis du allerede har indlæst eksisterende webstedsdata, tilføjer A1 Website Download de importerede URL'er, hvis roddomænet er det samme.

Bemærk: For at tvinge alle importerede URL'er til den eksterne kategorifane kan du bruge Fil | Importer URL'er og data fra fil til "ekstern" liste...


Gennemgå importerede interne webadresser

Gennemgang af importerede webadresser, der tilhører et enkelt websted, er ligetil.

Før du starter scanningen efter import, skal du vælge en af gencrawl- indstillingerne:
  • Scan hjemmeside | Gencrawl (fuld) - dette vil gennemgå nye URL'er fundet under scanning.
  • Scan hjemmeside | Gencrawl (kun på listen) - dette vil undgå at inkludere nye webadresser til analyse- eller scanningsresultater.

Du kan nu klikke på knappen Start scanning.


Begræns gennemgang af interne webadresser

En nem måde at begrænse gennemgangen af interne URL'er på er at bruge knappen vist på billedet nedenfor.

Dette vil føje alle valgte websteds-URL'er til en grænse, der skal inkluderes i listen i både analysefiltre og outputfiltre.

importere liste over sider

Bemærk: Hvis du vil begrænse, hvilke webadresser der skal inkluderes i gencrawl, er det ofte nemmere at skifte venstre visning til listetilstand.

Bemærk: Hvis du vil have markeret webadresser, som ikke er på den importerede liste, skal du sikre dig, at webcrawleren har tilladelse til at analysere og inkludere dem i resultaterne.

Bemærk: Husk at holde følgende indstillinger markeret, hvis du bruger outputfiltre:
  • Ældre versioner: Scan hjemmeside | Crawler muligheder | Anvend "webmaster"- og "output"-filtre, efter at webstedsscanningen stopper
  • Nyere versioner: Scan hjemmeside | Udgangsfiltre | Når webstedsscanningen stopper: Fjern ekskluderede webadresser

På den måde vil kun de webadresser, du er interesseret i, blive vist, efter at webstedsgennemgangen er afsluttet.

Bemærk: Hvis du glemmer at bruge en af gencrawl- tilstandene, og du bruger begrænse crawl til filtre, kan scanningen muligvis ikke starte, hvis du ekskluderede alle de webadresser, der blev brugt til at starte webstedscrawlet fra.


Gennemgå importerede eksterne webadresser

  • Hvis du vil have eksterne URL'er kontrolleret :
    • Fjern markeringen i Scan-webstedet | Crawlermotor | Standard til GET for sideanmodninger mulighed.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Mulighed for Gem fundne eksterne URL'er.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Bekræft eksterne URL'er (og analyser, hvis det er relevant).

  • I tilfælde af at du ønsker at få analyseret eksterne URL'er :
    • Sæt kryds ved Scan-webstedet | Crawlermotor | Standard til GET for sideanmodninger mulighed.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Mulighed for Gem fundne eksterne URL'er.
    • Sæt kryds ved Scan-webstedet | Dataindsamling | Bekræft eksterne URL'er (og analyser, hvis det er relevant).

  • Som det kan ses ovenfor, er den største forskel muligheden Standard til GET for sideanmodninger i Scan hjemmeside | Crawler motor.
    • GET- anmodninger fungerer med alle servere, men er langsommere, da de downloader alt sideindhold.
    • HEAD- anmodninger bliver nogle gange blokeret, men er normalt meget hurtigere, da de kun downloader HTTP-headere.


Start gennemgangen og se resultaterne

  • Tryk på start scanningsknappen.

    import liste over sider

  • Vent på, at scanningen er færdig.

  • Se resultater.

    Bemærk: Det er normalt nemmere at se resultaterne, når du skifter venstre visning til listetilstand.

A1 Website Download
A1 Website Download | hjælp | forrige | Næste
Download og tag komplette websteder med dig for at browse på offline medier. Kopier og gem hele websteder til sikkerhedskopiering, arkivering og dokumentationsformål. Gå aldrig glip af et websted igen.
Denne hjælpeside vedligeholdes af
Som en af de ledende udviklere har hans hænder rørt det meste af koden i softwaren fra Microsys. Hvis du e-mailer spørgsmål, er chancerne for, at han vil være den, der svarer.
Del denne side med dine venner   LinkedIn   Twitter   Facebook   Pinterest   YouTube  
 © Copyright 1997-2024 Microsys

 Brug af denne side inkluderer accept af vores juridisk, privatliv og cookie information.

Se vores prisrobot indenfor emner: Maling | Stiger | Vinduespudsning | Robotstøvsuger | Støvsuger | Maskiner | Køkken | Bad | Computer | Printer | Mobil