Logfilanalyse: Spor GoogleBot for at finde skjulte SEO -muligheder.

Det virkelige problem i livet: "SEO er næsten død ... men hvorfor elsker Google ikke?"
For webmasteren eller det avancerede SEO -team, har du nogensinde følt dig sådan? Du dedikerede tid og budget til at gøre SEO, begge on-s-side, off-side, komplet indhold. Men i sidste ende ... rankingen var stadig rolig. Eller værre end det er det nye indhold, der netop er blevet frigivet, bliver ikke ramt af indeks, som om han råber i et rum, som ingen hørte. Du begynder at stille spørgsmål, "Googlebot kommer til vores hjemmeside? Og hvis det kommer ind ... hvor gik det til? Hvorfor kan det ikke finde en vigtig side, som vi agter at gøre?" Følelsen af arbejde hårdt, men ikke klart se resultaterne. Det er både frustrerende og det mest opmuntrende.
Spørg om illustrationer: Webmaster -billeder, der sidder foran computerskærmen fyldt med grafer og SEO -data, men ansigtet ser forvirret og træt ud.
Hvorfor skete problemet: "gennemsøgningsbudget", der er usynligt
Dette problem er ikke forårsaget af dig ikke god eller ej. Prøve. Men på grund af det faktum, at vi ikke kan se "opførsel" af GoogleBot, ved vi alle, at Google har noget, der kaldes "Crawl Budget" eller kvoten for at indsamle data på hvert websted. Hvilket er begrænset på hver dag. Problemet er, at det store websted har titusinder og hundreder af tusinder. Der er ofte "sorte huller", der ryger gennemsøgningsbudgettet.
- Interne søgeresultater
- Foran den modsatte navigation, der skaber millioner af URL
- Duplikatindhold
- Gamle ansigter, der ikke har nogen, men har ikke omdirigeret
Når GoogleBot tilbringer det meste af tiden med disse sider, er der næsten ingen kvote for at indsamle vigtige oplysninger. At vi netop opdaterede eller skabte igen, hvilket gjorde al vores SEO -strategi som "Rowing in the Basin", fordi Google aldrig har set disse forbedringer.
Spørg om illustrationer: Enkle infografiske billeder. Googlebot løber ind i det "sorte hul" med tegnet "ubrugelige sider" i stedet for at løbe til "vigtigt indhold".
Hvis det er tilbage, hvordan vil det påvirke: en stille katastrofe.
At lade gennemgå budgettet lækage på ubestemt tid, ikke som at lade vandet lække ud af hulletanken. Konsekvenserne var mere alvorlige end forventet. Og det vil bide din SEO langsomt:
- Indekseringsforsinkelse: Den nye side eller den opdaterede side holdes i Google -databasen meget langsommere. Forårsager ulemper for den konkurrence, der bevæger sig hurtigere
- Rangering faldt: Når Google ikke så opdateringen, vil det se, at dit websted er "gammelt" og ikke frisk. Pålideligheden i Googles øjne reduceres direkte til placeringerne.
- Mistede forretningsmuligheder: Nye produktsider, kampagner eller vigtige artikler vises ikke på søgeresultaterne, der betyder at miste trafik og salg, der skal modtages.
- Serveren fungerer unødigt: at blive knust af hundreder af tusinder af ansvar. Side hver dag er det et enormt spild af serverressourcer. Hvilket kan føre til problemer med langsom download -websted og sideproblemer i det lange løb.
Spørg om illustrationer: SEO ranggraf, der gradvist faldt med et langsomt watter -ikon. Og de penge, der fløj mangler for at formidle muligheden
Er der nogen løsning? Og hvor skal det starte: "Logfilanalyse" er svaret.
Den eneste måde at stoppe denne katastrofe på er "tænde lyset" for at se, hvad GoogleBot laver på vores hjemmeside. Det mest kraftfulde værktøj til at gøre dette er "logfilanalyse" eller analysen af serverens optagelsesfil.
Logfil er en registrering af alle aktiviteter, der opstår på serveren. Inklusive indgangen til "bruger-agent" kaldet "GoogleBot". Denne filanalyse giver os mulighed for at se al sandheden:
- Hvor ofte kommer GoogleBot til vores hjemmeside? (Gennemsøgningsfrekvens)
- Hvilken type tid tager det mest? (Crawl Budget Allocation)
- Finder det en fejlside (404) eller serverproblemet (5xx)?
- Er der en vigtig pligt, som GoogleBot aldrig har indgået? (Opdagelsesproblemer)
- Hvilken side er "poppula" -opgaverne i Googlebots øjne?
Start af logfilanalyse er ikke så vanskelig, som du tror. Det første trin er at anmode om en logfil fra din hosting -tjenesteudbyder. Brug derefter et specielt analyseværktøj som Screaming Frog: SEO Log File Analyzer, som er populær blandt Pro. Eller studere yderligere retningslinjer fra pålidelige kilder såsom MOZ: logfilanalyse for at forstå principperne dybt.
Spørgsmål om illustrationer: Forstørrelsesglassene ser på den lange tekstlogfil, og GoogleBot -ikonet ser ud til at se "spor" tydeligt.
Eksempler fra den rigtige ting, der plejede at være succesrige: Gendan e-handelswebstedet med information fra logfil.
For at se mere tydeligt tænke på tilfældet med et stort e-handelswebsted med hundreder af tusinder af produkter. De stødte på et problem, at den nye samling overhovedet ikke rangeres på Google, på trods af at de har gjort alle SEO'er i henhold til teksterne. Holdet besluttede at lave logfilanalyse, og hvad der blev fundet var meget chokerende.
Problemer opdaget: 70% af gennemsøgningsbudgettet bruges med gennemgangen af produktfilteret (såsom /kjoler? Farve = blå & størrelse = m & ris = 1000-2000), hvilket skaber næsten uendelig URL. Og disse sider er allerede oprettet som 'noIndex', som om Googlebot mistede en masse fordele
Metode: Holdet har redigeret filen `robots.txt` for at bestille" disalow "fra at lade GoogleBot forstyrre den URL, der har alle parametre og forbedre strukturen i arkitekturen (informationsarkitektur) på webstedet.
Resultater: Bare 1 måned efter viser logfilen, at GoogleBot begyndte at fokusere på hovedsider og sider med nye produkter. Mere markant som et resultat begyndte den nye samling af samlingen at vises på den første side af Google og organisk salg steg med 40% i det næste kvartal. Dette er kraften i at tage beslutninger ved hjælp af "data", ikke "følelse".
Spørgsmål om illustrationer: Før og efter grafisk billede viser gennemgangen til gennemgangen af gennemgangen før redigering (70% er affald), og efter ændringsforslaget (80% er vigtige sider) med en pil, der peger på den højere salgsgraf.
Hvis du vil følge, hvad skal jeg gøre? (Kan bruges med det samme): Handlingsplan, GoogleBot -spor
Klar til at være SEO -detektiv? Dette er et skridt, som du kan følge med det samme.
- Anmod om en logfil fra værten: Kontakt din hosting -tjenesteudbyder for at anmode om adgangslogfiler eller serverlogfiler, angiv den tid, du ønsker. (Anbefales mindst 7-30 dage)
- Vælg og installer værktøjer: Download og installer det skrigende Frog SEO Log File Analyzer -program eller andre værktøjer, som du er god til.
- Import og indstilling: Åbn programmet og importer logfilen. Systemet kan bekræfte GoogleBots brugeragent for at filtrere dataene nøjagtigt.
- I -dybdegående dataanalyse:
- URL'er: Se hvilken URL er den mest hyppigt gennemsøgning? Er det en vigtig pligt?
- Svarkoder: Er der en 404 eller 5xx -side, som GoogleBot fandt meget? Skynd dig og fix nu!
- Kataloger: Hvilken mappe (såsom /blog /, /produkter /), som GoogleBot giver betydning? Er det i overensstemmelse med dine forretningsmæssige mål?
- Orphan URL'er: På udkig efter URL, der vises i logfilen, men vises ikke på det normale websted (via skrigende frø eller websted: søgning) eller ikke i sitemap. Disse sider er "epidermis", der har links i. Men du har måske glemt
- Opret handlingsplan: Fra alle data, der skal planlægges at redigere, såsom brugen af `robots.txt` til at blokere ansigtet, ikke vigtigt, hvilket gør 301 omdirigering til side 404 eller det interne link til at navigere GoogleBot til din pligt. Hvilket er en vigtig del af strategien at rangere på Google
Spørg om illustrationer: Tjeklistebilleder med "Handlingsplan" med ikoner i hvert emne, såsom ikoner, filer, værktøjer, grafikikoner og raket -rocketikoner.
Spørgsmål, som folk har en tendens til at undre sig, og de svar, der er ryddet
Q1: Hvor ofte laver vi logfilanalyse?
A: For store websteder, der ofte ændres, skal der gøres månedligt for at følge op og finde nye problemer, men for generelle websteder er det at gøre hvert kvartal (3 måneder) nok til at få dig til at se det samlede billede og ikke falde.
Spørgsmål 2: Hvis han bruger delt hosting, lader han ikke logfilen gøre?
A: Dette er en vigtig begrænsning af nogle delt hosting. Hvis det er tilfældet, kan det være tid til at overveje at opgradere hostingen som en VPS eller dedikeret server, der giver fuld adgang til filer. Eller hvis ikke klar dataanalyse fra Google -søgningskonsollen (gennemsøgningsstatistik) er nok til at give nogle oplysninger. Men ikke så detaljeret som logfilen
Q3: Hvad er forskellen mellem logfil med Google -søgekonsollen?
A: Google Search Console (GSC) giver "resume" -oplysninger, som Google "ønsker, at vi skal se", som er meget nyttig, men logfilanalysen er den "rå", der "faktisk forekommer". Det giver et komplet og intet filter. At give os mulighed for at se det problem, som GSC muligvis ikke rapporterer, såsom gennemsøgningsadfærd fra andre bots eller hyppigheden af at få adgang til CSS/JS -filen, der påvirker webdisplayet.
Q4: Hvilken type webstedsanalyse er egnet til?
A: Ideel til store og komplekse websteder som e-handel, nyhedswebsteder eller websteder, der har meget indhold, herunder IR-webstedet, at nøjagtighed og friskhed af data er meget vigtig. Men selv et lille websted, der forstår Googlebots opførsel, er altid en fordel.
Spørg for illustrationer: Billedikon med et spørgsmålstegn, og der er en lysere lampe, der formidler løsningen
Resume for at være let at forstå + vil prøve at gøre
Logfilanalyse er at ændre din status fra "SEO -folk i henhold til tro" til "SEO Architects, skaberne af de faktiske data." Det er et tilfældigt stop. Drej derefter for at se på sandheden, der sker direkte på din server. Forstå, at GoogleBot ser og giver betydning for hvad på vores hjemmeside. Er hjertet i forbedringen af gennemgangsbudgettet at være det mest effektive og er en vigtig nøgle til at låse op for de placeringer, der er stoppet i lang tid
Lad ikke al din indsats spildes med Googlebot for ikke at se diamanterne i dine hænder. Det er tid til at tænde lommelygten i skyggen. Og kontroller retningen for GoogleBot -rejser af dig selv, prøv at anvende de teknikker og procedurer, som jeg gav i dag. Og du vil opdage, at en anden SEO -mulighed gemmer sig i de oplysninger, du aldrig har været interesseret i.
Hvis du føler, at disse processer er for komplicerede eller har brug for eksperter til at hjælpe fuldt ud rehabilitere SEO. Vores team er altid klar til at give råd for at finde den bedste løsning til dig.
Spørg om illustrationer: Et billede af en detektiv, der opdagede den skjulte skattekiste bag serverlogvæggen, og formidlede opdagelsen af skjulte muligheder.
Seneste blog

Superior Technology JavaScript? Lær webasemble (WASM) at kende, der hjælper webapplikationen, der kræver en høj ydeevne (f.eks. Spil, designprogrammer), der fungerer så hurtigt som den oprindelige app.

Reducer misforståelser og spar tid! Lær hvordan du skriver en god hjemmeside -brief for at kommunikere målet, kunderne og hvad du vil have, at agenturet skal forstå det samme fra starten.

Gamle artikler, der plejede at være stille? Lær hvordan du registrerer og rehabiliterer indholdsfald med dataopdateringer, forbedrer nøgleordet og øger det interne link til at vende tilbage til rang.