Logfilanalyse for Internettet. Virksomhed: Søg efter SEO på Google -søgekonsollen.

Det virkelige problem i livet
Har du nogensinde følt dig sådan? Dit SEO -team arbejder hårdt. Rediger alle punkter, hvor Google Search Console (GSC) anbefaler at være alt grøn, men ... SEO -rangeringen af den vigtige side "er helt stille", ikke at bevæge sig overalt eller værre er nyt indhold, der netop er blevet frigivet, det tager lang tid, at Google vil indsamle data (indeks), selvom det at trykke på "anmodning om indeksering".
Du sidder måske i templerne og tænker "Hvad går vi glip af?" "Hvorfor kæmper virksomhedens store websted på et lille websted? Af konkurrenterne i nogle nøgleord?" Svaret på denne frustration er muligvis ikke i den rapport, vi ser hver dag. Men skjult i de rå datafiler, som du måske aldrig har åbnet. Det er serverens "logfil".
Spørg om illustrationer: Billedet af en marketingmedarbejder eller SEO -teamet sidder alvorligt møde. Computerskærmen viser SEO -grafen, der er helt rolig og har et Google -søgekonsolikon på skærmen for at formidle bestræbelserne på at løse problemet med værktøjerne. Men har ikke fundet løsningen endnu
Hvorfor skete dette problem?
Dette problem opstår, fordi Google -søgekonsollen er den "konklusion", som Google rapporterer til os, men ikke alle "reelle opførsler", der opstår. For store organisationswebsteder med titusinder af websider har Google en begrænset ressource til at indsamle data. Også kendt som "gennemsøgningsbudget"
Forestil dig GoogleBot som leveringspersonale, der har en begrænset tid og olie hver dag. Hvis dit websted er som en stor by med en lille gyde, lidt SOI (såsom URL, der er forårsaget af et underligt filter, parameter, duplikatafgift). I stedet for faktisk at levere varer til kundens hus (vigtig side) er dette problem nøglen til at forstå styringen af gennemsøgningsbudget, hvilket er, hvad GSC ikke fortæller os direkte.
Spørgsmål om illustrationer: Infografiske billeder sammenligner gennemsøgningsbudgettet som "olietank" i GoogleBot -bilen, med flere rør lækker ud af tanken til ikonet, der formidlede "ikke vigtige opgaver", såsom filtre, fejlsider eller duplikatopgaver, der resulterer i olien, der når "vigtige sider" (vigtige sider)
Hvis det er tilbage, hvordan vil det påvirke?
At lade GoogleBot gå tabt og bruge gennemsøgningsbudget, der påvirker forretningen mere end bare "rankingen stiger ikke". Den virkelige konkrete påvirkning er:
- Vigtige sider reduceres til vigtigheden: Ny produktside, hovedtjenestesiden eller virksomhedens artikel kan muligvis besøges. Fordi det tager tid med affaldet, der får disse sider til ikke at være friske i Google's øjne
- Tab af forretningsmuligheder: Når destinationssiden eller en ny promoveringsside, indeks er langsomt, betyder det, at du mister muligheden for at sælge og konkurrere hver dag.
- Brug af et budget til indhold er ikke det værd: dit team kan bruge til at skabe indhold af høj kvalitet, men hvis GoogleBot sjældent mødes eller ej. Dette indhold skaber næsten ikke SEO -resultater overhovedet.
- Enorme risici, når du flytter på nettet: Hvis du aldrig har kontrolleret logfilen og flyttet internettet. Det skjulte problem kan blive alvorligt, og trafikken er vanskelig at komme sig. At have en tjekliste til flytning af internettet er meget vigtigt, men logfilanalysen vil gøre tjeklisten mere perfekt.
Spørg om illustrationer: Billede, der viser en kalenderside med en ny marketingkampagne, men der er en edderkop på websiden sammen med trafikgrafen, som er et velforberedt mediecenter, der er blevet øde på grund af usynlige tekniske problemer.
Er der nogen løsning? Og hvor skal det starte?
Den mest direkte løsning er at stoppe "gæt". Googlebots opførsel og drejer for at se på "sandheden" fra rå data, det vil sige "logfilanalyse".
Logfilanalyse er processen med at bruge en serverlog til analyse for at se, hvilken søgemaskine bot (især GoogleBot), der skal gøres på vores hjemmeside. Det fortæller os at være detaljeret til det andet niveau af hvilken side. Hvor ofte findes der en fejl, og hvilken del af webstedet er især?
Hvad du får fra logfilanalyse:
- Oplev Googlebots funktion ofte, men der er ingen værdi. SEO: For eksempel er pligten forårsaget af facetteret navigation (filtrering), der skaber millioner af URL. Skal administreres i robots.txt
- På udkig efter vigtige opgaver, men Googlebot er sjældent: at finde grunden til, at BOT ikke nås, måske fordi det interne link er for lille, eller webstrukturen er for kompliceret.
- Kontroller de sande statuskoder: Søg side 404 (ikke fundet) eller 301 (omdirigering), der er forkert. GSC rapporterer muligvis ikke komplet.
- Bekræft tekniske løsninger: Efter at have løst noget, kan vi se fra logfilen, om GoogleBot er opmærksom på denne ændring endnu.
Du kan begynde at bruge værktøjer som Screaming Frog Log File Analyzer eller Lumar (tidligere DeepCrawl) designet til denne begivenhed. Og er også et vigtigt grundlag for dybere SEO'er som Edge SEO .
Spørgsmål om illustrationer: Detektivstilen bruger en forlængelsesglas til at logge fil, der er en lang bogstavkode. Og i forstørrelsesglasset ser det ud som et let -forstående ikon, såsom GoogleBot -ikoner, 404 sider ikoner, ikoner, frekvenser. At formidle, at værktøjerne hjælper med at give komplekse oplysninger til at forstå
Eksempler fra den rigtige ting, der plejede at få succes
Et stort e-handelsfirma Der er mere end 50.000 SKUS-produkter. De støder på problemer, som nye samlinger, der investerer stærkt, slet ikke rangeres. Trafik fra organisk søgning i år, selvom teamet har justeret i henhold til alle GSC.
At gøre: Holdet besluttede at logge filanalyse for første gang, og hvad der blev fundet var meget chokerende. De opdagede, at 70% af gennemsøgningsbudgettet blev brugt med gennemsøgning. Pligten skyldes brugerne af "filtre" -produkter (såsom farver, størrelser, priser), der skaber utallige URL. Derudover er det nøgleordskanibaliseringsproblem , der er skjult mellem kategorien og disse filtre
Resultat: Efter at teamet har blokeret URL fra disse filtre i filen Robots.txt og administreret den nye interne linkstruktur kun 3 måneder senere. Resultatet var:
- GoogleBot er tilbage til gennemgang af hovedproduktsiden og kategorisiden oftere. 300%
- Den nye samling begynder at rangere på side 1-2 inden for et par uger.
- Den samlede organiske trafik på webstedet steg med 25% i et kvartal.
Dette er visionens magt for, hvad konkurrenter er usynlige. Hvilket er den eneste måde at komme fra Google -søgekonsollen
Spørgsmål om illustrationer: Ryd før & efter graf er Venstre (før) et gennemsøgningsbudgetbillede med 70%, rød og 30%. Højre (efter), 80% af andelen er grøn, og 20% er rød (spildt) sammen med de salgslinjer, der er samlet.
Hvis du vil følge, hvad skal jeg gøre? (Kan bruges med det samme)
Du kan starte logfilanalyse af dig selv, følg følgende trin:
- Anmod om en logfil fra IT -teamet eller hosting -tjenesteudbyderen: Fortæl dit team, at du vil have "serveradgangslogfiler" på webstedet, angiv den ønskede periode. (Anbefaler at gå tilbage mindst 30 dage). Filerne er normalt. Log eller .gz
- Forbered logfilanalysator: For begyndere Screaming Frog Log File Analyzer en meget god mulighed. Fordi det er let at bruge og har en gratis version at prøve
- Importer logfil til programmet: Følg procedurerne for programmet for at importere logfilen og skal gennemgå dit websted med normal skrigende frø for at sammenligne alle URL -data.
- Begynd at analysere skatten:
- Se fanen "URLS": På udkig efter URL i GoogleBot ofte (stort antal gennemsøgninger), men det er URL, som du ikke ønsker at blive rangeret.
- Se på fanen "Svarkoder": Kontroller, om der er en 404 -side (kan ikke finde) eller 5xx (servernedbrud), som GoogleBot fandt meget eller ej.
- Sammenlignet med data fra GSC: Medbring GoogleBot -informationen ofte sammenlignet med pligten. Indtryk/klik i GSC, hvilken side der ofte er i, men aldrig får en trafik, det kan være et tegn på problemet.
Denne dataanalyse hjælper dig med at se det samlede billede og kan planlægge webstrukturen direkte. Hvis du ønsker at forbedre virksomhedens webstedsstruktur skal være klar til at håndtere disse udfordringer med data fra logfilen er det stærkeste fundament.
Spørg for illustrationer: Trin-for-trin 4 Trin 1) 1) Log 2) Ikon. Screaming Fog 3) Icon Arrow Import 4) Dashboard-ikon med graf og dybdegående information vises. Vis, at processen ikke er så kompliceret som forventet
Spørgsmål, som folk har en tendens til at undre sig, og de svar, der er ryddet
Spørgsmål: Hvordan er oplysningerne i logfilen i modsætning til i Google -søgekonsollen (gennemsøgningsstatistik)?
Svar: GSC Crawl Stats er de oplysninger, som Google "resume og prøveudtagning" kommer for at se, men logfil er de "100%rå data", der faktisk skete på din server. Det er meget mere detaljeret og mere komplet. Forårsager det problem, som GSC kan overse
Spørgsmål: Hvor ofte laver vi logfilanalyse?
Svar: For store organisationswebsteder anbefales det at gøre mindst en gang i et kvartal, men hvis der er en stor ændring i webstrukturen, skal flytning af nettet eller trafikbeløbet falder uden at vide, at grunden skal gøres med det samme.
Spørgsmål: Ser vi også andre bots ud over GoogleBot?
Svar: Se alle! Du vil se både Bingbot, Ahrefsbot, Semrushbot og anden bot, som giver dig mulighed for at forstå, at nogen har samlet dit websted. Men for SEO -målet fokuserer vi hovedsageligt på GoogleBot.
Spørgsmål: Er det en logfilanalyse? Er det en programmør?
Svar: Ikke nødvendigt. Skrigende Foga- eller Lumar -værktøjer, der giver folk mulighed for at gøre SEO'er uden basen i koden at analysere. Men du skal have en grundlæggende forståelse af teknisk SEO for at fortolke information og fortsætte med at bruge.
Spørg for illustrationer: Billedikoner, mennesker med et spørgsmålstegn, der flyder over hovedet, og der er en pil, der peger på et andet ikon, der er en lys lampe, formidler skiftende tvivl til en klar forståelse
Resume for at være let at forstå + vil prøve at gøre
SEO til store websteder er som at passe komplekse maskiner. Afhængighed af kun Google -søgekonsollen kan få os til at overse problemerne med lille gear, som nogle arbejder forkert.
Logfilanalyse skal åbne motorlåget for at se det faktiske arbejde en efter en. Det er en ændring fra "gæt" til "reel viden", hvordan Google kan se og interagere med dit websted. Investering er effektiv til at forstå disse oplysninger. Er at skabe en bæredygtig konkurrencefordel, der hjælper alle penge, der investerer med indhold og SEO, er den mest værdifulde.
Lad ikke dit websted ikke fungere fuldt ud. Lad os starte samtalen med dit IT -team fra i dag for at anmode om adgangslogfiler og åbne den nye verden af SEO, der er dybtgående og kan måles.
Hvis du er klar til at opgradere din organisations websted til næste niveau, uanset om du forbedrer webstedet (webstedsrenovering) eller opret en ny organisationswebsted. Som har en stærk struktur klar til SEO i det lange løb. Vision X Brain Team er klar til at give råd.
Seneste blog

Eat er ikke kun SEO! I -dybtgående hvordan man bygger og viser tegn på erfaring, ekspertise, autoritet og pålidelighed på IR -webstedet for at vinde investorer.

Skift det kedelige websted til et digitalt showroom! UX/UI -designteknikker og brug interaktivt indhold til at præsentere et interessant industrielt produkt og stimulere kontakt.

Intet budget til at bekæmpe et stort websted? Brug strategien for "Barnacle SEO" til at skabe en stærk identitet på en stærk platform for at tiltrække kvalitetstrafik og opbygge troværdighed for dit SMV -brand.