Som jeg tidligere har dokumenteret her på bloggen, er det alt for få webprogrammører, der følger med i nyheder, tips og tricks om SEO fra de udenlandske kilder. Derfor vil jeg bruge lidt spalteplads på et problem, som en del hjemmesider er ramt af, og som Google netop har skrevet om i deres officielle Webmaster Central Blog. Det kunne jo være, at nogle webansvarlige rundt omkring fulgte med her…

Til evigheden og videre?

Google og de andre søgemaskiner benytter robotter, der konstant trevler nettet igennem. Og det er jo nogle travle gutter, for der er mange hjemmesider derude. Derfor er det interessant for søgemaskinerne at økonomisere med deres tid, spare båndbredde og alt det der. Det gør de på flere fronter – bl.a. ved at undlade at følge det, de kalder for “infinite space” – det uendelige rum.

Hvad er det uendelige rum på en hjemmeside?

Det kan være flere ting, men de mest klassiske er kalenderen eller oplistningen af varer, der kan sorteres efter f.eks. størrelse, pris, farve, alder etc. Forestil dig en dynamisk genereret kalender på en hjemmeside med et link, der hedder “næste måned” Det link kan klikkes i det uendelige (teoretisk), og det gør søgerobotten. Bare ikke ret længe, for den lille fyr opdager hurtigt, at han ikke får noget reelt nyt at se på. Og så stopper han. Dermed er der en reel risiko for, at han ikke gider mere og går hjem, inden han har crawlet det, du gerne vil vise ham.

Det samme med f.eks. en webshop. Forestil dig en side med 10 bluser, der kan sorteres efter farve, størrelse, mest købte, alder etc. Det kan blive til ganske mange sider, der for en søgerobot er aldeles identiske. Og det pjat gider de ikke – de går hjem!

Google fortæller os, at deres søgerobotter er smarte nok til at regne disse ud – men indrømmer samtidig, at de langt fra opdager alle tilfælde af “infinite space”. Derfor skal du som webudvikler lukke af for, at problemet kan opstå for søgerobotten. Det har du selvfølgelig allerede gjort, ikke?

Hvordan løses problemet?

Hvis du nu alligevel ikke allerede har styr på det, kommer her et par fif, der kan løse det for dig:

  • Brug robots.txt til at blokere for crawl af dynamisk genererede URL som resultat af søgninger, i kalendere etc.
  • Hvis det er muligt, skal du undgå session ID’s i URL. Brug i stedet cookies
  • Forkort dine URL mest muligt ved at fjerne unødvendige parametre
  • Brug nofollow på f.eks. “sorter efter” funktioner i webshops

Læs resten af historien (på engelsk) hos Google her. Og lad mig minde dig om, at det stadig er uendeligt (!) meget bedre, at det er dig, der styrer Googles rundrejse på din hjemmeside, end at det er Google, der gør det.

Rosenstand out!

Hvad er teknisk SEO?