Med 2013 som overskrift på kalenderen er jeg gået ind i mit 14. år som SEO mand. Det er faktisk lidt vildt at tænke på, at da jeg trådte mine barnesko i faget, gik et par amerikanske nørder ud med en eller anden nørdet søgemaskine, som de kaldte Google. De gjorde det jo meget godt, og i dag er stort set alt arbejde i mit fag (i Danmark) koncentreret om netop Larry og Sergei’s søgemaskine.

De 14 år har selvfølgelig givet mig en liste med mere eller mindre klassiske fejl, som webmastere og webbureauer begår, og jeg vurderer, at en lille gennemgang af nogle af dem kan være af interesse for de fleste læsere her på stedet. At kende dem kan jo hjælpe dig til at styre uden om dem, ikke?

Rækkefølgen er uprioriteret:

Flytning / nedlæggelse uden redirect

På trods af, at det i dag burde være lige så selvfølgeligt at 301 redirecte, når der skiftes domæne, flyttes på URL struktur eller nedlægges sider, som det er for en mekaniker at hælde bremsevæske på bilen, ser vi faktisk lige så mange tilfælde, hvor det ikke gøres, som vi ser tilfælde, hvor det gøres.

Lad os derfor lige minde hinanden om, at hvis du flytter domæne, flytter URL struktur eller nedlægger sider, der har PageRank og/eller indgående links, skal du ALTID redirecte. Og du skal ALTID bruge 301 som redirect metode. Desværre er der et stort antal webbureauer, der ikke har forstået forskellen på 301 og 302 redirect, og de gør ofte stor skade på deres kunders placeringer, når de benytter et 302 redirect ved en permanent flytning af en URL.

Redirecter du ikke med 301 eller slet ikke, mister du de placeringer, du har – og du mister enhver værdi af de indgående links, du har til den/de pågældende URLs.

Generiske sidetitler

Jeg ser jævnligt nye sites (og det har jeg set på i 14 år), hvor samtlige URLs er forsynet med en generisk sidetitel, så alle sidetitler slutter med et eller andet a la “- køb det billigt her i dag” eller lignende. Og så sker det det i den slags sager, at de fleste (eller alle) sidetitler ender med at indeholde et eller to unikke ord – og så den generiske til sidst. Webbureauer, der laver den slags makværk, forsømmer naturligvis at uddanne deres kunder i det med sidetitler (hvis de da overhovedet ved, hvor vigtige de er), og så ender sidetitlerne med at være produktnavn eller noget hentet fra overskriften. Resultatet er, at det/de unikke ord i sidetitlen udgør den mindste del af den samlede sidetitel, og det synes Google ikke er nogen god ide.

Du SKAL have unikke, sigende og sælgende sidetitler på alle dine URLs. Hvis du absolut skal have dit firmanavn med, så sæt det ind til sidst i sidetitlen. Men vil du lyde mit råd: Medmindre du er et ualmindeligt stærkt brand, skal du slet ikke have dit firmanavn i sidetitlerne – det er alt for værdifulde ca. 70 anslag at spilde på den slags.

Søgeresultater er indekserbare

En rigtig klassisk fejl – og en af dem, jeg bare slet ikke kan forstå. Jeg mener: Det står jo meget, meget tydeligt i Googles retningslinjer – som enhver i branchen bør kende til bevidstløshed – at brugergenerede URLs som søgeresultater er det, skal sikres mod indeksering ved hjælp af robots.txt. Det er mig en gåde, at 99 ud af 100 så alligevel ikke er det.

Personligt kan jeg bedre lide, når jeg kan få programmørerne til at indsætte en “noindex/follow” i head på den slags sider. For sagen er jo, at en disallow i robots.txt ikke forhindrer, at URLs optages i Googles indeks – den forhindrer kun, at indholdet indekseres. Et meta robots tag med noindex/follow sikrer til gengæld mod, at URL overhovedet optages i indeks og at evt. links på den pågældende URL følges af googlebot.

Google Guidelines

Klik og læs Googles retningslinjer

 

Image folder blokeres via robots.txt

Den ser jeg også tit. Og når jeg så spørger programmøren om, hvorfor han har blokeret min kundes billeder for at blive indekseret i Googles yderst vigtige billedsøgemaskine, får jeg sådan et “Øh jamen…jeg ville… jeg ved ikke lige” svar.

Lidt afhængigt af branche kan billeder være en endda overmåde interessant trafikkilde, og det er direkte dumt at afskære sig fra den mulighed. Og med en blokering af image folder i robots.txt får du altså heller aldrig dine billeder med i Universal Search.

Medmindre der er en eller anden spooky årsag til at blokere søgemaskinernes adgang til dine billeder: Sørg for, at Google og andre søgemaskiner kan sutte lystigt løs i dine billeder. Der er trafik i skidtet!

Der benyttes nofollow på interne links

Der var engang, hvor det muligvis var muligt at styre det såkaldte PageRank Flow på et site via brugen af nofollow på interne links, men det ligger mindst en 5-6 år tilbage, at Google satte en prop i det hul.

Jeg har for ikke så længe siden lavet en video om det, så den tillader jeg mig at linke til her: https://www.concept-i.dk/blog/pas-pa-med-nofollow-links.html