Ikke nu igen…

Med 2013 som overskrift på kalenderen er jeg gået ind i mit 14. år som SEO mand. Det er faktisk lidt vildt at tænke på, at da jeg trådte mine barnesko i faget, gik et par amerikanske nørder ud med en eller anden nørdet søgemaskine, som de kaldte Google. De gjorde det jo meget godt, og i dag er stort set alt arbejde i mit fag (i Danmark) koncentreret om netop Larry og Sergei’s søgemaskine.

De 14 år har selvfølgelig givet mig en liste med mere eller mindre klassiske fejl, som webmastere og webbureauer begår, og jeg vurderer, at en lille gennemgang af nogle af dem kan være af interesse for de fleste læsere her på stedet. At kende dem kan jo hjælpe dig til at styre uden om dem, ikke?

Rækkefølgen er uprioriteret:

Flytning / nedlæggelse uden redirect

På trods af, at det i dag burde være lige så selvfølgeligt at 301 redirecte, når der skiftes domæne, flyttes på URL struktur eller nedlægges sider, som det er for en mekaniker at hælde bremsevæske på bilen, ser vi faktisk lige så mange tilfælde, hvor det ikke gøres, som vi ser tilfælde, hvor det gøres.

Lad os derfor lige minde hinanden om, at hvis du flytter domæne, flytter URL struktur eller nedlægger sider, der har PageRank og/eller indgående links, skal du ALTID redirecte. Og du skal ALTID bruge 301 som redirect metode. Desværre er der et stort antal webbureauer, der ikke har forstået forskellen på 301 og 302 redirect, og de gør ofte stor skade på deres kunders placeringer, når de benytter et 302 redirect ved en permanent flytning af en URL.

Redirecter du ikke med 301 eller slet ikke, mister du de placeringer, du har – og du mister enhver værdi af de indgående links, du har til den/de pågældende URLs.

Generiske sidetitler

Jeg ser jævnligt nye sites (og det har jeg set på i 14 år), hvor samtlige URLs er forsynet med en generisk sidetitel, så alle sidetitler slutter med et eller andet a la “- køb det billigt her i dag” eller lignende. Og så sker det det i den slags sager, at de fleste (eller alle) sidetitler ender med at indeholde et eller to unikke ord – og så den generiske til sidst. Webbureauer, der laver den slags makværk, forsømmer naturligvis at uddanne deres kunder i det med sidetitler (hvis de da overhovedet ved, hvor vigtige de er), og så ender sidetitlerne med at være produktnavn eller noget hentet fra overskriften. Resultatet er, at det/de unikke ord i sidetitlen udgør den mindste del af den samlede sidetitel, og det synes Google ikke er nogen god ide.

Du SKAL have unikke, sigende og sælgende sidetitler på alle dine URLs. Hvis du absolut skal have dit firmanavn med, så sæt det ind til sidst i sidetitlen. Men vil du lyde mit råd: Medmindre du er et ualmindeligt stærkt brand, skal du slet ikke have dit firmanavn i sidetitlerne – det er alt for værdifulde ca. 70 anslag at spilde på den slags.

Søgeresultater er indekserbare

En rigtig klassisk fejl – og en af dem, jeg bare slet ikke kan forstå. Jeg mener: Det står jo meget, meget tydeligt i Googles retningslinjer – som enhver i branchen bør kende til bevidstløshed – at brugergenerede URLs som søgeresultater er det, skal sikres mod indeksering ved hjælp af robots.txt. Det er mig en gåde, at 99 ud af 100 så alligevel ikke er det.

Personligt kan jeg bedre lide, når jeg kan få programmørerne til at indsætte en “noindex/follow” i head på den slags sider. For sagen er jo, at en disallow i robots.txt ikke forhindrer, at URLs optages i Googles indeks – den forhindrer kun, at indholdet indekseres. Et meta robots tag med noindex/follow sikrer til gengæld mod, at URL overhovedet optages i indeks og at evt. links på den pågældende URL følges af googlebot.

Google Guidelines
Klik og læs Googles retningslinjer

 

Image folder blokeres via robots.txt

Den ser jeg også tit. Og når jeg så spørger programmøren om, hvorfor han har blokeret min kundes billeder for at blive indekseret i Googles yderst vigtige billedsøgemaskine, får jeg sådan et “Øh jamen…jeg ville… jeg ved ikke lige” svar.

Lidt afhængigt af branche kan billeder være en endda overmåde interessant trafikkilde, og det er direkte dumt at afskære sig fra den mulighed. Og med en blokering af image folder i robots.txt får du altså heller aldrig dine billeder med i Universal Search.

Medmindre der er en eller anden spooky årsag til at blokere søgemaskinernes adgang til dine billeder: Sørg for, at Google og andre søgemaskiner kan sutte lystigt løs i dine billeder. Der er trafik i skidtet!

Der benyttes nofollow på interne links

Der var engang, hvor det muligvis var muligt at styre det såkaldte PageRank Flow på et site via brugen af nofollow på interne links, men det ligger mindst en 5-6 år tilbage, at Google satte en prop i det hul.

Jeg har for ikke så længe siden lavet en video om det, så den tillader jeg mig at linke til her: https://www.concept-i.dk/blog/pas-pa-med-nofollow-links.html

 

Få et opkald fra Thomas Rosenstand - Så er du på vej til den ultimative SEO løsning!

Invalid Email
Invalid Number

26 kommentarer til “Ikke nu igen…”

  1. Super godt skrevet Thomas.

    Et eksempel kunne være PrestaShop, som er en af de største open-source løsninger indenfor e-shops. PrestaShop “hardcoder” stadig butikkens navn som standard på alle sidetitler (skal aktivt fjernes i koden), og brugeren mister derved vigtige tegn i sin sidetitel.

  2. Fine råd, som mange ville have godt af at læse. Det er dog tankevækkende at det stadig i 2013 er nødvendigt at minde webbureauer om den slags.

  3. Fin artikel – men hvor er det træls, du føler der er behov for at skrive den… tænker jeg. Det burde det ikke være.

    Men så er det godt vi har dig!!

  4. Seo er noget de fleste webbureauer burde have kendskab til efterhånden? Så nu må de altså snart komme ind i kampen.

    Men jeg kan godt forstå at nogle webmasterne er forvirrede. De har mange ting at holde styr på efterhånden, og derfor bør de måske også overveje om de virkelig kan klare det hele selv.

    Hvis jeg ikke løbende implementerede de gode råd om seo, som jeg får fra dig og mit øvrige online netværk, så havde jeg nok selv begået fejl som disse. Tak for det Thomas!

  5. Jeg er så absolut ikke ekspert i SEO, det lader jeg skam andre om, men jeg må da sige at jeg er godt klar over alle ovenstående eksempler.

    Ofte holder jeg titler noget kortere end de max 64 tegn som jeg bruger som title guidelinje.

    Min mening er også at hvis vi udviklere IKKE laver værktøjet så vores kunder selv kan lave SEO eller få sådan nogen som dig til det – ved at lave såvel title, description, keywords, canonical URL osv osv osv. – så lader vi i princippet vores kunder i stikken.

    Personligt har jeg åbenbart endnu mere erfaring i brancen end dig Thomas Rosenstand, men selvfølgelig ikke i SEO i samme level 🙂

    Skidt for sig og snot for sig, så jeg programmerer – og så kan Thomas tweake 😛

    NB Thomas, jeg skal bruge din hjælp til lige at komme forbi Danske Spil på ordet “lotto” 😛

  6. Kim Tetzlaff

    Det er faktisk sjovt at det stadig er sådan, men jeg tror at det ligesom i gamle dage er en kombi af uvidenhed fra webfirmaet, og det at de tænker, siger kunden ikke noget om det, skal de heller ikke have det, det er jo penge ud af lommen.

    Men ja, ved ikke lige hvad det er webbureuerne tænker… Lad os lave en hjemmeside der ser godt ud, men ikke tiltrækker besøgende fra google. Tit er det stadig sådan at de tænker jamen kunden skal ikke findes på google, for vi satser på xxx får fat i kunderne.

    Har så har set reklamebureauer der tilbyder online markedsføring via fx adwords, og ikke engang kende til de basale målingsmetoder for konvertering.

    Men jeg tror desværre at det altid vil være sådan, men det giver jo så bare mere arbejde til os andre tekniske hoveder 😉

    Mvh kim

  7. Jesper Christensen

    Det indlæg viser blot, at der stadig findes nogle personer derude der ikke har valgt den hurtige idiotsikre WordPress løsning.

  8. Jesper Christiansen, Nu er WP jo ikke fuldt ud søgemaskinevenlig, og temaudviklere spiller en stor rolle i hvordan hjemmesiden tager sig ud i forhold til Google. Så den er nu ikke helt så idiot sikker.

    Rigtig nok er WP det bedste open source system, når vi snakker søgemaskinevenlighed, men der skal stadig nogle ting til for at den kommer hele vejen.

    MVH Kim

  9. Jesper Christensen

    Kim: “Nu er WP jo ikke fuldt ud søgemaskinevenlig”, Det er den da? Den er 100% som Google kan lide det. Enhver idiot kan oprette en wordpress site på 2 minutter og vide at han har et site der er optimeret.
    Derefter opretter han et par andre blogs og et par links og kalder sig pludselig søgemaskine-ekspert og har aldrig set skyggen af en html kode.
    Jeg mener bare…. Det er fedt der stadig er nogle “håndværkere” derude – fejl eller ej.

  10. Jesper Christensen:
    Nej det er den nu ikke, var den det, ville man (SEO eksperter og andet SEO godtfolk) ikke installerer et utal af plugins til at optimere div. områder. Problemet er som sagt også at man ikke bare kan vælge hvilket som helst tema, da temaet også spiller en rolle for hvor søgemaskinevenlig ens WP er.

    Så nej WP er ikke 100% søgemaskinevenlig. Den er godt på vej, men det er ikke det samme som 100% WP er ikke idiotsikker, det kræver stadig kendskab til div. SEO områder for at man kan vælge den rette vej at gå, de rette plugins, de rigtige temaer mm. for det enkelte site.

    Men ja enhver kan installerer WP, men enhver kan ikke sådan uden videre, lave en søgemaskinevenlig wordpress.

    MVH Kim

  11. Jesper Christensen

    Når du bestiller WordPress hos f.eks. i123.dk er All-In-One-SEO allerede præinstalleret og aktiveret 🙂

  12. Jo jo, men så er der jo også installeret noget ekstra for at WP bliver mere søgemaskinevenlig. Hvilket bekræfter det jeg hele tiden har sagt.

    Hos mig får man dog noget mere end et enkelt plugin for at oppe søgemaskinevenligheden, men det er jo ligegyldigt, for det bekræfter igen at WP, ikke er så idiotsikker som du antyder. Man skal enten vide hvilke plugins man behøver for at gøre WP mere søgemaskinevenlig, eller også skal man have den fornødne SEO viden for at man kan se hvilke ting der bør blive rettet i sin WP installation.

    Men man skal i den grad også have kendskab til kode mm, for at man kan rette de tekniske fejl der typisk er i temaer.

    MVH Kim

  13. Rigtig god liste, og jeg ville nok kunne tilføje en 5-6 punkter til den også (*host* indeksering af udv.domæne *host*).

    Med hensyn til den første, redirect fra den gamle side, så er det (desværre) ikke altid skylden kan skydes på bureauet. Jeg deler kontor med et traditionelt webbureau, og hver gang de giver tilbud på at redesigne en eksisterende side, så udspecificerer de i et separat punkt hvad det koster, at sørge for at gamle URL’er redirectes. Det plejer ikke at være mere end et par tusinde, men de gør ret meget for at udspecificere hvad man får for pengene.

    9/10 gange fravælger kunden dette, for lige at spare de par tusinde. Dumt, vil de af os der ved lidt om SEO sige. Men bureauet gidder ikke bruge kræfter på at overbevise kunden om, hvorfor det er vigtigt, da der er 1.001 andre ting, som kunden også lige skal tage stilling til. Og hvis kunden aktivt fravælger redirects, så er de selv ude om det.

  14. Ja ok, Søren. Men som ansvarligt webbureau synes jeg da, at de trods alt burde gøre hvad de kunne for at fortælle kunden hvor vigtigt det er med redirects. Også selvom der er 1001 andre ting kunden skal tage stilling til.
    Kunden kan jo ikke forventes at vide konsekvenserne af det. Det burde man jo ihvertfald sørge for, at kunden er klar over.

  15. @ Jesper Christensen: WP er altså ikke “lige i skabet” ud af boksen – der er adskillige tweaks, der skal laves inkl. div. plug-ins. I øvrigt er All-In-One-SEO ikke det bedste SEO plug-in i dag. Det er klart Yoast SEO plug-in, der giver langt mere præcis styring.

  16. Troede egentligt listen over fejl ville blive meget længere, men jeg gætter at grunden til den korte liste er at du ville være flink ved webbureauerne i dag – plus at du allerede har skrevet om en del af de problemer der kan skabes.

    Jeg har lige stødt på et andet SEO-problem som en webshop-ejer havde. Dem, der har lavet sitet har ingen respekt for SEO-folk og lever i en osteklokke, hvor de tror at hvis ikke Google har rådgivet om at det er bedst, så er det ikke værd at respektere.

    Det er noget naivt at tro at Google er specielt interesseret i at vejlede om præcist hvordan DERES egen søgemaskine kan manipuleres med. Fremfor at tro på at der findes dygtige SEO-eksperter som Thomas Rosenstand, der har SEO-kundernes kasket på.

    @Jesper Christensen skrev
    “hurtige idiotsikre WordPress løsning”
    For det første er det ikke nødvendigvis hurtigt at sætte en god WordPress-løsning. Ikke når indhold, kommunikation, struktur etc skal sættes gennemtænkt op. Og jeg ser jo så en del WordPress-hjemmesider, hvor folk (webbureau eller ej) forsøger at SEO-optimere på sitet. Dem jeg ser til, er så hvor folk har gættet sig frem til hvordan SEO virker, og her har jeg set mange “kreative tricks”, hvor det havde været lettere at jævne det med jorden og starte forfra.

    De problemer jeg ser allermest er duplicate content og søgeordskannibalisering. Især sidste havde sandsynligvis ikke fundet sted i så høj grad, hvis folk i det mindste så havde undladt at gætte sig til hvordan SEO virker. Duplicate content ved WordPress er udbredt på hjemmeinstallerede blogs, som både viser hele indlægget i oversigten – typisk forsiden, samt i artiklen.

    Webbureauer, derimod har en mani med at lave forsider, som består af en sammensætning af sider/artikler, så forsiden helt automatisk skaber duplicate content. Og installerer de så også lige et dårligt sprogplugin, har de lige skabt DC i mængder der er svære at forestille sig før man ser det. Jeg har set nogle af sådanne WordPress sites, som trods super links fra TV2.dk etc stadigvæk lå og bundede i Google. Sådanne ryger dog gerne op i Google som skudt ud af en kanon når de DC-problemer webbureauet har “installeret” på WordPress-sitet bliver fjernet – og der også lige bliver lavet lidt arbejde med at SEO-optimere på sitet.

    Så nej, WordPress er absolut ikke SEO-sikkert. Og WordPress SEO er et supergodt plugin, men den kan ikke løse alle de SEO-problemer der er. Udover at standardindstillingerne heller ikke er gode nok som de er.

    Og en anden sjov ting jeg har set med SEO, er at folk der vil gætte sig til SEO, stirrer sig blinde på et enkelt søgeord, så andre relevante søgeord de vil ranke på overhovedet ikke findes på sitet. Det har jeg set tilfælde af hvor en ville op på en masse ord, som slet ikke var der. Der var ellers mange gode artikler på sitet.

    Det er nok en begynderfejl jeg især har været skyldig i fra starten, da interessen for SEO for alvor tog fart, så den forstår jeg alt for godt.

    Det jeg synes er kritisk, er når webbureauer skriver på deres sites at de er verdensmestre i SEO (ser jeg tit), og så har de både lavet kundens hovedmenu til at linke til indekserbart udviklingsdomæne, samt sat kopier af sitet op på diverse domæner.

  17. Nem og enkel liste Thomas.

    Jeg vil lige tilføje at det med indeksering af billeder, er noget som jeg er stødt på længe.. Jeg kan huske at kunderne før i tiden ikke ville have indekseret alle deres grafik filerne, da de mente at det var deres, når de nu havde betalt for dem 🙂

    Men derudover skal det så siges at populære systemer som fx Joomla! CMS stadig per standard har Disallow: /images/ i robots.txt når det installeres.

    Som @Søren Sprogø fortæller, så har jeg også erfaring med at kunder fravælger 301 redirects, trods intens forklaring af dets vigtighed. Vi har så valgt at gøre det som en standard service, da vi ved hvordan kunden reagerer når skaden er sket.

  18. Enkelt men fin artikel.
    Må som @Gita Street gå ud fra at der er flere ting du undlader for ikke at være for hård ved webbureauerne. Uden at kæmme alle over en kam vel at mærket.;) Oplever stadigvæk mange har deres side på udviklingsdomæner, som ikke er spærret for, selv efter at kundens hjemmeside nu er online. Flere måneder efter er den stadigvæk der og fuldt tilgængelig for både Google og os normale mennesker.
    Samtidig mange der køber et eller andet billigt theme fra themeforrest eller andet som indeholder en masse “usynlige links” til både den ene og anden slags sites. Ja listen kunne have været meget meget længere.

  19. Hej Thomas
    Nu er det godt nok et lidt gammelt indlæg, men skriver lige en kommentar alligevel.
    Hvilket gratis 301-redirect plugin til WordPress vil du anbefale som det bedste? Jeg tænker umiddelbart, at det er vigtigt, at det løbende holdes opdateret fra udviklerens side? Og at det påvirker hjemmesidens loadtid så lidt som muligt.

    Mvh.
    Anders

Skriv en kommentar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *