Panda Update… Du har sikkert hørt om den allerede? Den blev kaldt Farmer Update i begyndelsen, men det officielle navn, som Google har givet den, er altså Panda. Og det er jo deres system, så det kalder jeg den også. Vi er jo vant til at forbinde pandaer med sådan nogle hygge-nygge-pusse bamser selvom virkeligheden er, at de er nogle slemt aggressive bæster. Og jeg er ret sikker på, at den kære Panda Update fra Google minder en del om bamsebjørnen.

Hvad er Panda Update?

Panda Update er en opdatering af Googles algoritme, der har til formål at bortsortere sider med lav kvalitet fra deres indeks. Men hvem kan afgøre, hvad der er lav kvalitet? Det er jo ofte en subjektiv betragtning i den virkelige verden. Hos Google ser det ud til, at det afgøres via en vurdering af siders bounce rate – med overvejende sandsynlighed hentet via Analytics og Googles Toolbar.

Hvorfor hedder den Panda Update?

Biswanath Panda – det er navnet på en fyr i Google. Og han publicerede i 2009 en undersøgelse, som han har lavet sammen med andre i Google af, hvordan Google kunne bestemme kvaliteten af en given side baseret på denne sides bounce rate.

Har du lyst, kan du læse hele rapporten her (PDF)

Oprindelig blev undersøgelsen og forsøgene kørt i forhold til AdWords, men den nævner også, at disse resultater kan overføres til organiske resultater.

Kvaliteten for de enkelte sider påvirker hele sitet

I dag har Google så også meldt ud, at et site kan blive deranket generelt, hvis der er mange sider på det, der bedømmes som af lav kvalitet. Læs lige den sætning igen!

Det betyder sandsynligvis, at selvom du måtte have en hjemmeside / shop med masser af kvalitativt indhold og sider med lav bounce rate og høj konvertering, kan du stadig blive ramt af den fæle panda, hvis du samtidig har en stor del sider, som Google vælger at bedømme som ”lav kvalitet”.

Og hvad så? Jeg har skrevet en artikel med lidt konkrete her-og-nu tiltag på E-University i dag. Men jeg kan ikke slippe tanken om, at  der kan være endnu en faktor i det her:

Duplicate Content igen – igen

Hvis et site har duplicate content (og det har alt, alt for mange), vil der være et stort antal af det sites sider i supplerende indeks. Og der er de, fordi Google har vurderet, at de er helt eller tæt på kopier af andre URLs på sitet – og som følge deraf er af lav kvalitet.

Disse sider er alle kendte af Google (i sagens natur), men da de er i supplerende indeks, får de ikke så mange gæster – og det er jo én af de parametre, der måles på i forhold til Panda Update.

Vi ser hele tiden sites, der er så befængte med duplicate content, at det er halvdelen (eller mere) af alle indekserede URLs, der ligger i supplerende indeks. Hvilken betydning mon det vil have, når Panda Update rulles ud i Danmark, og der foretages en vurdering med den tilkobling på algoritmen?

Her i USA er pandaen sluppet løs, og mange sites er ramte – lige fra lidt ramte til nærmest katastrofalt ramte. I nogle tilfælde sidder webmasterne bag de ramte sites tilbage med det store spørgsmål: Hvorfor?

Jeg har kigget på et enkelt af de ramte sites (og jeg kan desværre ikke sige hvilket, da ejeren har bedt mig om at holde det for mig selv), og det site kunne ikke med selv den ondeste vilje kaldes af lav kvalitet. Der var heller ikke udført nogen cowboytrick, overoptimering eller andet snask.

Der var faktisk kun ét problem med det site: Masser af duplicate content!

Det er alt for usikkert at konkludere på baggrund af det ene site, men det styrker da teorien om, at duplicate content kan være en faktor i forhold til kvalitetsvurderingen i Panda Update, ikke?

Nu er det jo ingen hemmelighed, at duplicate content i årevis har været et kæmpeproblem. Jeg ved godt, at der findes nogle, der siger, at det er et ikke eksisterende problem – jeg har en ret sikker formodning om, at det primært er folk, der ikke aner, hvad de skal stille op med det, der siger sådan. Jeg plejer at spørge dem (tvivlerne): ”Hvis duplicate content ikke var et problem, hvorfor har søgemaskinerne så brugt enorme ressourcer på Canonical URL tag, diverse tiltag i deres Webmaster Tools etc. samt nøje beskrevet i deres guidelines, hvor vigtigt det er at undgå?”. Jeg får aldrig noget svar.

Men hvad tror du? Kan duplicate content på et site være en ”udløsende faktor” i relation til Panda Update? Lad os diskutere det og finde ud af, om jeg bare er paranoid.

Rosenstand out!