Duplicate content – det kan løses

Hvad er duplicate content?

  • Duplicate content er samme indhold på mere end én URL - altså på mere end én webadresse. Og med samme indhold mener jeg samme tekst. Billeder og anden grafik er ligegyldigt i den sammenhæng.
  • Duplicate content kan opstår grundet tekniske forhold på hjemmesider, grundet sjusk eller grundet tyveri af dine tekster.

Lad os sige, at du har en tekst på 200 ord på adressen xxxx.dk/side1 og på xxxx.dk/side14. Det kan godt være, du har forskellige billeder på de to sider, men dem kan søgemaskinerne ikke læse - så i deres verden er siderne ens.

Duplicate content - duplikeret indhold - er et emne, der kan bringe diskussionerne frem blandt alle, der arbejder med synlighed i søgemaskiner. Google selv er dog ret klare i spyttet: Duplicate content skal undgås.

Med samme indhold på flere forskellige URL afgiver du en del af kontrollen - og det er sjældent en god ide. I langt de fleste tilfælde kan problemerne løses ret enkelt, og resultaterne er ofte ret overbevisende. For nogle - inklusive en del webbureauer og CMS huse åbenbart - er hele problematikken enten ukendt eller dømt ligegyldig. Derfor kan det ikke siges tydeligt nok: Det DUR ikke!

Magter du ikke at læse disse godt 4.000 ord? Intet problem:

https://www.concept-i.dk/audio/duplicate-content.mp3

Duplicate content - eller duplikeret indhold - er et meget stort problem. Og desværre et voksende problem i takt med at hjemmesider bliver stadigt mere komplicerede. Desværre er det et problem, som kun de færreste udviklere, webbureauer og CMS huse tager alvorligt. Men du skal tage det alvorligt! Jeg bliver ofte spurgt, om man skal være bange for duplicate content, og mit svar er altid: Du skal ikke være bange - du skal være meget bange!

Indlægget er opdateret væsentligt den 2. august 2015:

Det er et stort problem for dem, og om lidt forklarer jeg hvorfor. Først skal jeg lige slå fast, at det også er duplicate content, hvis du har to hjemmesideadresser med samme indhold.

Et eksempel: Du har adresserne billige-kaffemaskiner.dk og billige-kaffemaskiner.com, og hvis begge adresser giver samme hjemmeside direkte, er du i svære problemer. Jeg kommer tilbage med løsningerne - bare rolig. Men først vil jeg fortælle, hvor meget det betyder.

For nogen tid siden fik jeg en henvendelse fra en stor organisation, der havde nogle problemer med deres hjemmeside. De havde fantastisk gode placeringer på deres engelsksprogede hjemmeside med en .com adresse, men deres danske version på en .dk adresse kørte bare slet ikke i søgemaskinerne. De havde haft flere "eksperter" på sagen, men lige lidt hjalp det.

Vi identificerede et duplicate content problem, og det tog deres webbureau en time at løse det. En uge senere rankede de nr. 1 i Google på deres primære søgeord med deres danske hjemmeside - og ugen før lå de på side 42 med samme søgning. Så meget kan et duplicate content problem betyde!

Hvis du kæmper mod "uforklarlige kræfter" i forhold til at blive synlig i søgemaskinerne, kan det sagtens være et duplicate content problem, du kæmper mod. Og er det tilfældet, skal du have det løst. At kæmpe om gode placeringer med en hjemmeside, der lider under duplicate content, svarer til at løbe en maraton med en brækket fod og 80 kilo på ryggen. Det dur altså ikke.

Hvorfor er duplicate content et problem?

Forestil dig, at du skal til Thailand for første gang i dit liv. Du vil gerne vide en masse om landet, inden du tager af sted, og derfor går du på biblioteket for at blive klogere.

Du finder en bibliotekar, og hende beder du om 10 forskellige bøger om Thailand, så du rigtig kan undersøge landet, kulturen og alt det der til bunds. Hun vender tilbage hurtigt med de ønskede 10 bøger, og de er alle forskellige i størrelse og omslag. Således belæsset med lekture drager du hjem og lægger alle bøgerne frem på dit spisebord.

Forestil dig nu, at du åbner alle 10 bøger og opdager, at trods deres forskellige ydre er alle 10 bøger helt ens. Der står simpelthen det samme i alle bøgerne side for side.

Du vil helt sikkert føle dig lidt snydt, og vi kan nok være enige om, at det ikke er en god bibliotekar, du har haft fat i der.

Google og de andre søgemaskiner er jo også bibliotekarer, der systematiserer og rangordner. Det er bare hjemmesider i stedet for bøger. Og søgemaskinerne ved godt, at du bliver sur og vælger en anden søgemaskine næste gang, hvis de præsenterer dig for 10 forskellige hjemmesider på side 1 med samme indhold. Eller bare for 3-4 forskellige sider med samme indhold.

Søgemaskinerne kan ikke leve med sure brugere, så derfor viser de ikke flere sider med samme indhold på de første 30-40 sider i søgeresultaterne. Det er jo sund fornuft.

Hvordan sorterer søgemaskiner duplicate content?

Lad os tage udgangspunkt i Googles måde at håndtere duplicate content på. Hvis Google finder, at der er f.eks. tre forskellige adresser på din hjemmeside med samme indhold, er de nødt til at undlade at vise de to af dem i deres søgemaskine. I hvert fald på de første mange sider.

Google vælger nu én af siderne og beslutter, at det er den, de vil vise. Ofte vælger de den side, der har flest indgående links - men ikke altid. Jeg prøver at signalere til dig, at der kan være et vist element af tilfældigheder i deres valg. Og som nævnt mange gange nu: Vi skal ikke lade Google bestemme, hvad vi selv kan afgøre.

Problemet i at lade Google vælge er, at hvis Google vælger en anden version end den, du får links til fra både din egen og andre hjemmesider - så er de links spildte. Og hvad nu, hvis Google vælger en adresse, som du senere nedlægger? Så får folk et "Siden kan ikke findes". Det sælger du ikke meget med.

Der er ingen vej uden om: Du skal undgå duplicate content under enhver form!

Hvordan ser du, om du er ramt af duplicate content?

Det er faktisk ikke så svært endda. Start med den ret nemme metode: Find en tekst på din hjemmeside, der er helt unik. Det er sikkert en sætning på 8-12 ord. Kopier den sætning ind i søgefeltet på Google, og sæt gåseøjne omkring den. Og prøv så søgningen - hold vejret.

Hvis der kun er ét resultat, er du på den grønne gren. Altså for så vidt angår den side på din hjemmeside, du lige har testet. Men du kan jo køre testen med tekster taget forskellige steder på din hjemmeside.

Men ser du flere resultater - og måske oven i købet nedenstående lakoniske melding, er du muligvis på den:

Duplicate Content eller tyndt indhold i Google

Når Google skriver, som de gør her, skyldes det, at der er resultater, de betragter som duplicate content - og derfor som så ringe, at de ikke vil vise dig dem, medmindre du insisterer ved at klikke en gang mere.

Hvis dit unikke tekstindhold er ramt her, har du brug for omgående aktion. Sådan helt for alvor - og det kan kun gå for langsomt!

Hvad er IKKE duplicate content?

Der er desværre også på dette område flere myter, end der er sandheder. Lad os lige aflive nogle af myterne sammen, så du kan koncentrere dig om, det der betyder noget for din hjemmesides ve og vel, ikke?

Samme tekst men oversat til forskellige sprog er IKKE et duplicate content problem. Vær dog opmærksom på, at Google kan have det lidt svært med at skelne dansk og norsk. Her er det ekstra vigtigt at huske <meta name="language" content="no" /> i headeren - eller hvad nu sproget er.

Gennemgående "footere" med lidt links i er IKKE duplicate content - men de er heller ikke noget værd som udgangspunkt. Har du masser af tekst i din "footer", der er éns på alle sider, kan det til gengæld ende med at være et problem.

Din menu med links etc. i er IKKE duplicate content.

Din kode (den der ligger bag selve hjemmesiden) er på ingen måde duplicate content.

Genbrug af samme billede på mange/alle sider på din hjemmeside er IKKE duplicate content.

Sådan - det var rart lige at få aflivet de værste af slagsen, ikke?

Skal vi ikke lige aflive en myte mere, nu vi er i gang? Mange vil gerne slå til lyd for, at duplicate content ikke er et problem for Google (typisk er det de webbureauer, der ikke kan finde ud af at lave en ordentlig hjemmeside).

Prøv at se, hvor meget krudt Google bruger på at hjælpe dig til at undgå problemet - så lad os være enige om at ryste på hovedet af dem, der ikke tager det alvorligt:

http://support.google.com/webmasters/bin/answer.py?hl=da&answer=66359

Sådan opstår duplicate content

Som al anden dårligdom kommer duplicate content i mange variationer. Jeg gennemgår her de mest typiske af dem, og senere kommer der anvisninger på at undgå dem.

Lad os tage et eksempel, som er yderst hyppigt forekommende og meget beskæmmende for de webbureauer, der står bag. Det kunne nemlig undgås helt uproblematisk. Det handler om de såkaldte udviklingsdomæner eller demoadresser.

Problemet med udviklingsdomæner

Du indgår aftale med et (fiktivt) webbureau, som vi kalder speedyweb.dk om at lave en ny hjemmeside til dig.

De går i gang, og undervejs kan du følge projektet på adressen svendbent.speedyweb.dk - og det er jo snildt. Da de er færdige med at sætte det hele op, kan du selv begynde at fylde tekst og alt det der på - stadig på adressen svendbent.speedyweb.dk, som jo gør det utroligt nemt for dig og dine kolleger at arbejde med, sende links til andre så de kan bedømme og give kritik.

Den store dag oprinder, og den nye hjemmeside aktiveres på din rigtige hjemmesideadresse, som er svendbent.dk - og så får du nogle af dine venner, fætter Ulrik fra Slagelse og hvem du nu kender til at lave et link til din fine nye hjemmeside, så Google kan finde den.

Og Google finder den. Og Google læser den igennem fra ende til anden - og opdager, at den da kender hele indholdet i forvejen fra en adresse, der hedder svendbent.speedyweb.dk. Så kigger Google lidt nøjere på sagerne og ser, at svendbent.speedyweb.dk var der før svendbent.dk.

Altså må svendbent.dk være en kopi - duplicate content - af svendbent.speedyweb.dk, og så gør Google det eneste naturlige: De smider svendbent.dk i det såkaldte supplerende indeks, og det betyder, at sider fra svendbent.dk ikke er at finde på de første 20-40 sider i Google på nogen søgning.

Nu spørger du sikkert, om der virkelig findes nogen CMS huse, webbureauer og andet godtfolk, der er så ligeglade? Desværre ja - og der er mange af dem. I skrivende stund har f.eks. et af landets største CMS huse over 155.000 sider indekseret i Google - og de ca. 129.000 af dem er kunders udviklingsdomæner. Ikke én af disse kunder har en ærlig chance i Google! Ofte er siden på udviklingsdomænet bedre placeret end den originale. Pinligt for det webbureau - og skammeligt for deres kunder!

Problemet er, at CMS husets hjemmeside som oftest er ældre og har flere indgående links end den nye hjemmeside, som deres kunde netop har investeret i. Og derfor vælger Google at betragte indholdet på udviklingsdomænet som det originale. Sørgeligt, men sandt.

Løsningen på duplicate content på udviklingsdomæner

Den bedste løsning er selvfølgelig, at der ikke opstår et problem at løse. Kræv af din webleverandør, at de fuldstændigt spærrer for søgemaskinernes adgang til udviklingsdomænet. Hvis de ikke ved, hvordan de skal gøre det - eller hvis de siger, at det er ligegyldigt, skal du skifte dem ud. Med det samme!

Hvis problemet er opstået, kan det selvfølgelig løses alligevel. Det kan ske på flere måder:

Få nedlagt udviklingsdomænet, så det slet ikke eksisterer mere. Efter noget tid vil Google have det fjernet fra deres indeks, så du kan komme til.

Få webbureauet til at lave en såkaldt 301 redirect af udviklingsdomænet til dit domæne. Vær forsigtig her - for hvis de har kludret så meget i det allerede, er det tvivlsomt, om de kan finde ud af at lave en 301 redirect.

Duplicate content grundet tyveri

Det er trist, men fakta er, at rigtig mange hjemmesider lider under konstante tyverier af tekster og billeder. I forhold til søgemaskineoptimering er det med billederne ligegyldigt, men med teksterne er det en ganske anden sag.

Lad os lige slå fast: Dansk lovgivning forbyder kopiering af tekster uden foregående aftale. Det er i strid med Lov om Ophavsret at kopiere andre hjemmesiders tekster. Til det formål findes der en genial service på nettet, som du kan købe til at overvåge dine sider. Det koster lidt penge, men du kan jo nøjes med udvalgte sider.Du fortæller ganske enkelt systemet, hvilke sider på din hjemmeside du vil have overvåget, og så klarer systemet resten. Dukker der kopier af din tekst op ude på nettet, får du en mail med udførlige oplysninger om tyveriets omfang, hvem der har stjålet dit indhold osv.

Se det hele her: http://www.copyscape.com

Problemet med sites, der kopierer dit indhold er, at du nemt kan risikere, at det er DIG, der rammes som "kopist". Hvis for eksempel jeg stjæler din tekst fra din relativt nye hjemmeside og lægger den på min gamle (fra 1998) hjemmeside her, er det overvejende sandsynligt, at jeg vil vinde over dig, selvom jeg er skurken.

Får du kopieret hele eller dele af din tekst, er det altså en yderst alvorlig sag, der omgående skal håndteres.

Duplicate content grundet flere domænenavne

En meget almindeligt forekommende fejl, der skaber duplicate content, er forkert opsætning af flere domænenavne til samme hjemmeside. Der er ikke noget forkert i, at du har flere hjemmesideadresser, men hvis det ikke er sat rigtigt op, ryger du lige lukt i duplicate content.

Lad mig bruge min egen hjemmeside som eksempel. Den kan kaldes via flere forskellige adresser. Dens hovedadresse er onestrain.crocket.dk, men vi har også www.concepti.dk , www.conceptinterest.dk og en del flere.

Læg mærke til, at uanset hvilken af adresserne, du prøver, ender du på onestrain.crocket.dk - og det er sådan, det skal være.

Hvis du har mere end én adresse, skal det være sådan, at uanset hvilken af de alternative adresser til din hjemmeside, du taster ind, skal du ende på din hovedadresse. Gør du ikke det, har du et problem - nemlig duplicate content.

Problemet opstår, enten fordi dit webhotel er uvidende, eller fordi de er ligeglade. Begge dele er slemt. Sagen er i hvert fald, at de har sat den server, din hjemmeside ligger på, til at svare på alle de domænenavne, du har. Og det betyder, at søgemaskinerne ser det samme indhold på flere adresser - du ved, hvad det betyder. Men heldigvis kan det løses.

Det nemmeste er nok bare at beskrive, hvordan jeg har lavet det. Min hovedadresse er som sagt onestrain.crocket.dk. Nu har jeg en hel del flere adresser - for nemheds skyld tager vi et kig på www.conceptinterest.dk. På den adresse er der lavet et såkaldt 301 redirect, der sender "opkald" til www.conceptinterest.dk videre til onestrain.crocket.dk. Det er faktisk den eneste rigtige måde at gøre det på!

Der findes en nem, gratis og hurtig måde at se, om det er lavet med en 301 redirect - nemlig denne adresse: http://websniffer.cc/

Her indtaster du den adresse, du vil kontrollere, og er det lavet rigtigt, får du et resultat, der ser således ud:

Duplicate Content kontrol

Læg mærke til linje nr. 2: "301 moved permanently". Hvis der står 302 i stedet, kan du være på vej i alvorlige problemer. Den slags kan du lære alt om i SEO-LEX.

Et kald til conceptinterest.dk er "301 moved permanently" til onestrain.crocket.dk - så her er alt i orden.

Det betyder så også, at skulle nogen linke til conceptinterest.dk, ryger værdien af det link videre til min hjemmeside.

Duplicate content grundet "Session ID's"

Session ID's optræder oftest i webbutikker. Den korte forklaring på dem: Når du besøger en sådan webbutik, tildeles dit besøg en unik session ID, så shoppen kan huske, hvad du har lagt i kurven og en masse andet teknisk.

Problemet med dem er, at de alt for tit kan crawles, indekseres og rankes af søgemaskinerne. Og så har vi jo duplicate content i rå mængder. Hvordan, spørger du?

Hvis Lise besøger shoppen svendbent.dk og får tildelt en session ID, så står der i adresselinjen: svendbent.dk/kaffemaskine-model12.html?osCsid=0tup669b36k76i75vfiggf4m13

Den reelle adresse til kaffemaskinen er kun svendbent.dk/kaffemaskine-model12.html - resten (?osCsid=0tup669b36k76i75vfiggf4m13) er den der session ID.

Lise bliver så begejstret for det produkt, hun ser, at hun skriver om det på sin blog og laver et link til produktet. Pænt af hende.

Hun er lidt doven, så hun kopierer bare adressen fra sin browsers adresselinje, så linket går til svendbent.dk/kaffemaskine-model12.html?osCsid=0tup669b36k76i75vfiggf4m13.

Senere følger Google linket fra Lises blog til svendbent.dk, crawler, indekserer og ranker adressen.

Men så går det galt - for Google kender allerede indholdet om lige den kaffemaskine på adressen svendbent.dk/kaffemaskine-model12.html - og så skal Google til at vælge. Kender du Murphys lov? Hvis noget kan gå galt, så går det galt.

Og her er der en yderst reel risiko for, at Google vælger at prioritere den forkerte adresse, og så har vi balladen.

Løsningen på duplicate content grundet session ID's

Også her er der flere måder. Begge kræver indgreb fra din programmør - men det burde ikke være en kæmpe opgave:

Lav systemet om, så adskillelsen mellem adressen og session ID er "#" i stedet for "?". Det er nemlig sådan, at ingen søgemaskine indekserer noget, der følger efter "#" (Hash på engelsk).

Brug det såkaldte Canonical URL tag på alle sider på hjemmesiden.

Du kan oprette statiske kopier af siderne med de dynamiske ID's sider til søgerobotterne. Hvis du gør det, skal du sørge for at medtage en robots.txt-fil, der forbyder søgerobotterne at crawle de dynamiske sider for at sikre, at disse sider ikke ender med at være duplicate content. Det er en metode, der kræver lidt ekstra af din programmør og din webserver, men den virker - godt!

Lad være med at bruge session ID - brug i stedet cookies. Det er også en opgave for din programmør. Men det er muligt. F.eks. benytter hverken DanDomain eller ScanNet webshops session ID. Så bare grib fat i din leverandør, og kræv noget, der dur uden at skabe problemer.

Duplicate content grundet sortering

Mange hjemmesider med oplistning af produkter som for eksempel webbutikker har det er rene dødsfælder i forhold til duplicate content. Hvis du f.eks. har en side med 20 varer på, der kan sorteres efter pris, navn eller varenummer, har du reelt fire forskellige adresser til et indhold, der i Googles øjne er nøjagtig det samme.

En sortering giver nemlig (næsten) altid en ny URL - altså en ny adresse. Og har du tre sorteringsmetoder, kan der også genereres tre adresser til siden. Det kan se således ud:

Sorteret efter produktnavn: butik.dk/group.asp?group=453&sort=name

Sorteret efter pris:

butik.dk/group.asp?group=453&sort=price

Sorteret efter varenummer:

butik.dk/group.asp?group=453&sort=number

Den originale adresse uden nogen sortering:

butik.dk/group.asp?group=453

Løsningen på duplicate content grundet sortering

Her er der reelt tre metoder, der dur:

Få lavet dit shopsystem, så sorteringen sker "server side" - URL'en ændrer sig ikke trods sorteringen. Dette er noget, kun din leverandør af shopsystem kan klare for dig. For eksempel DanDomain shoppen gør det sådan.

Bloker søgemaskinernes adgang til de forskellige adresser undtagen den ene, der er standard - altså den adresse, der vises, når du klikker dig frem til siden, inden du sorterer noget. Blokeringen kan foretages via robots.txt, og det er nok din programmør, der skal fikse den.

Brug det såkaldte Canonical URL tag på alle siderne. Det fortæller søgemaskinerne, hvilken af de tre (eller flere) sider, der er den, du prioriterer. Det er noget, dit system skal sættes op til, men det burde kunne gøres nemt af din programmør.

Duplicate content grundet PDF filer

Har du PDF filer på din hjemmeside? Med samme indhold som på selve hjemmesiden? Så er du i fare - og måske risikerer du, at det er dine PDF filer, der er synlige i søgemaskinerne i stedet for dine normale sider. Det har du ikke lyst til - de konverterer skidt.

Løsningen på duplicate content grundet PDF

Læg alle dine PDF filer i en mappe for sig på hjemmesiden, og spær den af via robots.txt

Brug Canonical URL tag i headeren på hver PDF. Mere om denne metode (på engelsk) her: http://moz.com/blog/how-to-advanced-relcanonical-http-headers

Kan du ingen af de to ovenstående punkter: Lad være med at have PDF med samme indhold som dine almindelige sider.

Duplicate content grundet Google Analytics

Jo - du læste skam rigtigt. Google kan være skyld i, at du rammes af duplicate content. Det er direkte åndssvagt, at det er sådan - men vi er nødt til at forholde os til virkeligheden. Så det gør vi.

Hvis du bruger Google Analytics og kampagnesporing, kan du risikere at få massive problemer med duplicate content. Og er du e-købmand, bruger du naturligvis disse værktøjer.

Med kampagnesporing bruger du jo en URL, der er genereret til at måle responsen, og den kan se således ud i et tænkt eksempel: http://www.hjemmeside.dk/tilbud/?utm_source=Amino&utm_medium=banner&utm_term=Forsiden&utm_content=pigebillede&utm_campaign=shop-i-dag

Indholdet på den side er jo det samme som på http://www.hjemmeside.dk/tilbud/, så hvis bare ét menneske lander på den lange URL og lavet et link til den adresse, har du duplicate content. Af uransagelige årsager har Google nemlig IKKE lukket for indeksering af disse.

Tror du ikke på, at det er et problem? OK - lad mig vise dig det så. I skrivende stund har Google tæt på 32 millioner URLs indekserede, der er sider med omtalte Analytics URL. Lav denne søgning og se selv.

Løsningen på utm_source problemet

Der er reelt kun én god løsning, som alle til gengæld nemt kan benytte og implementere: Brug Canonical URL Tag!

En alternativ løsning til dig, der kan pille i kode:

Indsæt denne linje lige inden </script> i din Analytics tracking kode:

pageTracker._setAllowAnchor(true);

Og erstat derefter et enkelt tegn i din sporings URL. Jeg har her lavet en opdigtet sporings URL:

https://www.concept-i.dk/seo.html?utm_source=SEOLEX&utm_medium=bog&utm_campaign=Test

Læg mærke til, at jeg har gjort "?" rødt - for det er den forbandede lille synder, der skaber duplicate content. Som du allerede har lært i dette kapitel, indekserer Google alt, hvad der står både før og efter "?". Men du har også lært, at Google ikke indekserer noget efter "#". Det husker du nok - og det er det, vi udnytter her. Du skal altså ændre "?" til "#", så sporings URL kommer til at se således ud:

https://www.concept-i.dk/seo.html#utm_source=SEOLEX&utm_medium=bog&utm_campaign=Test

Og hvorfor var det så lige, du skulle fifle lidt med den kode, du har på din hjemmeside, der forsyner Analytics med data? Det skal du for at få Analytics til at acceptere en "#" i stedet for et "?".

Men igen: Hav Canonical URL Tag implementeret på dit site - så er du beskyttet mod dette (og en masse andre problemer).

Duplicate content grundet dovenskab og tidnød

Den er god nok. En af de meget normale årsager til duplicate content problemer er faktisk dovenskab. Jeg kan også udtrykke det lidt mere diplomatisk og sige, at det skyldes tidnød eller noget andet pænt. Det kræver selvfølgelig en forklaring, og den får du her.

Du sælger igen kaffemaskiner. Braun har netop lanceret en ny serie med 8 modeller, og dem skal du selvfølgelig have på din hjemmeside/webbutik. Du får leveret lækre produktbilleder og gode produktbeskrivelser fra Braun, så det er herligt nemt at copy/paste teksterne ind i din hjemmeside. Og det gør du så.

Tiden går, men du er bare ikke synlig i Google på nogen søgninger efter de nye Braun kaffemaskiner. Du justerer på livet løs, får din fætter i Ringkøbing til at lave links til dine Braun kaffemaskiner fra sin hjemmeside - og lige lidt hjælper det.

Har du regnet ud hvorfor? Duplicate content - nemlig! Du er jo ikke den eneste webbutik, der sælger Braun kaffemaskiner. Og de andre butiksejere er lige så meget i tidnød, som du er, så de har også copy/pastet de fine tekster fra Brauns marketingafdeling ind på deres webbutikker.

Måske er I 10 webbutikker, der har gjort det - og Google har fundet nøjagtig samme tekster på alle 10. Det dur ikke, siger Google - og vælger én af butikkerne, som den så ranker på søgninger efter Braun kaffemaskiner. De 9 andre får lov at rode rundt omme på side 40 eller deromkring.

Unikke tekster giver placeringer

Der er ingen vej udenom: Du skal skrive dine egne produkttekster. Gør du ikke det, deltager du i en mere eller mindre tilfældig lodtrækning hos søgemaskinerne sammen med andre om, hvem der skal vises der, hvor det tæller.

Der er også andre fordele ved at have dine helt egne tekster. Du kan give dem det lille tvist, der gør det ekstra attraktivt at købe kaffemaskinen hos dig frem for hos din konkurrent.

Jeg har ikke lovet dig, at der ikke er masser af arbejde i det her, vel? Men glæd dig over, at det lønner sig. Og det gør det!

Noget af artiklen her som podcast

På absolut lavteknisk (jeg kan ikke andet) får du her en forklaring på duplicate content som et "Thomascast". Jeg håber, du kan bruge det til noget.

https://www.concept-i.dk/audio/duplicate-content.mp3

Rosenstand out!

P.S: Denne er værd at læse:

https://www.concept-i.dk/blog/pdf-paa-hjemmesider.html

Nej - absolut ikke! Det er, hvad der betegnes som generisk indhold / boiler plate content, og det kan Google sagtens se.

I 99,9% af alle tilfælde: Nej! Det bliver kun et problem, hvis en større  del af en sides indhold er identisk med andre siders indhold.

Reelt gør de - via den nedgradering af den kvalitative vurdering, de anlægger på hele sitet. Er der meget DC på dit site, kan du komme i svære problemer.

Hvis du har samme artikel på to hjemmesider - eller på to forskellige URLs på én hjemmeside, er det duplicate content, hvis den ene ikke er kanonaliseret til den anden.

Få et opkald fra Thomas Rosenstand - Så er du på vej til den ultimative SEO løsning!

85 kommentarer til “Duplicate content – det kan løses”

  1. Hej Thomas

    Super godt indlæg ogThomascast – nu har jeg fulgt en del med på bloggen, og også hørt dig på et par Samdata arrangementer.

    Keep up the good work!

    Glæder mig til næste cast.

    Mange hilsner

    Kasper Hamann

  2. Dem er der masser af, Jesper. Jeg vil naturligvis ikke give konkrete eksempler på hjemmesider, hvor vi har rettet på det. Det må være en sag mellem hjemmesidens ejer og os.

    Når “hammeren” falder, er det oftest i form af ret lave placeringer, der ikke “lader sig forklare” umiddelbart. Eller printvenlige sider højt placeret i Google SERP.

    Ofte er løsningen af duplicate content det lille kick, der giver det sidste. Og i rigtig mange tilfælde er det problemet, når en side bare ikke VIL ranke.

  3. Spændende indlæg.
    Men hvordan og hvorledes med for eksempel kategorier, månedssektion og den slags på en weblog? Gælder det også som en slags duplicate content eller hvordan?

    Jeg mener, hvis jeg skriver et indlæg på min weblog, der er kategoriseret i katogori A, B og C så kan jeg jo finde indlægget på min forsiden, via oversigten over kategori A, B og C… og jeg kan også finde den via oversigten over alle indlæg for den måned, hvor indlægget er lavet.

    Jeg synes at have hørt noget om, at det er skidt?

  4. @JanTM. Nej for med en blog er det jo kun eet indlæg der ligger i en database.

    /Jesper

  5. Hej Jan
    Ja – faktisk er WordPress en gris til at lave duplicate content, men heldigvis findes der et genialt plugin, der løser det problem og samtidig gør din blog markant mere søgemaskinevenlig. Det All-in-one-SEO, og det kan du snuppe her: http://wordpress.org/extend/plugins/all-in-one-seo-pack/

    Matt Cutts (chef for Google Anti-Spam) siger, at Googl ikke ser så strengt på sites, hvor duplicate content fremkommer, når det IKKE er forsøg på spam. Men igen – det skal de ikke overlades at bedømme efter min mening. Brug All-in-one-SEO og sæt flueben i, at tags og den slags ikke skal indekseres. Så er du ret sikker.

  6. @Thomas. nej det kan jeg da se, beklager. Men altså en blog henter jo indlæggene fra en database ikke sandt? Der er jo ikke som Jan skriver 10 sider af det samme indhold online. For hvad så med en avis, de kan jo have den samme artikel liggende i 20 kategorier/søgeord?

    /jesper

  7. Ah super.

    Jeg har allerede All-in-one-SEO installeret og der er også flueben i alle tre, no-index for categories, archives og tag-archives.

  8. Kim Andersen

    Tak for podcasten Thomas. Igen et godt et af slagsen 😉

    Kan også anbefale plugin’et du anbefaler, All-in-one-SEO. Det “retter op” på et par gængse problemer mht. til SEO, og er virkelig brugbart…

  9. Altså Jesper 🙂 Hvis du skal arbejde med SEO, skal du have grundprincipperne på plads – for dine kunders skyld. Det er korrekt, at indholdet ligger i en database, men det er jo ligegyldigt, hvis det samme indhold publiceres på mere end én URL.

    Google er revnende ligeglad med, om dit indhold ligger statisk eller dynamisk – den ser kun på den html/asp/php osv., den får, når den forespørger på siden. Om vandet kommer fra en spand, en slange eller en krukke: Du bliver våd.

    Og aviserne… Har du tjekket deres sites? Det er jo ikke ligefrem imponerende i relation til SEO (endnu).

  10. @Thomas. Ja det er vigtigt med de grundliggende principper:-) om de så kommer fra en spand, en slange eller en krukke:-)

    /jesper

  11. Det jeg syntes kunne være spændende at høre TR’s bud på er hvornår det går hen og bliver Dublicate… hvor mange procent af teksten skal være den samme på to sider før den stor google robot siger haps…

  12. Det vil jo altid være et gæt, men jeg har min egen tommelfingerregel, der siger maks. 20% sammenfald. Det er muligt, det tal kan være meget højere, men som udgangspunkt…

    Du er jo selv professionel SEO’er, så lad os høre dit bud på det maksimale sammenfald? Og vurderer du, at LSI har nogen direkte eller indirekte indflydelse på hele Duplicate Content problematikken?

  13. TOP Professionel SEO’er ja det ved man jo 🙂

    Altså faktisk kan jeg ikke rigtig gennemskue LSI.. sådan som jeg forstår der er det bare en anden måde for google til at forstå hvad din side handler om således at den kan indexere din side bedre og derved give et bedre resultat til brugerne.. fordi brugerne på google hele tiden skriver mere og mere specifikke søgeord(sætninger) og det er svært for google at vise et godt resultat når folke skrive alle mulige mærkelige søgeord..

    Jeg vil også sige 20% og det er så det samme som bare at skrive en ny tekst – jeg har prøvet med 80% og det kostede 75 sider af 500 ord der skulle skrives om.. så det virker ikke..efter sådan en omgang gør man det bare ALDRIG mere…

  14. Duplicate content er noget vi kan diskutere længe, for reelt set ved vi ikke præcist hvor meget eller hvor lidt der anses for DC.

    20% sammenfald som Thomas skriver er et meget godt udgangspunkt, da man så er på den sikre side. Dette er ihvertfald min erfaring. Men jeg har også set eksempler på DC på op til 80-90%, hvor “kopien” linkede til originalen, og ikke omvendt, så man derved fortæller søgemaskinerne hvor teksten oprindelig stammer fra.

    For eksempel med pressemeddelelser som ofte bliver lagt ud på flere forskellige sites, men som typisk alle linker tilbage til den originale pressemeddelelse.

  15. Spændende indlæg.
    Hvordan håndterer Google duplicate content i det tilfælde, at en anden hjemmeside har ca. 90% tekst sammenfald med en allerede eksisterende hjemmeside (fx. ved at andre stjæler tekst og andet materiale fra hjemmeside)?

  16. Som udgangspunkt vil det være originalen, der prioriteres – altså den hjemmeside, der er ældst. Men igen: Det er aldrig klogt at overlade kontrollen til andre end én selv. Derfor skal mennesker, der stjæler tekster fra andre hjemmesider, retsforfølges og betale så dyrt som muligt! Udover bruddet på Lov om Ophavsret kan tyveri af tekster i visse tilfælde betyder problemer med netop duplicate content.

    Google er revnende ligeglad med sammenfald i billeder og andet grafisk materiale. Det er KUN tekster, der er problematisk.

  17. Michael Petersen

    Hvad har det af betydning med duplicate content, hvis man har 2 ens domæner (og indhold), hvor det ene bare er uden w w w? har det nogle betydning? f.eks.

    only1run.com og www .only1run.com

    Ser google overstående domæne, som 1 eller 2 domæner?

  18. I princippet er det duplicate content, men Google vurderer det ikke som sådan, da det er en klassisk ting, at et domæne svarer med og uden “www”.

    Du kan i Webmaster Tools fortælle Google, hvilket prefix, du ønsker.

    Men… I forhold til indgående links gør det en vis forskel. Nogle linker til din adresse uden “www” – og andre gør det med. Det skulle angiveligt sprede linkjuicen. Derfor er det en god ide at redirecte det ene eller det andet med en 301 redirect – f.eks. i din .htaccess

    På den måde får du den fulde værdi af de indgående links.

  19. Hej Thomas!

    Hvornår kommer det næste Thomascast? Og hvad kommer det til at handle om?


    Kasper

  20. Hej Kasper

    Jeg ved det ikke – jeg har ekstremt travlt, så det er ikke højt prioriteret. Og emnet? Ingen anelse – hverken artikler eller thomascasts planlægges. De kommer ud fra øjeblikkelig inspiration og/eller behov.

    Der er ikke andet at gøre end at holde dig opdateret vi mit feed.

  21. Mikael Andersen

    Hej Thomas

    Jeg har et spørgsmål til din Thomascast om duplicate content, fordi der er noget, jeg ikke kan få til at hænge sammen i mit hoved.

    Hvis jeg nu eksempelvis har 3 domæner mikael1.dk, mikael2.dk og mikael3.dk, og der på hver især er tilknyttet en hjemmeside med bare én side med indholdet “Lorem ipsum dolor sit amet”, så er der tale om duplicate content; ik’ ?.

    Hvad er resultatet så, hvis jeg nu dropper hjemmesiden på både mikael2.dk og mikael3.dk og kun har én hjemmeside, som er tilknyttet domænet mikael1.dk, og derefter får det lavet således, at taster man hhv. mikael2.dk og mikael3.dk, så kommer man direkte ind på mikael1.dk. Så er der – hvis jeg har forstået det korrekt – ikke længere tale om duplicate content?

    Antaget at jeg har ret i mine egne opfattelser på mine to spørgsmål, så undrer jeg mig over, at du siger, at det med at få en webadresse til at pege på en anden skal laves rigtigt. For i mit hoved kan man vel ikke lave det forkert.
    Når fx mikael2.dk går direkte ind på mikael1.dk, vil der vel nødvendigvis stå mikael1.dk i adressefeltet i browseren – eller hva’. For hvis der ikke er tilknyttet en hjemmeside til fx mikael2.dk, og det er mikael2.dk, der står i adressefeltet, så får man vel en oplysning om, at siden ikke findes.

    Jeg håber, at jeg har formuleret mine spørgsmål forståeligt – og på forhånd tak for svaret.

    I øvrigt vil jeg – inspireret af seneste kommentar – også lige endnu en gang sige dig stor tak for denne blog. Jeg føler mig som en guldgraver, der endelig har fundet lige netop den mine, hvor der bare er guld nok til alle.

  22. Mikael Andersen

    Hej Thomas

    Tak for svarene – så blev jeg atter lidt klogere, men også endnu mere forvirret. Velsagtens fordi jeg nu kom et skrift videre. Jeg har læst dit indlæg om 302-redirect, og kan godt se, at det kan gå galt, men da jeg gerne vil vide, hvordan det så rent faktisk går galt, har jeg været lidt rundt og læse om 302-redirect.

    Den konklusion – foreløbige – som jeg er kommet frem til, er, at det så må gå galt hos den hosting-udbyder, som man bruger, hvad enten det er et cms-hus, ren host-udbyder eller lignende.

    Vil det sige, at problemet opstår, når en hosting-udbyder på min anmodning om at redirecte mikael2.dk til mikael1.dk i sit serversystem/serversetup (eller hvad det nu hedder) bruger et script, der udfører denne redirecting forkert. Altså et script der gør brug af en 302-redirect.

  23. Hej Thomas,

    Et (forhåbentlig) hurtigt spørgsmål i forhold til Duplicate Content, for jeg forstår det ikke helt:

    Hvis jeg nu har en masse blogindlæg på http://leifcarlsen.wordpress.com og opretter en “vertikal” blog med URL’en fitforleif.wordpress.com og genbruger nogle af de indlæg, som jeg har skrevet om min deltagelse i Chris På Vægten projektet, vil Google så opfatte det som Duplicate Content?

    På forhånd tak.

    Mange hilsner

    Leif

  24. Hej Leif

    Ja, det vil være duplicate content. Indholdet findes allerede i Googles indeks på din nuværende blog, og det vil derfor være et dårligt søgeresultat, hvis Google viser begge blogs indhold på en given søgning.

    Som udgangspunkt vil det være originalen, der “vinder”, og du vil derfor have svært ved at få synlighed med den nye blog. Du kan også risikere, at Googlæe anlægger den helt overordnede betragtning, at indholdet på din nye blog er af inferiør kvalitet, eftersom det udelukkende eller primært består af indhold fra et andet sted.

    Omvendt: Får din nye blog masser af indgående links, kan den risikere at skubbe din nuværende blog af pinden.

    Det er altså ikke nogen god ide at replikere fuldstændigt, men du kunne evt. nøjes med et lille uddrag på din nuværende blog og så linke videre til din nye blog, hvor du har hele artiklen i stedet.

  25. Hej Thomas,

    Jeg siddet og lyttet til dit cast og læst alle indlæggene og kommer meget i tvivl om vores shop ikke også er “offer” for DC

    I og med at vi sælger drivhuse fra Juliana.com og har brugt tekstmateriale fra dem, uden at ændre i teksten går det vel hen og forringer chancherne for os i google, ikk?? hvor meget skal teksterne ændres før google ikke ser dem som ens? ups det spørgsmål kan jo også hjælpe tekst tyvene 🙁 nå det får være

    En anden ting jeg kunne tænke mig at vide er, når man laver linkbuilding skal teksten på hvert linksite også være forskellig? så der ikke er nogen nem løsning ved at copy paste ind på de forskellige sider?? og kun benhårdt arbejde i at finde på flere forskellige tekster!

    Mange hilsner

    Annette

  26. Hej Annette
    Jo – det er du i høj grad. Se blot denne søgning på Google: Klik

    Der er ingen fast formel for “forskelligheden”, men min egen Lex Thomas er max. 25% sammenfald. Du skal altså omskrive en del.

    Når du tilmelder din shop til kataloger, er effekten af det ligefremt proportional med, hvor meget du varierer linktekst og beskrivelse. Jo mere varieret – jo større effekt.

    Ja, det ER hårdt arbejde 😉

  27. Mikael Køster Andersen

    Så har jeg igen igen et spørgsmål vedrørende duplicate content.

    Hvis nu en hjemmeside med eksempelvis 20 sider ligger på nettet med hver eneste side på dels adressen w w w. domænenavn.dk/underside1-osv.html og dels http :// domænenavn.dk/underside1-osv.html, er der så ik’ tale om duplicate content. Dette her er vel i stil med de to forsider (der hvor forsiden er med både /index og uden /index).

    På forhånd tak for svaret.

  28. Nej – Google ved godt, at den slags “misk-mask” skyldes dårligt setup, så de betragter det ikke som duplicate content. Men linkværdien af de indgående links til siderne udvandes, så det skal ALTID være entydigt enten med eller uden “www”.

  29. Hej Thomas

    Super indlæg. Jeg har har et spørgsmål mht duplicate content. Du fortæller der ofte opstår duplicate content når der udarbejdes flere sprog på en hjemmeside. Lad os antage jeg har 2 sprog – DK og Eng. Mit domæne er mitdomæne.com – Når ønsker at skifter sprog til engelsk klikker jeg på det engelske flag og adressen er stadig mitdomæne.com og teksten er nu engelsk men er 100 % den samme som den danske bare oversat. Det er ikke duplicate content, vel?

    Jeg antager det ikke er duplicate content og skriver derfor endnu et spørgsmål. Lad os sige jeg har 4 sprog – Dk, engelsk, tysk og svensk. DK og engelsk ligger som tidligere nævnt på .com hvorimod den tyske og svenske ligger på 2 subdomæner; tysk.mitdomæne.com og svensk.mitdomæne.com. Igen her er teksten den samme bare oversat. Er det duplicate content??

    Jeg ser frem til at høre fra dig.
    PS. jeg værdsætter dit arbejde højt og benytter lejligheden til at sige tak for at give din erfaring videre. 🙂

  30. Hej Anders og velkommen til!

    Spørgsmål 1: Jeg antager, at du her skifter indholdet i f.eks. et layer eller lignende? Uanset hvad: Det er ikke DC og kan ikke være det, for det vil kræve, at du har samme indhold på mere end én URL. Og det har du jo ikke. Det er så til gengæld en rigtig dårlig løsning i forhold til at ville være synlig på forskellige sprog, men det har du nok regnet ud.

    Spørgsmål 2: En oversat tekst kan aldrig være DC. Der KAN være visse problemer mellem norsk og dansk, for norsk er jo bare dansk stavet forkert. Men i dit tilfælde: Ingen DC her.

    Tak for de pæne ord!

  31. Anders Holm

    # Thomas…:

    Hvor lang en tekst streg kan man skrive flere steder før der er tale om dublicate content ?

    – Kan en tekst der står i header eller footer ikke være i fare for at blive set som dublicate content ?

  32. Hej Anders

    Det er svært at svare entydigt på. Min egen tommelfingerregel er, at der maks. må være 25 5 sammenfald i teksterne mellem siderne. En gentaget footer eller header er ikke DC medmindre det er det eneste, der står på siden. Google anbefaler dog, at f.eks. disclaimere anbriges ét sted på sitet i stedet for i bunden af hver side f.eks., men en disclaimer er jo også typisk ganske lang og kan derfor udgøre en stor mængde af den samlede tekst på én URL.

  33. Hej Thomas

    Jeg kan se på din Twitter , at du har travlt med flytning. Så ingen rush med at besvare det her 🙂

    En af mine konkurrenter bruger samme tekst i alle sine linkkatalog tilmeldinger. Altså det man bliver frarådet. Men er DET pga DP ? Og de bliver ikke straffet for det nu, kan jeg se, men det kan jo være det kommer. Man har lov til at håbe 🙂

    Det er megahårdt at sidde og være kreativ med alle de tilmeldingstekster, så hvis man alligevel ikke bliver straffet for samme tekst, vil jeg jo bare gøre det.

    Tak for en god side, og for en god SEO Tuning Light demo version. Mangler stadig at læse den 🙂

    God flytning

    Jimi

    1. Hej Jimi
      Det er linkkatalogerne, der bliver ramt af DC, når folk benytter samme tekster til alle tilmeldinger, og derfor er der maneg katalogejere, der afviser tilmeldinger, der er enslydende (mange ejer op til rigtig mange kataloger). DC kan i dette tilfælde aldrig ramme selve det site, der linkbuildes – udover at linkene kan devalueres grundet de mange gentagelser.

  34. Søren Alexandersen

    Hej Thomas (og Jer andre).

    Jeg har et par spørgsmål on-topic, som jeg gerne vil høre Jeres mening om.

    Her til aften sad jeg og legede lidt med at lave mobil-venlige versioner af de enkelte sider på mit site.
    Mit mål er, at jeg for hver side har noget kode, der dirigerer folk til den mobil-venlige kopi af siden, hvis de rigtige forudsætninger er mødt.

    1. Ville der være noget forkert i at lave det sådan i robots.txt, at de mobil-venlige sider ikke bliver indexeret?
    Jeg har tænkt lidt over scenariet, og hvis folk søger på deres iPhone/mobil via Google, vil den vise søgeresultatet for “desktop-versionen” af siden, men når folk så “klikker” på linket, bliver de dirigeret til den mobil-venlige version af siden.
    2. Indholdet, tekstmæssigt, er det samme, så jeg skal vel disallowe disse sider?
    3. Men det er der så vidt jeg kan se heller ikke noget galt i… hvis jeg gør som beskrevet ovenfor?
    (brugerne på en regulær computer får vist den for dem rigtige side, og mobilbrugerne får også vist den for dem rigtige version, og Google “kender” kun desktop-versionen).

    4. Og som sidste spørgsmål.. halvvejs on-topic :o) … er der nogen, der i den forbindelse har erfaring med services som Mobify (www.mobify.me)?

    Vh
    Søren

    1. Hej Søren
      Det er en helt legitim og udmærket måde, du planlægger at gøre det på, og jeg kan ikke se, du skulle få nogen problemer med DC i den anledning.

      Jeg har hørt om Mobify, men jeg har ikke selv brugt tjenesten. Men det ser da meget godt ud! Andre med erfaringer ud i slige sager?

  35. Hej Thomas,

    Vil nedenstående to link, til samme side, blive betragtet som DC af google, eller kan google se at der blot er tale om opsamling af data?

    minside.dk
    minside.dk/?link=google

    vh
    Flemming

  36. Hej Thomas

    Jeg har netop opdaget, at et af mine sites stort set er kopieret (hurra for “Google Alerts”).

    “Kopien” findes på mindst andre 2 domæner (de har nok ikke læst dit indlæg om DC). Pt ser det ud til Google stadig betragter min side som “orginalen” – indholdet på de andre domæner vises slet ikke i Google.

    Det er naturligvis ikke sjovt, når jeg har brugt lang tid på at udtænke og implementere teksterne og opsætning, men spørgsmålet er naturligvis om min konkurrent som sådan bryder ophavsretten. Døm selv:

    http://www.odensebedandbreakfast.dk
    odensesyd.dk

    Desværre er det en af mine lokale konkurrenter. Jeg vil derfor gerne høre din mening om der i min situation er sket brud på ophavsretten og hvad man bør (kan) gøre i sådan en situation.

    / Tommy

  37. Hej Tommy

    I mine øjne er der indiskutabelt tale om kopiering og dermed om en klar overtrædelse af Lov om Ophavsret og Lov om Markedsføring. Jeg ville give dem 24 timer til at fjerne skidtet – og gør de ikke det, ville jeg sætte en advokat på dem med krav om erstatning og fogedforbud.

    Jeg kan anbefale http://www.bvhd.dk/ – de har styr på det med ophavsret.

    Held og lykke!

  38. Mikael Køster Andersen

    @ Tommy

    Hold kæft noget svineri! Ja undskyld sproget… De har oven i købet skrevet dit domænenavn ind i titlen på hver side. Det kan godt være, at det ikke er helt efter bogen, men jeg ville uden tøven ringe til dem og bede dem om at lave det om. Og var der ikke sket noget inden en time, så ville jeg ringe igen. Og igen og igen. Og med kortere og kortere intervaller.

  39. Mikael Køster Andersen

    Nu vil jeg gerne lige bidrage med noget, der viser, hvor galt det kan gå med duplicate content, når et firma uden kendskab til dette lader sig lokke af “gode tilbud” om annoncering på fx krak.dk.

    For nogle måneder siden omskrev jeg teksterne på en hjemmeside mhp at gøre indholdet bedre både for brugerne og i forhold til Google. Især forsiden gjorde jeg en del ud af, og den kom også til at ligge godt på flere søgninger.

    Firmaet har nu bedt mig om at skrive tekst til en annonce på Krak, og de ved ikke mere, end at de har købt denne annonce. Så jeg har været på Krak og lede efter annoncen. Til min overraskelse har de allerede en annonce, så Krak har altså formået at sælge dem endnu en annonce. I den eksisterende annonce har Krak indsat hele teksten fra forsiden fra deres hjemmeside, som jeg skrev tekster til. Med det resultat, at på søgninger, der passer til indholdet, er det nu krak.dk, der kommer frem. Firmaets forside ligger til gengæld nu langt nede i resultaterne.

    Det er ikke første gang, jeg oplever, at Krak laver det nummer, og jeg håber, at mit indlæg her, og at jer der ved dette, vil informere andre firmaer om, at de skal sikre sig, at hvis de køber annoncering på Krak, så skal der en ny og anderledes tekst ind at stå i annoncen.

    1. Tak for input, Mikael. Det er en trist historie, som jeg har set magen til mange gange. Dels med Krak uden om kundens viden – og dels med hjemmesider, hvor ejeren selv har ment, det var “smart” lige at snuppe teksten fra forsiden eller profilen og genbruge den. Og er den originale hjemmeside ret ny eller “svagelig” på anden vis, er det sider som Krak og lignende, der ofte render med titlen som “originalen”.

  40. Mikael Køster Andersen

    Jeg bliver simpel hen så indebrændt over så dårlig forretningsetik fra annonceudbydere som bl.a. Krak. Jeg synes, det er ufatteligt, at ellers anerkendte firmaer ikke rådgiver deres kunder bedre. Og når jeg tænker på, hvad de oven i købet tjener på de her annoncer, så er det for mig endnu mere ufatteligt.

  41. Spændende emne. Tak for god orientering via dit cast. Lige et tillægsspørgsmål, eller rettere to:
    Jeg driver en slags nyhedssite, hvor andre sites gerne vil have deres artikler publiceret hos os mod at vi linker til dem – altså en slags gratis indhold for os. MEN: risikerer vi ikke at Google straffer os, hvis vi bringer artikler fra andre sites.

    OG: hvordan forholder man sig til pressemeddelelser? Her er det jo næsten kutyme hos mange sites – også professionelle nyhedssites – at hvis emnet er interessant nok, så copy/pastes pressemeddelelsen direkte ind på hjemmesiderne. Det må nødvendigvis resultere i en ordentlig omgang DC. Hvis man anvender PR-meddelelser må det velsagtens være en god ide at omformulere dem. Korrekt?

    1. Hej Allan

      Velbekomme!

      1.
      Jo – hvis vi skal kalde det en straf. Google vil i de fleste tilfælde vælge én version at vise i det primære indeks. Og resten kan så henslæbe tilværelsen i supplerende indeks. Det er en lang række faktorer, der afgør, hvilken URL der bedømmes som den originale. Blandt disse faktorer er andet indhold på samme URL, den generelle status på hele websitet, antal indgående links etc.

      Et eksempel: Jeg kender en dame, der har en god forretning på at vise AdSense. Hun har mistet noget, der ligner 60 dollar pr. dag i den seneste måned, fordi et site for gravide og småbørnsforældre har et debatforum, hvor en debattør har kopieret og indsat hele hendes artikel om et bestemt emne (som hun altså laver de der ca. 1.800 dollars på månedligt). Da det pågældende forum har højere PR, trust og hvad ved jeg, “åd” det originalretten til artiklen – og min bekendtes placering røg ad pommern til.

      2.
      Og dermed har du egentlig svaret på det med pressemeddelelser 😉

  42. Mikael Køster Andersen

    Nu vi er ved det igen, så havde jeg lige en diskussion forleden dag med en konsulent fra dgs.dk omkring kopiering af tekster. Han sagde så i fuldt alvor, at han godt vidste, at man ikke må kopiere tekst, men at det var fuldt lovligt at skrive teksten direkte af. Så vidste jeg godt, at jeg ikke ville komme længere i den diskussion (-;

    1. Hold da op! Men det undrer mig ikke. Enhver, der har haft fornøjelsen af salgsstyrken fra De Gule Sider, ved, at det ikke ligefrem er åndseliten, der spiser i kantinen der.

  43. Hvordan forholder det sig egentlig med homepage filen og de to url’er, som den kan slås op på – fx:
    – domæne.xyz
    – domæne.xyz/default.asp

    Kan Google også se det som et problem, at der er duplicate content her?

    1. Hej Karsten

      Ja helt klart – det er et stort og tilbagevendende problem. Og så er der jo diffuseringen af indgående links, når de fordeles mellem / og /default.asp, så den slags skal bare løses.

      Jeg kan se på din hjemmeside at du selv tilbyder søgemaskineoptimering. Derfor undrer dit spørgsmål mig en smule?

  44. Hej Thomas! Jeg har et spørgsmål som jeg går og tumler med. Jeg er ved at opbygge en webshop, hvor jeg vil sælge kosttilskud.
    Hvis vi tager et produkt eksempel, fx Chili Burn. Så har producenten skrevet en beskrivelse af produktet. Denne beskrivelse bruges stort set af alle online helsebutikker, hvor de blot laver en copy/paste.

    Du kan evt se produktbeskrivelsen her: http://www.helsam.dk/templates/product.asp?ProductGuid=1761&GroupGuid=2705670

    Jeg har omskrevet den første del af beskrivelsen, så den er anderledes fra standart beskrivelsen, for at få en unik tekst.

    Men når jeg så når til “Indhold pr daglig dosis ” og “varedeklaration”, så syntes jeg det er lidt svært at skrive noget andet, end det som producenten har skrevet. Da produktet jo indeholder en række ingredienser, som skal stå på både dansk og latin. Så er det ikke nemt at lave en unik tekst i dette, da det kun er indholdet af der skal fremgå. Desuden kan der også være et par sætninger i produktbeskrivelsen som er svær at lave om.

    Mit spørgsmål er; vil google indekserer min beskrivelse som samme indhold som alle de andre konkurrenter, når ca halvdelen af produktbeskrivelsen er identisk i forholdt til de andre forhandlere, eller vil google typisk indekserer den som en unik tekst, når halvdelen er unikt.
    Det jeg tænker er, at google måske siger, okay her er en der bare har lavet om i halvdelen, men stadig er den anden halvdel præcis den samme som på 60 andre sider, så den kategoriseres som samme produktbeskrivelse som alle andre.

    Håber du har et godt råd 🙂

    god påske

    mvh Kasper Rasmussen

    1. Hej Kasper

      Med 50% omskrevet til din egen unikke tekst ville jeg ikke være nervøs. Hvis du er lidt små-paranoid, kan du jo altid lave varedeklarationen og det andet generiske i en billedfil. Det kan Google ikke læse, og så står du med en 100% unik tekst på den URL 😉

  45. Tak for dit svar Thomas. God idé med at indsætte varedeklarationen som en billedfil, det må helt sikkert prøves 🙂

  46. Er der forskel på hvordan google forholder sig til dublicate content indenfor samme domæne og på forskellige domæner ?

    og hvordan håndtere man DC i feks. en artikel der vises i to kategorier, og virker det overhovedet at lave en “no follow” ?

    Et andet eks er forskellen på en indgangen via en oversigts-visning og via en menu. (Joomla)

    http://www.opdagverden.dk/lande/afrika/kenya/nyheder/item/naturens-mest-brutale-bid
    http://www.opdagverden.dk/lande/afrika/kenya/nyheder/item/naturens-mest-brutale-bid?category_id=2839

    1. Hej Rasmus
      Ikke den store forskel faktisk. Google forholder sig til det, fordi de ikke vil levere flere ens søgeresultater, hvilket giver god mening.

      Alle dine spørgsmål og mere til er udførligt beskrevet i SEO-LEX, men det korte svar her:

      Brug enten hashtag (#) som separator og/eller brug Canonical URL tag for at undgå DC.
      Nofollow og DC har absolut intet med hinanden at gøre på nogen måde, så nej – det kan du ikke bruge.

  47. Nu skriver du noget i den retning: “Brug all in one seo pack, og sæt flueben ved, at tags og en slags ikke skal indekseres.”

    Hvor mange flueben ville du sætte nedenfor for at indstille det plugin rigtigt (og hvor)? Tak 🙂

    Use noindex for Categories:
    Use noindex for Date Archives:
    Use noindex for Author Archives:
    Use noindex for Tag Archives:

    Use noindex for the Search page:

    1. Hej Louise
      Mens vi venter på Brian: Hvis det var mig, ville jeg sætte flueben i dem alle. Undtagelsen kan være kategorisiderne, hvis du er meget stringent med at kategorisere – og du har en god kategoribeskrivelse til hver af dem, der vises øverst på hver kategoriside.

  48. Hej Thomas

    Jeg er ved at bygge min hjemmeside op med produkter til børn. Under stort set alle kategorier har jeg mange varianter af samme vare på grund af forskellig farve. F.eks. hagesmække, tæpper, lamper, nusseklude osv. Alle sammen hvor jeg har ca. 10 produkter oprettet pga. forskellige farver.
    Beskrivelsesfelterne kommer derfor til at minde meget om hinanden. Bl.a. har jeg et par linjer som går igen på dem alle, som er en beskrivelse af producenten.

    Kan jeg her løbe ind i DC?
    Er det hele den samlede beskrivelse pr. produkt der bliver sammenholdt?

    Jeg vil meget gerne præsentere produkterne enkeltvis, så kunderne får et bedre overblik – men hvordan gør jeg det bedst i forhold til DC.

    1. Den bedste metode er at benytte Canonical URL tag. Du kan Google det og finde masser af nemt tilgængelig information om den metode. Men ja – du skal benytte det tag eller skrive helt unikke tekster, hvis du vil undgå DC eller redundant indhold.

  49. Tak for svar – men jeg har DanDomain som løsning og her kan jeg ikke indsætte den URL, men de har lavet det som en fast del at der skal fokuseres på masterside i forbindelse med indeksering.

    Jeg er derfor i tvivl om jeg nu skal rette mine tekster eller om det er unødvendigt.

  50. Mange tak for svar, men vil det sige at jeg ikke behøver at ændre alle mine beskrivelser på hvert produkt til unikke tekster – at canonical url gør at Google ikke ser mine tekster som DC?

  51. Hej Thomas

    Jeg har virkelig forsøgt at undgå DC på min blog http://taskeforum.dk , og umiddelbart er det vist lykkes ok. Desværre har jeg fået en udfordring i forhold til Bloglovin. Jeg vil jo gerne have tilmeldt min blog hos Bloglovin, men jeg har erfaret at den laver DC. Min side er lavet i WordPress, og læseindstillingerne er sat til “resume”. Alligevel viser Bloglovin til tider, hvad der svare til mere en 20 % af den oprindelige sides tekst.

    Har du nogen bud på, hvordan jeg løser det? Eller skal jeg droppe Bloglovin?

    1. Hej Mette
      Jeg ville glemme alt om Bloglovin, hvis jeg var dig. Du har også kun 6 følgere der, så det kan næppe være de store mængder trafik, du får der fra?

  52. Hej Thomas

    Tak for dit svar.

    🙂 Ja, jeg kan godt se, at det virker lidt omsonst at bekymre sig om Bloglovin, når der ikke er flere følgere.

    Men nu er sagen den, at bloggen er ret ny – så jeg satser da på at der vil komme flere følgere i fremtiden.

  53. Anders Toft Braun

    Hej Morten,

    Tusinde tak for dit velformuleret indlæg om duplicate content.

    Hvis jeg nu laver en kontaktsignatur som eksemplet nedenfor på cirka 5 af mine sider på min hjemmeside. Vil det være duplicate content, eller?

    Eksempel: “Er du interesseret? Kontakt mig nedenfor, og jeg vender tilbage hurtigst muligt”

    Jeg håber du kan hjælpe mig!

    Mvh.
    Anders Toft Braun

  54. Tak for disse nyttige oplysninger. Denne artikel hjalp mig til at forstå nogle punkter 😉

  55. Troels Nielsen

    Hej Thomas Rosenstand
    Jeg faldt over dit rigtig gode indlæg her om duplicate content, da jeg søgte på DC på lorem ipsum tekst.
    Du svarer d. 6.11.09 som svar på en kommentar at lorem ipsum giver DC. Så tænker jeg om det så næsten er uundgåeligt at få dc på sin side i en kort periode, hvis man starter med at have lorem ipsum tekst på for at få det visuelle helhedsindtryk af siden. Der er jo tusindvis af sider med lorem ipsum tekst, som vel alle har DC?

    Skal man helt droppe at lorem ipsum tekst på eller skal man bare selv skrive noget vrøvletekst eller bare en masse ord, for at se, hvordan sider ser ud med tekst på?

    Rigtig god dag
    Troels

    1. Hej Troels
      Den bedste løsning er at beskytte ikke færdige sider mod indeksering – altså med “noindex”. Når en URL så er parat, fjernes “noindex” blot. Så har du løst alle potentielle problemer.

  56. Kasper Knudsen

    Rigtig god og uddybende artikel! I forhold til at finde duplicate content, giver en hurtig Google søgning på “Find duplicate content” mindst 5 forskellige online værktøjer, som (gratis) kan scanne ens domæne for duplicate content. Det kan hurtigt spare tid, i stedet for at gå alt indhold igennem manuelt. Der er dog helt sikkert nogle, som virker bedre end andre. 🙂

  57. Maria Strange Lassen

    Super god artikel, som gennemgår alle relevante problemstillinger ift. duplikeret indhold. Trods den meget detaljeret gennemgang er jeg dog stadig i tvivl om jeg sidder med en hjemmeside, der lider under duplikeret indhold. I min Google Analytics konto fremgår følgende sider under rapporten ‘Alle sider’:

    /tilbud/
    /Tilbud

    Når jeg ser på landingssiden er det fuldstændig samme indhold, som jeg får vist og selvom jeg ændrer det store t til et lille eller fjerner trailing slashen, så bliver jeg ikke ‘tvunget’ tilbage til den ‘korrekte’ URL – dermed mener jeg at kunne konstatere at samme indhold eksisterer på flere forskellige URL’er og det er duplikeret indhold ikke? Men når jeg indtastede adressen via det værktøj, du henviser til, så får jeg blot serverresponsen 200 OK. Og det er vel ikke kritisk?

    Håber du kan hjælpe med at opklare mit mysterium 😀

    De bedste hilsener

    Maria Strange

    1. Hej Maria
      Hvis du kan tilgå samme indhold med og uden trailing slash og/eller med store/små bogstaver, er det duplicate content. Dit system (CMS) skal sikre en omskrivning (rewrite), så det er entydigt. At du får HTTP200 betyder netop, at adresserne svarer. Du skal gerne ende op med, at alle varianter undtagen den rigtige svarer med et 301 redirect til den korrekte URL.

  58. Maria Strange Lassen

    Hej Thomas
    Mange tak for svar – jamen så var det som jeg desværre også frygtede. Jeg skal vist have sat vores udviklere i gang med en lille opgave med det samme 🙂
    De bedste hilsener

    Maria

Skriv en kommentar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

36 98 71 40 (dansk takst)

Vi har åbent mandag til fredag fra 14:00 til 23:00 dansk tid på telefonen.

Du kan skrive en e-mail, når det passer dig - vi svarer lynhurtigt!

Overvej vores nyhedsbrev - vi sender SEO tips hver anden mandag!

SEO-LEX 24

Vil du lære SEO - så køb min bog, fyldt med alle mine erfaringer fra snart 25 år i branchen. Så god, at den aldrig har været gratis - og så god, at den stadig er den bedste efter hver årlig opdatering.

  • 521 sider SEO e-bog  – 120 minutters videoer
  • Kendt som "Biblen om SEO"
  • Nyeste udgave: 12. december 2023

Concept Interest er i dag en del af TCON Services, LLC med hjemsted i Florida, USA

Scroll to Top