DNS og duplicate content?

Skaber dine DNS indstillinger Duplicate Content?

Duplicate content opstår når det samme indhold er tilgængeligt på flere URL’er. Der findes mange årsager til at der kan opstå duplicate content på et website, og alle sammen kan forringe din synlighed i søgemaskinerne. Nogle af de mest almindelige årsager er:

  • Non-www og www
  • Store og små bogstaver
  • Med og uden trailing slash
  • Google Analytics tracking parametre i URL
  • Tilfældig rækkefølge på parametre i URL
  • Pagination
  • Filtering og sortering
  • Printervenlige sider

Listen er lang og i dag vil jeg tilføje endnu en mulig årsag til listen, nemlig dine DNS indstillinger.

DNS – Domain Name System

Først skal vi lige have styr på hvad DNS er. DNS er et kæmpe katalog, fordelt på en masse serveren verden over, som indeholder domænenavne og IP adresser, og bruges til at holde styr på hvilken IP et givent domæne skal peges hen på. Det foregår sådan her:

  1. Du skriver et domænenavn i din browser.
  2. Browseren spørger DNS netværket, hvilken IP det pågældende domænenavn ligger på.
  3. Browseren sender en forespørgsel på domænenavnet til den oplyste IP.
  4. Webserveren som har den IP, undersøger om den har noget indhold som passer til domænenavnet og sender det tilbage til browseren.

Hvad er problemet?

Problemerne med duplicate content kan opstå i den måde din DNS er opsat på, samt den måde din webserver håndterer forespørgsler på. Jeg opdagede selv problemet, da jeg slettede et subdomæne på min personlige blog. Efter det var slettet, så jeg at subdomænet stadig virkede, nu viste det bare indholdet fra hovedsitet, altså min blog, så jeg nu havde duplicate content. Subdomænet var tilmed indekseret af Google, så næste gang Google crawlede subdomænet ville jeg komme i problemer.

Hvad var der sket?

Jeg undersøgte hvorfor subdomænet stadig virkede efter jeg havde slettet det. Mappen til subdomænet og alle filerne var slettet, så det var ikke derfor. Jeg skrev derfor til mit webhotels kundeservice, og fik at vide at subdomænet stadig virkede fordi der var oprettet en wildcard DNS record (også kaldet catch-all), som fangede ALLE forespørgsler til domænet – også for subdomæner der aldrig har eksisteret.

Det var i øvrigt standard opsætningen på webhotellet, og ikke noget jeg selv havde opsat.

Wildcard DNS record?

En Wildcard DNS record fungerer ved at der bliver lavet en DNS record som siger at alt der rammer *.jacobworsoe.dk (www.jacobworsoe.dk, sub.jacobworsoe.dk, nogetandet.jacobworsoe.dk) bliver sendt til webserveren.

Hvis man fx skriver http://nogetandet.jacobworsoe.dk/ i browseren, så bliver den forespørgsel sendt til webserveren, som så undersøger om der er oprettet et subdomæne der hedder ”nogetandet” og returnerer det til browseren.

Hvis der ikke findes et subdomæne, så bestemmer webserveren hvad der skal ske. Der kan returneres en fejlside, fx en 404 eller lignende, men på mit webhotel viser den blot indholdet fra hovedsitet. Og det er her problemet ligger. Jeg ved ikke om der er en god grund til at det er opsat på den måde, men det har i hvert fald nogle alvorlige SEO-mæssige konsekvenser. Så kære webhoteller: Hvis der ikke er en god grund til at det er opsat sådan, så lad venligst være med at returnere indholdet fra hovedsitet, når man tilgår et subdomæne der ikke eksisterer.

Er du ramt?

Jeg skyndte mig selvfølgelig at fjerne den wildcard DNS record, så adresser som http://nogetandet.jacobworsoe.dk/ ikke længere virkede. Bemærk at den URL ikke giver en 404. Den adresse findes nemlig ikke længere ude i DNS netværket og derfor siger den blot at domænet ikke findes.

Men for din skyld har jeg ikke fjernet den wildcard DNS record på mit linkkatalog, så her kan du teste hvordan det virker når det er opsat forkert.

Løsningen

Som vist på billedet herunder er løsningen at fjerne den wildcard DNS record der er oprettet og i stedet oprette manuelle DNS records for lige præcis de subdomæner du har brug for. Alle sammen skal pege på den samme IP, og så skal serveren være opsat, så den sender trafikken ned i de rigtige mapper, afhængigt af hvilket domæne der bliver indtastet i browseren.

Men forhør dig lige med dit webhotel, og find ud af hvordan det skal opsættes hos dem, så du er sikker på at dine subdomæner også virker fremover.

DNS-records

Alternativt kan du vælge at beholde din wildcard DNS record, og i stedet få serveren til at returnere en 404 eller lignende, hvis det kaldte subdomæne ikke findes. I mit tilfælde havde jeg dog ikke adgang til de indstillinger, så jeg valgte i stedet at ændre DNS indstillingerne.

Artiklen er skrevet af Jacob Worsøe, som du i øvrigt kan finde på G+ her: https://www.google.com/+jacobworsoe

Få et opkald fra Thomas Rosenstand - Så er du på vej til den ultimative SEO løsning!

  • Dette felt er til validering og bør ikke ændres.

35 kommentarer til “DNS og duplicate content?”

  1. Ja, det er meget normalt med wildcard DNS opsætning. Mit bedste bud er at det for det første skærer ned på antallet af supportopkald fra brugere der ikke forstår DNS, og ikke mindst, så fanger det på sin vis alle de brugere som ikke kan stave 😉

    Ret beset, så er det vel heller ikke et problem før man som dig fjerner et subdomæne som altså har eksisteret og som har indgående links?

  2. René Madsen

    Problemet kan også opstå på serversite, hvis virtual hostblock er sat forkert op, så vil alle DNS pegninger giver respons til alle rodmapper, der ligger på den pågældende webserver. Det har jeg set flere eksempler på igennem tiden.

    Ligeledes må en webserver ikke svare på IP adressen med en visning af rodmappen – og IP adressen må ikke redirectes til et domænenavn.

  3. Oplevede selv et andet DNS problem hos en kunde for et par dage siden:

    Vi opdagede at der var et ukendt domæne der rankede på kundens brandnavn.
    Det viste sig at være et domæne der pegede ind på IPen på den webserver som var købt til sitet.

    Fejlen kom af, at serveren bruge IPv4, og da alle de IPv4 er opbrugt er de begyndt at genbruge IPerne.
    Derfor var der et gammelt domæne, som tidligere havde været brugt af den tidligere ejer, der stadig pegede ind på IPen og dermed skabte en 1:1 kopi af siden og dermed massivt duplicated content.

    Så det er i hvert fald også noget man skal være opmærksom på.

  4. @Jan: Jeg vil også mene problemet er størst ved slettede subdomæner, men den slags sager findes der også masser af, fx i forbindelse med et udviklingssite som er placeret på et subdomæne, eller en blog der tidligere har ligget på et subdomæne, men efterfølgende er flyttet over i en mappe på hoveddomænet.

    Men udover subdomæner, så åbner det jo også et hul for negativ SEO, hvor en konkurrent kan linke til at tilfældigt subdomæne, og skabe duplicate content.

  5. @Jakob: Av, den lyder ikke sjov og tilmed en man faktisk er nødt til at tjekke løbende. Det er lidt nemmere med de duplicate content problemer, man kan løse én gang for alle 🙂

  6. @Jacob W. Vil det? Altså åbne for negativ SEO?

    Lad os nu sige at jeg lavede en side med nogle links til et ikke-eksisterende subdomæne hos en anden person. Google kigger forbi min side og crawler via linket. Men reelt set rammer crawleren jo aldrig det ikke eksisterende subdomæne, da den fanges af DNS?

    Hvis der er tale om links til et tidligere eksisterende (og indekseret) subdomæne, så kan jeg godt se at det måske kan være et problem.

    Jeg kan sagtens se problematikken med udviklingssites osv. Der er man nødt til at få ryddet op i DNS.

  7. René Madsen

    Hej Jan

    Kan du se problematikken med dit eget website, hvis der linkes massivt ind til et domæne, der ikke er særligt fedt, så indekseres det og skaber problemer for dit website.

    wwww. prokumo.dk/ = serverkode 200

    wwwwwwwwwww. prokumo. dk/ = serverkode 200

    sex. prokumo. dk/ = serverkode 200

    av-min-arm.prokumo. dk/ = serverkode 200

    Jeg har delt navnene lidt, således de ikke begynder at indekseres på søgemaskinerne.

    Du kan oprette alverdens domæner og få dem indekseret med den opsætning du har, kun fantasien sætter grænser.

    Alle mulige sammensætninger af subdomæner og lignende med en serverkode 200, det er ikke godt.

  8. Problemet er reelt, men løsningen med at fjerne wildcard eller returnere en 404 er jeg ikke enig i.

    Den løsning vi altid implementerer er wildcard og i htaccess laver vi 301 redirect til forsiden.

    På den måde kommer brugeren korrekt ind på siden selvom de kommer til at skrive f.eks. wwwe.webcoders.dk. Det er langt mere brugervenligt at lede dem korrekt ind på forsiden, end at vise en 404 side, da vi jo godt ved hvor de ønsker at komme hen.

    En anden fordel ved at 301 redircte er ligeledes at skulle der være en der kommer til at lave et link til f.eks. wwwe.webcoders.dk, så mister man ikke hele linkjuicen.

  9. René Madsen

    Det er derfor man ikke kan bruge wildcard DNS opsætning til styring af domæner. Alternativt skal man scripte sig ud af problemet, hvis man absolut vil, men det er ikke anbefalelsesværdigt.

  10. René Madsen

    Thomas

    Hvis der er nogle som udnytter en redirect til et domæne i negativ retning, så vil forsiden få sendt juice ind på mindre gode tekster.

    Forestil dig, der er en som opretter et link med en mindre god ordlyd og indenfor et område, der ikke ønskes sammenholdt med virksomheden, og giver det noget linkjuice, ja så føres linkjuice over i et vist omfang til den pågældende forside på en 301 redirect, det er ikke så fedt!

  11. @Rene

    Ja linkjuice videreføres, men det gør ankertekst m.m. ikke på en 301 redirect. Skulle man blive angrebet (det holder man jo øje med anyway), så kan man blot sørge for at den URL der angribes ikke redirecter men viser en 404.

  12. René Madsen

    Thomas

    Man redirecter ikke et subdomæne, som ikke eksisterer til hoveddomænet, hverken som 301 eller til en 404 side, med mindre man ved eksakt, om det er noget, der ønskes redirectes.

    Som udgangspunkt skal subdomæner, der ikke eksisterer have denne tilbagemelding.: DNS lookup failed og ikke redirectes til hoved-rodmappen på serverkode 200 eller med redirect 301.

    Hvis der udføres 301 redirect fra andre domæner (nogle der køber et domæne et sted, og linker til dit site), så er der mulighed for at anmelde det, men når der redirectes fra eget domæne (subdomæne), så er det jo ens eget problem.

  13. @Rene

    Jeg er stadig ikke helt med på hvorfor du ikke vil sende brugerne derhen hvor du med 99% sikkerhed ved de gerne vil hen. Hvis en bruger taster forkert, er det efter min mening langt bedre hvis man kan sende ham/hende i den rigtige retning, fremfor at vise ingenting.

  14. René Madsen

    @Jacob

    Den kunde du hentyder til, han har efter det, jeg ser sin egen ip-adresse på et domæne, i så fald kan der tilgås med flere domæner, hvis virtual host block ikke er sat korrekt op.

    Hvis der ligger hundredevis af domæner på samme dunk og samme ip-adresse, så vil det ikke ske, så vil kun det første domæne, der ligger i virtual host block kunne tilgås uautoriseret med samme ip-adresse, hvis virtual host block ikke er sat korrekt op.

  15. René Madsen

    @ Thomas

    viagra.webcoders-dk poker.webcoders-dk og endnu værre sammensætninger tilsat lidt eksterne links, kun fantasien sætter grænser, det er mulighederne, når der anvendes Wildcard DNS.

    Sådanne sider vil du sende hen til dit eget website (rod-mappen) og vise dem forsiden eller en anden side. Sådanne sider vil jeg ikke identificeres med så de skal væk.

    Der er forskel på om det er sider på eget domæne eller på et subdomæne.

    Sider kan fint redirectes til 404 sider eller forsiden, hvis det er på hoveddomænet, men ALDRIG på et subdomæne til et hoveddomæne uden at vide, hvad der redirectes, hvis det er kendte sider, så kan det være ok, men ukendte sider, NEJ.

  16. Med hensyn til Thomas Frosts feedback, så var jeg også tippet om problemstillingen engang han nævnte den på Amino.dk.

    Jeg har så et lille tip til hvis de læsere, der i hvert fald virker hvis I bruger UnoEuros Linux webhotel.

    Den laver i øvrigt også en 301 redirect af den “midlertidige” URL, som jo også kan risikere at ende i Duplicate Content – og skal puttes i .htaccess-filen i domænets rodmappe.

    RewriteCond %{HTTP_HOST} !^streetpatrol.dk$ [NC]
    RewriteRule ^(.*)$ h t tp://streetpatrol .dk/$1 [R=301,L]

  17. René Madsen

    @Gita

    Det er en del af problemstillingen med en sådan løsning! Din løsning 301 redirecter indkomne subdomæner til en forside eller en given side.

    artige-verner.streetpatrol-dk redirecter til streetpatrol-dk, med en serverkode 301, det er noget skidt, fordi der kan etableres negativ SEO via konstruerede subdomæner, der linkbuildes i større omfang.

    God karma videreføres med 301, dårlig karma videreføres også med 301. Da denne dårlige karma kan komme fra dit eget domæne, så er det ikke smart.

    Hvis den kommer fra nogle, der gerne vil genere dig, og som køber et eksternt domæne til opgaven, så kan man få skidtet smidt af.

    Det er lidt værre når den negative karma kommer fra sit eget domæne.

  18. Interessant debat I har gang i, Thomas og René.

    Med hensyn til at redirecte ukendte subdomæner til forsiden eller ej, så skal det primært gøres for at minimere duplicate content.

    Hvis en konkurrent ønsker at associere dit website med viagra eller lignende, så vil de altid kunne linke direkte til dit domæne med viagra som ankertekst og måske endda fra et site som handler om viagra. Derved rammer en eventuel negativ effekt direkte på domænet, uden redirect, så det er nok den de vælger. Og det kan man ikke gøre så meget ved, udover Disavow.

  19. @Rene

    Ja, jeg bruger såmænd ikke kun wildcard 301 redirects på subdomæner, men også nogengange alle URL’er.

    Spørgsmålet er så om hvor meget du er beskyttet mod negativ linkbuilding ved at bruge 404 med noindex,follow i stedet for. Og med negativ SEO står det jo stadigvæk frit at bruge aggressivt ensformige ankertekster – og endda linke til hvilkensomhelst URL uden at der evt “mistes” lidt linkjuice under omdirigeringen. Det er vel heller ikke et supergodt signal at hjemmesiden har en masse 404 meldinger.

    Jeg har ikke læst nogen tests om hvad der virker bedst mod negativ linkbuilding, men jeg ville ty til Googles Disawov-funktion, hvis det ellers var udenfor min magt at få linkene fjernet.

  20. René Madsen

    Hej Jacob

    Det er en vigtig debat.

    Problemet er, der tilsyneladende misforstås forskellen imellem et subdomæne og en url på et hoveddomæne.

    Et subdomæne, er et domæne, der er oprettet under et hoveddomæne, hvor søgemaskinerne opfatter det som et domæne på lige fod med et eksternt domæne.

    Et subdomæne kan linkbuildes på lige fod med et almindeligt domæne og vil herefter kunne indekseres af søgemaskinerne. Derfor skal ukendte subdomæner have en DNS lookup failed og ikke redirectes til hovedsiden.

    Alt hvad der oprettes foran domænenavnet efterfulgt af et punktum – er et selvstændigt domæne og opfattes af søgemaskinerne som sådan. F.eks. facebook.mitdomain-dk er et subdomæne på mitdomain-dk.

    En url, den kan være kendt eller ukendt. Er den ukendt, så skal den have en 404 side, er den kendt, så redirectes den til den side, der indholdsmæssigt er tættest på det indhold fra den gamle side.

    Et testdomæne skal ikke redirectes til hovedsitet, det skal slet ikke indekseres af søgemaskinerne, her er der et stort problem at løse mange steder.

    Det er nemt at identificere negativ SEO, hvis der direkte linkes på ankertekster. Hvis den går nogle led ud, så kræver det lidt mere at finde spamsiderne.

  21. René Madsen

    @Gita

    Ukendte subdomæner skal slet ikke have tilgang til dit website, hverken med 301 eller redirectes til 404 sider. De skal have en DNS lookup failed, da der er tale om et domæne og ikke en url adresse på websitet.

  22. @Rene,

    Nu har jeg læst de andres svar også. Jeg kan ikke se nogen, der ikke kan kende forskel på subdomæner og subdirectories.

    I øvrigt har Thomas Frost også en pointe mht at der angiveligt ikke overføres ankertekst-værdi i en 301 omdirigering. Men det kan Google og de andre søgemaskiner vel vælge at ændre fra den ene dag til den anden.

    Problemstillingen med subdomæner vs subdirectories har Google/Matt Cutts også sagt at de har ændret i hvordan de tolker.

    Fandt denne – omend jeg ikke fandt ud af om den er legit, men der er sikkert nogen, der kommer med riven, hvis ikke:

    “The historical reasons why you might’ve wanted to go for a subdomain don’t really apply as much, and that leaves you with, okay both are on the same domain, overall, and so it’s really a question of which one is easier for you..”
    – Matt Cutts, 2012

    Du lyder overbevist om at du har det endegyldige svar.

    Jeg siger ikke du er forkert på den. Kunne være interessant at høre om nogen, havde lavet tests på hvad der virker bedst pt.

  23. @Rene

    “Et subdomæne, er et domæne, der er oprettet under et hoveddomæne, hvor søgemaskinerne opfatter det som et domæne på lige fod med et eksternt domæne.”

    Det er et lang tid siden Google meldte ud at de ikke længere anså et subdomæne som et domæne men nærmere som en subfolder, dette blev ændret da mange udnyttede at man kunne få flere resultater på side 1, med samme domæne. Matt Cutts uddyber her i 2012 http://www.youtube.com/watch?v=_MswMYk05tk

    “Et subdomæne kan linkbuildes på lige fod med et almindeligt domæne og vil herefter kunne indekseres af søgemaskinerne. Derfor skal ukendte subdomæner have en DNS lookup failed og ikke redirectes til hovedsiden.”

    Nej et subdomæne indekseres ikke hvis der er 301 redirect opsat, heller ikke selvom der linkbuildes til det.

    Omkring negativ SEO, har du så evt. link til en test hvor man rent faktisk har testet at en 301 redirect overfører subdomænets tekst til den side der redirectes til?

  24. @Thomas Frost

    “Nej et subdomæne indekseres ikke hvis der er 301 redirect opsat, heller ikke selvom der linkbuildes til det.”

    Som jeg læser Renés indlæg ved han godt det ikke giver Duplicate Content med 301 redirect af et subdomænet.

    Jeg forstod hans pointe som at folk, der lavede negativ SEO i form af linkbuilding fik en fordel, da de kan linke til et subdomæne, der “eksisterer” pga det wildcard og de dermed får karma overført via 301 redirect.

    Hvis det så er med onde ankertekster, så ville jeg som “ond” jo som Jacob Worsøe jo også hellere vælge at linke direkte så noget af det onde juice ikke gik tabt – og ditto ankertekstværdi samtidigt.

    Jeg har også set en SEO-gut forsøge at overføre sin side 1 ranking på et meget stærkt søgeord til et andet domæne. Det lykkedes ham ikke, men jeg havde så heller ikke tjekket om han fik lavet alle sine 301 redirects. Det var for sent for mig at tjekke, da jeg fik meldingen.

  25. Den nemmeste måde at løse det for de fleste vil være:

    På hver ‘rigtig’ side, have lidt kode i toppen der tjekker om url er korrekt, og hvis ikke omdirigerer til den korrekte siden med 301.

    Alle de ‘falske’ sider kan så undlades, såfremt de alligevel indlæser den ‘rigtige’, da den ‘rigtige’ jo netop omdirigerer til sig selv.

    Har du også ‘falske’ sider der ikke længere er gyldige bør de give koden 410 (permanent slettet) , eller 404 (ikke fundet)

    Her er PHP eksempel til at omdirigere:

    //Hvad du har bestemt din side skal hedde
    $arg=’/forsiden.htm’;

    $cur=$_SERVER[‘REQUEST_URI’]; #Indholder evt. også ‘?parm=x….’
    #I dette script er der INGEN parms, derfor kan der nemt laves cononical
    if ($arg != $cur) {
    #Redirect til korrekt URL version
    header(“HTTP/1.1 301 Moved Permanently”); #Vær sikker før denne sættes!
    header(“Location: ht tp://”.$_SERVER[‘HTTP_HOST’].$arg);
    exit(0);
    }

    //Her kommer resten af din kode til siden

  26. René Madsen

    @Gita

    Diskussionen om subdirectories vs subfolders har stået på en del år. Jeg har selv foretaget en del test og finder det stadig bedst at anvende en subfolder i de tilfælde, det ikke bevist er valgt at placere et site på et subdomæne.

    Se evt. andre debatter om dette emne.: Rand Fishkin – moz.com/community/q/moz-s-official-stance-on-subdomain-vs-subfolder-does-it-need-updating

    Udgangspunktet i denne tråd, er at det var muligt at kunne tilgå et site på et Wildcard DNS og de skader dette kunne skabe for en website ejer.

    Det skal der ikke være mulighed for, hvis der ikke gøres noget, så indekseres sitet af søgemaskinerne på det pågældende subdomæne.

    @Thomas

    Der kan så udføres noget htaccess Kong Fu for af redirecte med 301 kodning, som jeg tidligere har nævnt i denne tråd.

    Selvfølgelig indekseres sitet ikke når der er redirect, men links indgår og kendes af søgemaskinerne.

    Siden vil i så fald redirectes til det valgte domæne eller valgte url adresse.

    Der kan ligeledes anvendes link canonical, her vil sitet vises på det fiktive subdomæne, hvor der er canonical til det domæne, der ønskes anvendt.

    Jeg mener dog kun det er Google pt, der har meldt ud at de anvender cross-domain canonical.

    Så valget går på om man ønsker at have et clean site eller scripts til at få sitet til at fremstå problemfrit med de problemstillinger det kan give.

  27. Lige en bemærkning til mit indlæg fra tidligere:

    linjen:
    header(“Location: ht tp://“.$_SERVER[‘HTTP_HOST’].$arg);

    skal når det drejer sig om sub domæner, eller andre domæner være med den absolutte url; med eller uden www adresse der ønskes anvendt, f.eks:

    header(“Location: ht tp://www.ditnavn.dk”.$arg);

  28. Søren Hansen

    Hej Hvis man har et domain, hvor der er andre domanin der peger på og nogle af disse er indekseret med et link til forsiden på det domain, som der peges på. Jeg har 2 domain der forsiden indekseret er det et problem selvom at de redirecter til det domain de peger på.

  29. Det er interessant at Google anser subdomæner og subdirectories for at have samme tilknytning til hoveddomænet. Det giver god mening på et “normalt” website hvor nogle bruger blog.domæne.dk og andre bruger domæne.dk/blog, og Google mener at begge opsætninger giver samme resultat.

    Men et eksempel på at subdomæner i nogle tilfælde bør anses som et 100% særskilt website er på wordpress.com og blogspot.com, hvor alle gratis blogs ligger som subdomæner og bør anses som 100% særskilte websites.

    Men her har Google nok lavet en undtagelse til deres regel 🙂

  30. Hej Søren Hansen

    Hvis de domæner som peger ind på hoveddomænet er indekseret, så er det et problem. For at undgå at de andre domæner indekseres skal der opsættes en 301 redirect til hoveddomænet, hvorefter de andre domæner vil forsvinde fra indeks. Men der kan godt gå flere uger, alt efter hvor ofte de crawles og hvor mange sider der er indekseret på de andre domæner.

    Se fx denne test jeg lavede hvor det tog mere end to måneder, før Google havde opdateret deres indeks: http://www.jacobworsoe.dk/hvor-hurtigt-fanger-google-en-301/

  31. Hola over there 🙂

    Jeg har lige et “lidt” offtopic spørgsmål om DC. HVAD gør man hvis en menu er så stor at den registreres som DC?
    DU har jo helt sikkert lavet en artikel om det et eller andet sted, men den kan jeg sørme ikke finde.

    Håber alt er godt og ved det samme gamle i solskinsstaten.
    Knus

  32. René Madsen

    Hej Trine

    Hvis der anvendes en Big menu eller lignende, så anbefales det at programmere menuen med jquery eller Jason og sætte en mouseover funktion på.

    Google forhindres i at læse den, da den ikke bruger mouseover.

    Det kunne f.eks. se således ud!

    Med dette undgås links i rigtig HTML-kode.

    Jeg ville fylde et javascript array med links’ene og skrive dem ud client-side

    Det kunne se sådan her ud: Bemærk, det er ikke testet. Man skal først tænke over, hvordan arrays deles bedst.

    Det kan være et stort, der kan hentes efter behov.

    Loop

    var objMenu = {};
    objMenu.items = [];

    objMenu.items.push( ‘href’ : item.href )
    objMenu.items.push( ‘title’ : item.title )
    objMenu.items.push( ‘text’ : item.text )

    Derefter i Javascript, men først ved mouseover på menupunktet (!!!!)

    if(typeof objDropdowns == ‘object’) {
    $.each( objMenu.items, function( i, item ) {
    document.write ‘<a href="+ item.href …..osv
    });
    };

    Det kan være det er bedre at fylde loopet i en tekststreng, som efterfølgende clones ind i et div.

  33. Tak René,

    Et godt bud, men desværre er det ikke en mulig løsning for os lige nu.
    Jeg ved jo ikke helt hvad jeg søger, men havde nok håbet på et “tag” eller lignende som kunne fortælle Google at der er tale om en menu og ikke indhold.

    Finder jeg ikke et “lavt gærde” så har jeg din udvej 🙂

  34. René Madsen

    Hej Trine

    Man kan også foretage en modsat cloaking, hvor man udelukker delelementer fra en webcrawler.

    Cloaking bruges normalt til at skjule ”spam” tekster for brugerne og vise disse til søgemaskinerne. Det kan så leveres enten som et scripts-styret system eller et IP delivery system, hvor identifikationsstreng for spideren samkøres med en IP database for Googlebot og andre typer crawlere. ”sidstnævnte kræver løbende opdatering af spider-databasen.”

    Hvis det skal bruges til at skjule en BigMenu, så kan der opsættes en partiel cloaking på siderne, hvor brugerne ser hele menuen og Googlebot ikke ser dette delelement, som er udelukket via ovennævnte teknikker.

    En BigMenu kan være problematisk. Ikke nok med den giver duplikeret indhold, så skaber den også problemer i forhold til linkdistributionen imellem de enkelte sider, hvor alt i princippet linker til alt fra alle sider.

Skriv en kommentar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

Rigtige mænd og ditto kvinder deler - og får god karma:

70 27 14 40 (dansk takst)

Vi har åbent mandag til fredag fra 14:00 til 23:00 dansk tid på telefonen.

Du kan skrive en e-mail, når det passer dig - vi svarer lynhurtigt!

SEO-LEX 19 - Bogen om SEO

Vil du lære SEO - så køb min bog, fyldt med alle mine erfaringer fra 20 år i branchen.

  • 426 sider SEO e-bog  – 100 minutters videoer
  • Kendt som "Biblen om SEO"
  • Nyeste udgave: 10. december 2018
Scroll til toppen