Google og Do no Evil

Google og Do no Evil
Google og Do no Evil

Google rullede lige en pingvin forleden – og målet var at gøre søgeresultaterne bedre og med mindre “webspam”. Ædelt mål – men lykkedes det? I nogle tilfælde gjorde det sikkert, men alle i branchen kender allerede eksemplet med “Viagra”, hvor den officielle side først røg ud af Google og siden kom med igen. Men i dag på google.com er det primært snuskede sider på for eksempel .edu domæner, der her i USA dominerer side 1 på søgningen “Viagra”. Kvalitet? You tell me!

Her vil jeg dele et eksempel fra det danske med dig, som jeg har omskrevet en smule fra virkeligheden for ikke at flashe nogen eller noget. Men omskrivningen er udført, så eksemplet holder 100% vand i forhold til virkeligheden. Formålet med at skrive om dette er egentlig blot at fortælle, at sort og hvidt langt fra altid er så tydeligt – og at “Do no evil” mottoet ikke altid står virkelighedens prøve.

Når det gode skubbes væk

Vi skal 3-4 år tilbage i tiden, hvor en dansk non-profit organisation for en gruppe mennesker med en særlig sygdom udviklede et site med et hav af viden målrettet mennesker, der var ramt af sygdommen. Absolut neutralt og med supervision af læger, der sikrede en ikke kommerciel vidensdeling. Meget smukt – meget nødvendigt og et overflødighedshorn af viden om lindring og behandlinger for de stakkels syge mennesker. Så langt – så godt.

Efter at have været online et SEO  års tid, kunne folkene bag hjemmesiden (der i øvrigt er helt fri for annoncer) konstatere, at mere eller mindre ligegyldige artikler på for eksempel Wikipedia konsekvent outrankede deres site på relevante søgninger. Og ofte var oplysninger på diverse wikisites direkte forkerte og i nogle tilfælde endda skadelige.

Der blev derfor udført en hel del onsite optimering på sitet, og der blev bygget links så godt, som de nu formåede. Det blev – som det var god stil endnu dengang – primært udført med ankertekst-optimerede links. Og det virkede! Placeringerne kom i hus, og mange, mange syge mennesker fik god og lødig hjælp og information samt fandt hinanden i netværk. Og der kom hele tiden nye til, der fandt lindring i de råd, der var på sitet – og ikke mindst i det samvær med andre med samme sygdom, der skete på stedet.

Så kom Google Penguin. Og dermed også resultatet af disse ildsjæles lidt for ivrige brug af ankertekster og stærkt optimerede sidetitler. Og nu er det igen affiliate sites, Wikipedia og andet snavs, der fylder i side 1 på næsten alle relevante søgninger i forhold til sygdommen.

De, der allerede kender hjemmesiden, savner ikke noget. Men nye med diagnosen finder den mindre nemt på Google i dag, end de gjorde for tre uger siden.Og dermed leverer Google mere kommercialiserede og mindre valide søgeresultater til brugerne nu end før Penguin Update på det område.

Man kan med en vis ret sige, at de selv har været ude om det – de har jo bygget links i kataloger, sociale steder og via artikeldatabaser og hvad ved jeg – men de har ikke brugt nogen ekstern SEO konsulent overhovedet. Men hvad skulle de egentlig ellers gøre? Det var ikke dem, der opfandt Googles algoritme, der belønnede stærke ankertekster – det var Google. De gjorde blot, hvad Google viste dem virkede.

Nu står de med en opgave foran sig, som kræver professionel hjælp. Og de penge kunne de have brugt på at hjælpe medlemmer til et bedre liv med sygdommen – men sådan skulle det ikke være.

Konklusion?

Ikke en hel masse andet, end at jeg har lyst at dele en anden side af pingvinen med dig – en side af den, der ikke rammer affiliates eller andre købmænd. I stedet rammer den syge mennesker. Og eksemplet er ikke alene. Her i USA er der mange af dem også.

Sagen er jo, at Google har næsten monopol på internetsøgning i mange lande – for eksempel i Danmark. Det stiller særlige krav til Google, og det er krav, som de ikke helt har levet op til her. Jeg erkender, at der er tale om en algoritmisk opdatering, men så må jeg bare sige, at den ikke er god nok. “Do no evil” er et meget stærkt “brand”, og det forpligter. Endnu mere i et monopol.

Hvad siger du? Har du lignende oplevelser?

Rosenstand out!

 

Vælg at kommentere via enten G+ eller normalt

49 kommentarer

  1. Kommentar #1 af Jimi Hove den 11/5 2012 kl. 17:19

    Godt skrevet Thomas !

    Min egen, stærkt farvede, mening er at det simpelthen er en skandale det her. Udover alt det du skriver her, så giver det ingen mening overhovedet. Alle der er bare medium gode til seo finder en løsning. Alle der ikke er det, de bliver nakket. Altsammen for at tilfredsstille nogle mennesker som er misundelige på folk der arbejder med seo.

    There.. I said it

  2. Kommentar #2 af Søren Sprogø den 11/5 2012 kl. 20:02

    Jeg skal ærligt indrømme, at jeg ikke har sat mig godt nok ind i Pingvinen endnu.

    Men her i lille DK, lugter det så ikke lidt af de gode gamle AltaVista dage? Altså hvor du kan få et site til at ranke vha. onsite title tweaking, cloaking og keyword stuffing?

    For hvis det er sandt, så går det jo brutalt ud over indholdet. Og det ville være noget rigtigt, rigtigt skidt.

  3. Kommentar #3 af Thomas Rosenstand den 12/5 2012 kl. 00:32

    Tja – du kan stadig få et site til at ranke med diverse funny stuff metoder, men det holder ikke så længe, som det gjorde engang.

    Jeg kender til eksempler, hvor massiv linkbuilding fra engelsksprogede sites med meget dårlige tekster og et dansk keyword som ankertekst har boostet et dansk site markant og pænt højt op på side 1 i Google på en meget konkurrencepræget søgning. Den linkbuilding har kørt i nogle uger op til Penguin Update, og det omtalte site er helt uberørt af den ekstremt tydelige spammy linkbuilding. Så det er i hvert fald sikkert, at Googles update er hullet som en si.

  4. Kommentar #4 af Thomas Frost den 12/5 2012 kl. 18:54

    @Thomas
    Jeg har det ret blandet med det der bliver skrevet her.

    Omkring dit sidste eksempel som er decideret spam, så burde sites der baseres på den slags linkbuilding ikke ranke. Men omkring dit eksempel med den her danske forening har jeg det mere blandet.

    Spørgsmålet er jo egentlig ret enkelt, skal Google belønne folk der sidder og laver tydelig manipulation med meget optimerede anchortekster? Er det ikke deres job at prøve at forhindre den slags i at virke for godt?

    For som jeg læser det har foreningen fundet ud af hvad der virker, og så ellers kørt på, med metoder som strider mod retningslinjerne.

    Hvis der er en anden mulighed hvor de ranker, men diverse spammere ikke gør, så er jeg klar på det, men det er bare svært algoritmisk at skelne moralsk på to sider hvor den ene er en god forening og den anden er en affiliate side, hvor begge bruger samme spammy linkbuilding metoder.

  5. Kommentar #5 af Thomas Rosenstand den 12/5 2012 kl. 19:43

    Tja Thomas – virkeligheden er jo som bekendt klog, og den er altså, at stærkt manipulerede sites outranker sites, der IKKE har benyttet sorte teknikker men udelukkende har benyttet de samme ankertekster i eksterne links.

    Så det, du siger, er altså: Det kan ikke gøres algoritmisk præcist nok, og derfor er det acceptabelt, at et nonkommercielt site med en vigtig funktion outrankes, fordi det har benyttet sig af artikeldatabaser og rigeligt med ankertekster? Og hvor i Googles retningslinjer står der, at du ikke må bruge samme ankertekster de steder, hvor du kan få publiceret indhold?

    Tillad mig at citere fra din profil på Amino: “Jeg er generelt tilhænger af langsigtede løsninger der bygges op med tålmodighed. Metoderne er i det hvide/grå område, altså ingen forumspam eller commentspam,når vi taler linkbuilding, men gerne kreative metoder der går lige til stregen.” – og der har du ordet “linkbuilding” som ankertekst til dit site. Det er sådan cirka sådan, det omtalte site i artiklen har arbejdet med deres site. Er det så åbenlys manipulation stadigvæk?

    Og bare for en sikkerheds skyld: Jeg synes ikke, der er noget galt med din profil eller links og ankertekster, men det er bare ikke en disse forskelligt fra det site, jeg omtaler ;-)

  6. Kommentar #6 af Thomas Frost den 12/5 2012 kl. 19:56

    Jeg har ikke skrevet noget om hvad der er acceptabelt, blot at det er svært algoritmisk at se forskel på en god forening og et spammy site, hvis de to sider bruger samme metoder.

    Rimeligheden kan vi vende tilbage til, det interessante er vel forslag til hvordan Google algoritmisk skal kunne se at foreningen er reel når deres backlinkprofil ikke er.

    Jeg kunne naturligvis godt tænke mig at se foreningen øverst, men jeg har svært ved at komme med et bud på hvordan det løses algoritmisk.

    Omkring Googles retningslinjer er jeg ret sikker på der ikke står noget helt specifikt om enslydende ankertekster, men den generelle tolkning er at man ikke må manipulere med SERPS, herunder links der oprettes kun med det formaål at at sende pagerank eller ankertekst, er det ikke korrekt?

    Men tilbage til spørgsmålet, hvordan skal Google algoritmisk vurdere at en spammy unaturlig linkprofil tilhører en seriøs og god forening? Så kan vi diskuttere rimeligheden senere, men her tror jeg vi er enige ;)

    P.S. Vi snakkes i morgen, klokken er 01.00 her, og jeg skal tidligt op i morgen.

  7. Kommentar #7 af Thomas Rosenstand den 12/5 2012 kl. 20:03

    Helt enig – det kan Google ikke se. Og dermed er vi ved at nå til kernen af det budskab, jeg forsøgte at formidle: Når nu fætter Google sidder med det næsten-monopol, de gør – er det så OK at styre verden algoritmisk alene?

    Jeg har ikke de vises sten her – jeg forholder mig blot til, at der er tabere i denne seneste update fra Google, der uden kommercielt sigte og uden at overtræde nogen retningslinjer har fået høvl.

    Hvis du for eksempel tjekker de forskellige søgninger inden for penge og lån, vil du bl.a. se, at temmeligt flade og 100% Made For AdSense sites outranker både banker og låneselskaber – det gjode de ikke i samme grad før pingvinen. Derfor er det mit oplæg, at pingvinen er fejlet. Den har helt sikkert fjernet noget “spam”, men den har til gengæld promoveret endnu mere af samme skuffe (og værre slags end før).

    Og Thomas: Kan du ikke fortælle mig i stedet, hvad du som SEO’er KAN gøre, hvis du fortolker Googles retningslinjer, som salafisterne fortolker Islam? Du kan ikke skrive gode sidetitler – det er manipulation. Du kan ikke lave ét link med en ankertekst – for usability-mæssigt er “klik her” og den slags mere venligt. Og sådan kunne vi blive ved.

    Men strengt fortolket har du ret – såmænd. Virkeligheden fungerer bare lidt anderledes for de fleste af os (også for dig, kan jeg se ;-) )

  8. Kommentar #8 af Erik Hamre den 12/5 2012 kl. 21:53

    Jo, det synes jeg er et kæmpe problem. Google har nok ramt dem de ville, men der har ikke været bedre sider til at erstatte dem. Det virker som om der desværre nu fra Google’s side sættes lighedstegn mellem SEO og spam – kategorisk, hvor det jo faktisk ofte er de sites og firmaer med SEO folk på vognen som leverer de bedste sider. Og når Google nægter at rådgive om god SEO, så må man jo prøve sig frem. Jeg mener jo det er på grænsen til bondefangeri hvis man virkelig anbefaler sine kunder bare at skrive godt indhold og være på de sociale medier, som Google ellers anbefaler. Hvem skal i øvrigt beslutte hvilken maler der skal ligge øverst? Ham der har skrevet en masse om maling eller ham der er ude og arbejde for sine kunder?

    Jeg synes Google er vildt hyklerisk på dette område, især når størstedelen af nettets spam kommer fra deres eget Adsense program, som ligefrem opfordrer til ikke at give brugerne det de vil – for så klikker de på en reklame. Uden Adsense ville søgeresultaterne se langt bedre ud og vi slap for de dybt forkastelige sider som vil tjene penge på andres sygdom og desperation.

    At Google ikke kan lide affiliates er vi godt klar over, det går jo ud over deres egne product placements, men gode affiliate sites giver ofte mere værdi i et søgeresultat end 9 brands og en Wikipedia artikel.

    Det er i hvert fald mit synspunkt set fra affiliate siden.

  9. Kommentar #9 af Peter Lauge den 12/5 2012 kl. 21:56

    Jeg har ikke nogen sites som er berørt af denne sidste G opdatering. Og jeg havde sikkert en mening hvis jeg var blevet smidt om på side 27 :-)

    Mne jeg syntes stadigvæk der er alt for meget “skidt” i G’s SERP, og forstår ikke at de ikke ryder mere op.

    Og så syntes jeg det er kedeligt for konkurrencen, at f.eks. vi danskere kun bruger én søgemaskine. Det er utroligt meget magt vi lægger i en privat virksomhed, som dårligt nok betaler skat i landet. Vi ved jo godt, at hvis ikke man findes på side 1, så findes man bare ikke.

    Vi kommer nok til at bruge G som næsten eneste søgemaskine de næste mange år frem. Så jeg ville ønske mig at G lavede flere forskellige for søgeresultater. Hvorfor er det altid de samme 10 sites der ligger top 10 på “legetøj”? Der er et hav af små legetøjs shops som også har gode tilbud.

    Det burde være muligt at slippe for en artikel på dr.dk om kaffe og en side på Wiki Pedia også om kaffe, hvis jeg vil købe kaffebønner. I det hele taget ville jeg gerne kunne sætte en parameter når jeg søger, om hvad hensigten er med min søgning. Vil jeg købe kaffe eller læse om kaffens historie m.v.

    PS/ jeg bruger selv kun G i 99% af alle søgninger – desværre.

  10. Kommentar #10 af Thomas Rosenstand den 12/5 2012 kl. 22:18

    Spot on, Erik!

  11. Kommentar #11 af Thomas Rosenstand den 12/5 2012 kl. 22:22

    Peter: Om ikke så længe rulles SPYW ud i Danmark også, som det allerede er her i USA, og så får du det, du efterspørger et stykke ad vejen. Så er det pludselig dit netværk i G+, der er med til at påvirke, hvad du ser. Det er derfor, det her er så FORBANDET vigtigt for danske online købmænd at forstå NU: http://www.concept-i.dk/blog/google-plus-guide.html

  12. Kommentar #12 af Thomas Frost den 13/5 2012 kl. 07:24

    @Thomas

    “Og Thomas: Kan du ikke fortælle mig i stedet, hvad du som SEO’er KAN gøre, hvis du fortolker Googles retningslinjer, som salafisterne fortolker Islam? Du kan ikke skrive gode sidetitler – det er manipulation. Du kan ikke lave ét link med en ankertekst – for usability-mæssigt er “klik her” og den slags mere venligt. Og sådan kunne vi blive ved.”

    Jeg kan gøre alt hvad der virker som jeg mener Google ikke ikke kan spotte algoritmisk, og som ikke rejser nogle flag til manuelle reviews. Jeg skrev om manipulation og gav to åbenlyse eksempler, men jeg har intet skrevet om sidetitler eller ankertekster i reele tekster, og jeg har heller ikke skrevet noget om hvordan man bør arbejde.

    Som jeg læser dit første indlæg så har foreningen hovedsagelig oprettet links på artikeldatabaser og linkkataloger, dvs oprettet links med det ene formål at sende pagerank og ankertekst videre, i den tro at det var ok. I forhold til min Amino-profil, så har jeg ikke oprettet de links med det ene formål, så jeg kan nu sagtens se en forskel på de eksempler.

    Alle der arbejder med SEO overtræder fra tid til anden en af Google retningslinjer på den den ene eller anden måde (undtagen profeten Rand Fiskin), og det lyder som om det foreningen har gjort har været at oprette en masse links KUN med det ene formål at manipulere og har i øvrigt undervej nok skaffet sig en meget unaturlig linkprofil(?).

    Vi er altså enige om at Google algoritmisk har meget svært ved at se forskel på den gode forening og spamsites hvis de bruger samme metoder, og vi er også enige om at foreningen burde ligge i top, rent moralsk. Så langt så godt :)

    Hvis ikke vi har nogle algoritmiske forslag til at løse problemet, så må der jo manuelle tiltag til (?).

    Enhedslisten ville jo nok foreslå at Google skulle nationaliseres og for overskuddet skulle de ansættes folk til manuelle reviews på månedsbasis :). Den løsning er jeg personligt ikke til.

    L.A. ville nok sige at Google er en privat virksomhed som hele tiden gør det så godt de kan i forhold til deres søgeresultater, så vi kan ikke bare pålægge aktionærerne udgifter til manuelle reviews.

    Selvom jeg er af den holdning at foreningen burde ligge i top, så mener jeg ikke man kan pålægge markedets bedste søgemaskine ekstra udgifter fordi man ikke mener de leverer et ordenligt produkt.

    Det kan være, der er en løsning, jeg overser og jeg er helt åben for forslag, men lige nu kan jeg kun se vi kan sidde og være utilfredse med SERPS uden egenlig at have nogen løsning på hvordan det kan blive bedre, med mindre man mener Google skal pålægges at drive sin forretning anderledes.

    Måske vi bare skal lave tiden arbejde og lade Google+ blive mere dominerende, da der er mange muligheder for at lade Google+ blive en endnu vigtigere rankingfaktor, både hvad angår author-trust, men også site-trust i forbindelse med +1´ere fra profiler med tydelig reel brugeradfærd som andre brugere med tydelig reel brugeradfærd følger.

    Men hvad er så ideerne til løsninger? Skal vi tålmodigt vente på Google+ som kan løse nogle problemer (men som også kan manipuleres), eller skal Google og deres aktionærer pålægges ekstra udgifter til manuelle reviews, eller noget helt tredje?

    Skal Penguin eventuelt rulles tilbage? Omkring Penguin skal man jo huske at det ikke bare handler om at gøre SERPS bedre, der er jo også en MASSE spin som folk helt åbenlyst hopper på. Flere af dem der har skrevet til mig efter min Aminotråd hvor jeg bad om Penguin-ramte sites, skriver direkte at de er bange for at linkbuilde til deres andre sites fordi de er bange for at blive straffet. Så et langt stykke hen af vejen virker Googles spin, og når Google laver disse store opdateringer skal man bare huske at det også i den grad handler om spin, og om at skræmme den almindelige hjemmesideejer, så det stadigvæk kun er få-tallet der sidder og ved hvordan man gamer SERPS.

    På spinfronten kan jeg indtil videre konstatere at Googles seneste update har virket aldeles godt for dem.

  13. Kommentar #13 af Halfdan Timm den 13/5 2012 kl. 13:26

    Særdeles velskrevet. Jeg har bookmarket teksten for alene at komme tilbage til din kommentar, Erik. Well done!

  14. Kommentar #14 af Jesper Jørgensen den 13/5 2012 kl. 15:49

    Jeg er mest p lnje med Thomas Frost her. Det har ikke gang på jorden at rate websites manuelt, så løsningen skal findes algoritmisk. Meget tyder på at Google er på vej væk fra Do No Evil til acceptable bondeofringer. det mener jeg er ok hvis det samlede resultat er til det bedre.

    For vores vedkommende har den sidste måned budt på meget turbulens, nogle kunder har tabt, andre vundet og lidt til. Vi har set en del affiliate sites forsvinde fra top fire, til fordel for mere lødige sites. samlet set ser jeg derfor Penguin som en forbedring. h
    Har man overoptimeret må man igangsætte de aktiviteter der får ens site indenfor det normale igen.

  15. Kommentar #15 af Thomas Rosenstand den 13/5 2012 kl. 16:33

    Nej – foreningen har OGSÅ oprettet artikler på artikeldatabaser etc. Men de har også siden fået masser af naturlige og autoritative links fra læger, regioner etc.

    Må nok hellere sige mere præcist, hvad mit budskab er: Penguin har fjernet sites, der har manipuleret og sites der ikke har. Men samtidig har Penguin promoveret sites med stærkt manipulerede linkprofiler OVER brand sites og helt white hat sites. Derfor konkluderer jeg, at algoritmen langt fra er god nok – og at Google qua sin status ikke kan tillade sig at udrulle en opdatering, der er så dårligt lavet som denne jo uomtvisteligt er.

    At Penguin har fjernet nogle spammy sites retfærdiggør jo ikke, at den samtidig fremhæver andre og endnu mere black hat sites. Og det er, hvad der er sket.

    Eksemplet i mit indlæg er blot ét af mange – og absolut i gråzonen, fordi de jo for år tilbage faktisk lavede links. Men lad os huske på, at de var nødt til det for at blive synlige i det virvar af spammy sites, der fyldte op på deres emne – og som nu gør det igen.

    Penguin er alt for tilfældig, ser det ud til.

    Jeg håber, det er mere klart, hvad jeg mener nu? Og at jeg om nogen ved, at Google ikke kan køre manuelle ratings.

    Løsningen SKAL være algoritmisk – men det skal være bedre eksekveret, end det er nu, hvis Google skal kunne leve op til upartiskhed etc. Det er absurd at debattere, om der skal manuelle reviews til – men det er ikke absurd at debattere, om Google har gjort deres arbejde med Penguin godt nok. Og i dette sekund outranker flade sites i WP standardskabeloner plastret til i AdSense de autoritative sites her i USA, i Danmark, i England og i andre lande til skade for brugerne og til økonomisk stor glæde for Google.

  16. Kommentar #16 af Peter Lauge den 13/5 2012 kl. 18:44

    Det er så endnu er fejl af Google, at købmænd skal bruge tid på G+.

    Jeg syntes godt om Erik’s citat: Hvem skal i øvrigt beslutte hvilken maler der skal ligge øverst? Ham der har skrevet en masse om maling eller ham der er ude og arbejde for sine kunder?

    Nå, men det bliver spændende at se hvad der sker når det kommer til DK.

    :-)

  17. Kommentar #17 af Thomas Rosenstand den 13/5 2012 kl. 18:49

    He-he – er det så også en fejl af TV2, at købmænd skal bruge tid og penge på tv-reklamer?

  18. Kommentar #18 af Jesper jørgensen den 13/5 2012 kl. 19:09

    Hej Thomas. Kan du give eksempler på konkrete Serps, hvor spammy sites er hoppet mange positioner frem omkring 24 april. Er der et mønster omkring det, er det naturligvis problematisk, men jeg har ikke selv set det mønster

  19. Kommentar #19 af Thomas Rosenstand den 14/5 2012 kl. 00:22

    Hej Jesper
    Jeg har sendt dig en mail i stedet, for jeg har faktisk ikke lyst til at hænge nogen af disse MFA sites ud her offentligt.

  20. Kommentar #20 af René Madsen den 14/5 2012 kl. 12:14

    I Googles jagt på forbedring af søgeresultaterne på søgemaskinen har de med den opdatering, der ligger nu skudt sig selv lidt i foden.

    Der er mange kvalitetssites, som er blevet ramt og mange affiliate- og cloakede websites, der har fået en fornyet renæssance.

    Hvis vi ser på hvor lang tid, der gik fra Pandaen blev introduceret til den fungerede nogenlunde, så gik der ca. fem måneder, hvor der ligeledes var mange afvigere og resultater, der var misvisende.

    I dag regner vi ikke Pandaen for et stort problem mere. SEO virksomhederne har tilpasset SEO arbejdet, således det ligger indenfor rammerne af det algoritmen foretager i forbindelse med indeksering.

    Pingvinen arbejder ud fra ankertekster og på enkeltsideniveau. Der kan på et websites være få sider, der er ramt af denne kørsel med begrænset Ranking.

    Filteret kører tilsyneladende ikke kontinuerligt, der vides ikke hvor lang tid der er imellem opdateringerne og hvor lang tids karantæne, der er pålagt den enkelte url-adresse.

    Faktum er, at hvis filnavnet ændres på en url, der er fanget af Pingvinen, så begynder den selvsamme side at ranke igen, det indikerer at det er periodiserede kørsler, der er tale om, og der er lagt låg på en enkelt url ud fra navnet på urlén.

    Problemet for Google på den korte bane i forhold til kvalitets website er at der hurtigt vil komme gang i industrien for hurtige løsninger.

    Som et eksempel kan nævnes:

    Oprettelse af Mikrosites, de er hurtige at få op og vil kunne generere trafik ud fra det kvalitetsindhold, som kan sammensættes.

    Derudover er der mange andre metoder til generering af trafik, som det vil være muligt at hente fra søgemaskinerne.

    Så mit bud er at det kun er version 1. vi har set, der vil komme tilpasninger, der normaliserer billedet i løbet af en periode.

    Vi vil ligeledes se SEO virksomheder tilpasse sig den måde Google indekserer sine sider på. Når systemet er blevet mere stabilt, så bliver det hverdag igen og kundernes websider bliver tilpasset efter de nye normer.

    På den korte bane vil jeg IKKE anbefale at foretage kæmpetilpasninger af et website, men følge Pingvinen i nogle måneder, og derefter få lagt strategien for at tilpasse sitet.

  21. Kommentar #21 af Thomas Rosenstand den 14/5 2012 kl. 14:39

    Hej René

    Helt enig – men jeg har ikke selv set ændringer efter at have skiftet URL endnu. Har du noget verificeret på det evt?

  22. Kommentar #22 af René Madsen den 14/5 2012 kl. 15:27

    Hej Thomas

    Vi kan lige tage den på telefon, jeg ringer dig op lidt senere.

  23. Kommentar #23 af Thomas Rosenstand den 15/5 2012 kl. 03:51

    Jeg synes, at denne historie er meget passende her – den antyder også, at Google er “gået lidt i stykker”, ligesom jeg gør det i artiklen.

    http://www.logogarden.com/blog/branding/negative-seo-victim-strikes-back/

  24. Kommentar #24 af Thomas Frost den 15/5 2012 kl. 07:28

    @Rosenstand

    Hvad siger du til løsningen om en mulighed i GWT hvor man kan markere links som spammy?

    Så man i det mindste har muligheden for aktivt at markere overfor Google at visse links ikke er kommet pga ens content, men pga en eller anden der spammer ens site.

    Saustrup og jeg har talt om den løsning flere gange på G+, men jeg kan ikke huske om du har været med i den debat og hvad din stilling er til det.

  25. Kommentar #25 af Jimi Hove den 15/5 2012 kl. 10:06

    .. eller som jeg læste i en anden debat om samme emne : ” Det er en underlig konklusion at whitehat sider har bedre ux, bedre usability, bedre varer, bedre service og i det hele taget er bedre,end greyhat sider . Der er SÅ mange whitehat sider som er lort, hvorfor skal de belønnes ? Giver det mening ? “

  26. Kommentar #26 af Thomas Rosenstand den 15/5 2012 kl. 14:42

    Det er jo et drømmescenarie mere end noget andet, vil jeg sige. Der er jo ingen rygter (verificerbare) om, at sådan en funktion skulle komme. Men jo – jeg ville da ønske, den gjorde. Og med Googles måde at åbne for negativ SEO vil det også være artigt af dem – men om de lever op til det? Jeg vil se det, før jeg tror det.

  27. Kommentar #27 af Thomas Rosenstand den 15/5 2012 kl. 14:52

    Helt enig, Jimi. Og der er et element her, som mange glemmer at tænke på: Hvis fem hjemmesider om for eksempel “grå stær” har forbrudt sig mod Google og fået for mange ankertekstlinks eller noget andet af det ret uklare, der er forkert i deres øjne, ryger de ned og om på side 7 eller sådan noget.

    Men de fem sites kan jo sagtens være de bedste om emnet, og nu kan brugerne ikke finde dem mere. Taberne her er altså ikke kun de fem hjemmesideejere – men også Googles brugere.

  28. Kommentar #28 af Thomas Frost den 15/5 2012 kl. 15:08

    @Thomas

    Om det kommer må vi se med tiden. Du kan sagtens få ret, men jeg tænker bare at de ikke kan åbne op for negativ SEO som de har gjort, uden at komme med den løsning.

    Hvis de bare åbner op for negativ SEO uden at man har nogen mulighed for at gøre noget imod det, så må Google på et tidspunkt blive tvunget til enten at lukke for negativ SEO eller lave den mulighed i GWT.

    Og enig med Jimi i at whitehat/blackhat intet siger om kvaliteten på sitet, men det store spørgsmål er stadig hvordan Google skal løse hele problematikken algoritmisk, så man rammer rigtigt i langt de fleste tilfælde.

  29. Kommentar #29 af Thomas Rosenstand den 15/5 2012 kl. 15:13

    De kan jo gøre, som de vil, så længe de overholder lovgivningen. Og det har jeg det egentlig fint nok med. Det er faktisk mere deres hykleriske tilgang, hvor de fortæller verden, at nu rydder de op i webspam, hvorefter de kører en update, der – på mange markeder – har ført til endnu mere MFA etc. på side 1 end før.

    Men… Google tjener jo penge to gange ved for eksempel at nedrangere en bank og oprangere et MFA site om finansiering. Dels får de penge ud af klik på annoncerne, og dels er banken nødt til at købe AdWords hos Google. Det er rent win/win for Google og Google ;-)

  30. Kommentar #30 af Thomas Frost den 15/5 2012 kl. 15:18

    Hehe ja lige gyldigt hvad Google næsten gør så tjener de på det :)

    Jeg ved ikke om jeg vil kalde dem hykleriske, det er jo bare en del af deres strategi at fylde æteren med spin efter de store opdateringer.

    Og ja Google kan i princippet gøre hvad de vil indenfor lovens rammer, men det er ret tydeligt på deres offentlige måde at kommunikere på at de går ganske meget op i deres image.

    Derfor er jeg sikker på at hvis der bliver utilfredshed nok med negativ SEO, så skal de nok enten indføre den funktion jeg har foreslået eller en tilsvarende, så de igen sidder sikkert i image-stolen :)

  31. Kommentar #31 af Thomas Rosenstand den 15/5 2012 kl. 15:21

    Prøv at spørge 100 tilfældige danskere om, hvad Panda Update eller Penguin Update er, Thomas. Ingen vil kunne svare dig, og dermed er Googles image alle andre steder end hos vores lille niche aldeles uberørt.

  32. Kommentar #32 af Thomas Frost den 15/5 2012 kl. 15:25

    Det har du sgu sikkert ret i :( Jeg bryder mig bare så lidt om negativ SEO at jeg må have et håb at holde fast i :)

    I øvrigt super du har taget emnet op, man kan aldrig undgå at blive lidt klogere her i selskabet.

  33. Kommentar #33 af René Madsen den 15/5 2012 kl. 18:05

    @Thomas

    Hvis de bare åbner op for negativ SEO uden at man har nogen mulighed for at gøre noget imod det, så må Google på et tidspunkt blive tvunget til enten at lukke for negativ SEO eller lave den mulighed i GWT.

    Det åbner i SEO kredse bare en ny kanal, det der i gamle dage hed sekundær trafik, hvilket betyder der opsættes lokomotiver til at inddrive trafik til hovedsitet, så jeg formoder Google er klar over denne problematik, hvis de udelukker for mange websites i deres forsøg på at rydde op i indekset.

  34. Kommentar #34 af Kasper Bergholt den 15/5 2012 kl. 20:01

    Dejligt indlæg som altid. Jeg havde ikke regnet med at jeg skulle se den dag komme, hvor du kaldte store G for hyklerisk. Men det gjorde ikke fornøjelsen mindre!

  35. Kommentar #35 af Thomas Rosenstand den 15/5 2012 kl. 22:30

    Husk, at Google så samtidig må indrømme, at de har tabt enhver kontrol over SERPS – og det gør de ikke sådan lige.

  36. Kommentar #36 af René Madsen den 16/5 2012 kl. 00:56

    Du har ret Thomas.

    Jeg tror de arbejder på højtryk på at få foretaget nogle kørsler af pingvinen hos Google, som justerer billedet noget i forhold til det nuværende.

    Problemet for mange virksomheder, der er afhængige af organisk trafik fra Google, er de i realiteten ikke ved om de er købt eller solgt?

    Hvad mener jeg så med det?

    Fordi et site ikke er ramt i dag, så er det ikke ensbetydende med det ikke bliver ramt ved næste kørsel af pingvinen.

    Links der tilsyneladende er gode nok i dag, de kan være en tikkende bombe under et website i morgen, hvis de opfattes som skodlinks af Google.

    Det er vigtigt lige at tænke denne tanke til ende inden man proklamerer, at det ene eller andet site ikke er ramt, fordi de er dygtige programmører og fabelagtige linkbyggere.

    Det at et site er blevet ramt indikerer ikke at der er tale om et dårligt website, det viser dit indlæg og historie jo så udmærket.

  37. Kommentar #37 af Thomas Rosenstand den 17/5 2012 kl. 22:34

    Hej Kasper
    Tsk-tsk. Du skal passe på med din færden på nettet – du var røget i Akismet spamfilter ;-)
    Jeg er sjældent så sort/hvid, som jeg efterlader indtryk af – men jeg har altid været påpasselig med at dømme for hurtigt i forhold til Google, da jeg har oplevet flere tilfælde, hvor en “storm” endte med at give mening. Denne gang ser det bare ikke helt så godt ud.

  38. Kommentar #38 af Morten den 18/5 2012 kl. 03:07

    Super spændende debat, som kommer ind på flere af aspekterne.
    Men Googles største problemer er vel egentlig at vurdere, hvilket site der er bedst. For hvordan vurderes det?
    Er det ik en subjektiv vurdering? Hvis man tog 100 forskellige personer, så ville de nok komme med 100 forskellige forslag til deres top 10. Og det er vel det problem, som Google og ingen andre søgemaskiner kan finde opskriften på at løse. Og det vil det nye (det der påvirkes af ens G+ venner) næppe løse. Hvorfor skulle jeg have samme holdning til en top 10, blot fordi jeg er venner med Rosenstand? Jeg forstår slet ik ideen bag det personlige søgning, da det blot ender med at blive endnu mere misbrugt, end linkbuilding mm er idag…
    Men hvorom alting er, så det hele vel en vurderingssag, og fordi alle har en holdning, viden og forventning, så bliver vi aldrig enige om, hvilke 10 sider, der er de bedste indenfor en bestemt søgefrase…

  39. Kommentar #39 af Frank Rasmussen den 18/5 2012 kl. 15:16

    Hej Rosenstand.

    Tak for spændende læsning, jeg syntes lige jeg vil dele denne youtube video som fortæller lidt mere om Penguin, håber det kan bruges da han fortæller det på en meget forstålig måde så alle os der ikke er seo nørder kan være med :-)

    Link til video: http://www.youtube.com/watch?v=YURf5-djtlA

    Keep up the good work

    Dbh
    Frank Rasmussen
    NorthRegion.dk

  40. Kommentar #40 af Kasper Bergholt den 19/5 2012 kl. 12:19

    Hej Thomas!

    Det var da irriterende med Akismet. Måske skyldes det, at jeg skifter ip-adresser forholdsvis ofte; skal ikke kunne sige det.

    Har du for resten nogen erfaringer med, hvorvidt pingvinen rammer enkeltsider? Det meste, jeg har læst, indikerer, at det er hele sites, men jeg synes jeg har sat de første tre eksempler på undersider, der bliver ramt (nok af for hårdt optimerede ankertekstlinks).

    Alt godt,

    Kasper

  41. Kommentar #41 af Thomas Rosenstand den 19/5 2012 kl. 16:24

    Hej Kasper
    Bytter du ikke rundt på sites og sider? Jeg har ikke endnu set hele sites blive ramt af pingvinen – samtlige de eksempler jeg kender er enkelte sider (nogle gange mange). Men jeg har ikke set et eksempel på et helt site endnu.

  42. Kommentar #42 af Kasper Bergholt den 19/5 2012 kl. 16:48

    Hej Thomas!

    Nej, jeg byttede ikke om. Men det, jeg har læst, kan meget vel have været forkert. Det, jeg har set, har også været enkeltsider (og som du skriver evt. mange af dem), snarere end hele sites.

    Alt godt,

    Kasper

  43. Kommentar #43 af Joachim Løvgaard den 31/5 2012 kl. 15:45

    Hej Thomas

    Nu har jeg ikke lige læst alle kommentarer, men til din historie, så sidder jeg tilbage med spørgsmålet, om det netop ikke er fordi at de folk der bliver ramt på den måde du beskriver her, er dem, som linkbuilder/optimerer alt for snævert. Det ved jeg du selv er inde på i adskillige sammenhænge, og det skyldes jo tit, at folk har været til et eller to foredrag om SEO, og så tror de, at nu kan de bare det der.

  44. Kommentar #44 af Thomas Rosenstand den 31/5 2012 kl. 16:04

    Jo – lige præcis, Joachim.

  45. Kommentar #45 af Sergej Malinovski den 4/6 2012 kl. 02:28

    Professionel SEO må bare være en del af organisationes marketingbudget. Man har altid været nødt til at betale noget for at få exposure uanset om man er profit eller non-profit, så kan ikke rigtig se problemet i det. Google er nødt til at forny deres algoritmer uden at tage specielle hensyn, eller døer de en stille død.

  46. Kommentar #46 af Jonas Jacobsen den 9/6 2012 kl. 10:31

    Det store problem for mig er, at links, title-tags, H1-H6, DC osv. ikke har noget at gøre med min brugeroplevelse som netsurfer. Det er udelukkende for at fortælle en søgemaskine, at her er vi og det tilbyder vi. Bevares – man har altid skulle markedsføre sig og det tager også tid og viden at lave en god reklame til TV, men forskellen er, at en reklame i TV kommunikere med brugerne – det gør SEO ikke.

    Jeg synes, det er helt forkerte parametre, der bliver lagt vægt på hos søgemaskinerne. At jeg forstår baggrunden er noget helt andet, men jeg mener ikke, at det fremmer min oplevelse på et site.

    Det er også dybt naivt af Google, at de bliver ved med at postulere, at man bare skal benytte sig af de sociale medier, for så finder folk ud af, hvor godt det er. Man kan godt være kreativ og finde på noget skørt/sjovt/spændende, som tiltrækker folks opmærksomhed men det er bare kun en lille promille, der virkelig rammer jackpot på den måde.

    Hvad der derimod burde blive vægtet er, hvor længe brugerne bliver og hvor mange sider de læser på et pågældende site indenfor visse søgeord. Sider der ligger #30 på et søgeord får aldrig noget trafik og ejeren af siden ved dybest set ikke, om det er en god eller dårlig side. Som en trådskriver er inde på, så er der sikkert en masse gode børneforretninger, som har gode tilbud, men de bliver aldrig vist frem for publikum. Så der burde være en rotationsordning, så alle sites på en eller anden måde får en chance for at vise, hvad de kan og om brugerne rent faktisk kan lide det site ved at være der længe og læse mange sider.
    Som det er lige nu, så får et nyt site typisk trafik på nogle umulige longtail keywords, med det resultat at brugerne bouncer og det går ud over googles samlede vurdering af sitet, da sites ikke performer efter deres vurdering – måske havde resultatet været et helt andet, hvis det site faktisk havde fået trafik på de søgeord, som de faktisk har målrettet deres site efter, men som der er stor konkurrence på.

    Jeg har ikke den tekniske løsning til, hvordan det skulle implementeres eller hvordan dataopsamling og vurdering præcist skulle foregå.
    Jeg kan bare konstatere, at jeg ikke synes, det er godt nok som det sker nu.

  47. Kommentar #47 af Søren Hansen den 16/6 2012 kl. 17:15

    Vil det hjælpe at man bruger “møllehjullet” i sin SEO strategi. Jeg mener at hvis man f.eks. en vinge skaffer gode indgående links, og på en anden laver gode tekster på sitet, og fortsætter med at lave videomateriale med indgående links, og søger for at der er en god intern linkstruktur. Hvis man fortsætter med denne metode løbende vil det have indflydelse på om man kunne blive slagtet af google?

    Jeg har selv mærket en nedgang i placeringerne på google, og dermed færre besøgende.

    Dbh. Søren Hansen
    privatealarmer.dk

  48. Kommentar #48 af Thomas Rosenstand den 16/6 2012 kl. 22:24

    Jeg er ikke 100% sikker på, hvad du mener. Men det, du beskriver, er jo ren white hat SEO strategi så længe, du ikke køber de links, du skaffer. Og det er, hvad Google SIGER, er godt. Men vi ser jo i hundreder af sites, der “straffes” alligevel.

  49. Kommentar #49 af Simon Jakobsen den 10/1 2013 kl. 15:03

    Hej Thomas

    Godt skrevet og godt eksempel du kommer med, ved at stille bekæmpelse af sygdom op mod wikipedias vilde pagerank.

    Jeg er helt enig med dig i om det overhovedet kan være i orden at lade folkene bag google bestemme, hvilke ting der skal frem og hvilke ting der ikke skal. Da de i den grad dominere online og bestemmer hvad folk skal se og ikke skal. Dog tror jeg ikke der er noget at gøre pga. Det jo er google der sidder på magten. Selvom det føltes etisk ukorrekt.
    Jeg vil lige sige, at til jer der ikke ved så meget om google pingvin kan i få lidt basisviden her:
    http://en.wikipedia.org/wiki/Google_Penguin

Efterlad en kommentar

Din kommentar kan ikke ses, før den er godkendt af os, hvis det er første gang, du kommenterer her.
Det gør vi hurtigt, så om lidt er du en del af debatten. Tak for dit indspark!

Loading Facebook Comments ...