Episode 8: Negativ SEO

I dagens afsnit vil Alexander Leo Hansen og Henrik Bondtofte tage et kig på et kontroversielt emne i SEO-verdenen: Negativ SEO.

Negativ SEO er en praksis, hvor en person forsøger at skade en anden persons eller virksomheds SEO-indsats ved at bruge teknikker, der overtræder Googles retningslinjer. Dette kan omfatte at oprette spammy backlinks, kopiere andres indhold eller endda hacke en anden persons websted.

Men er negativ SEO stadig en reel trussel i dag? Er det noget, du som webstedsejer skal være bange for? Og er det overhovedet lovligt at lave negativ SEO? Disse spørgsmål og mange flere vil vi besvare i dette podcast.

Vi vil diskutere, hvad negativ SEO er, og hvordan det kan påvirke din SEO. Vi vil også give dig tips og tricks til at beskytte dit websted mod negativ SEO og hvordan du kan identificere og håndtere det, hvis det allerede er sket. Endelig vil vi diskutere, om det er muligt at lave negativ SEO uden at bryde Googles retningslinjer, og om det er noget, du selv bør overveje.

Så hvis du vil lære alt, hvad der er at vide om negativ SEO og hvordan man beskytter sit websted mod det, så bliv hængende og lyt med.

Transkribering

Hej og velkommen til Linkbyggerne. Mit navn er Henrik Bondtofte, og med mig har jeg min gode kollega Alexander Leo Hansen. I dag skal vi tale om emnet negativ SEO eller negativ søgemaskineoptimering, som man også kan kalde det. Alexander, er det noget, du kunne tænke dig at give en lille intro til?

Ja, altså negativ SEO handler om at gøre noget negativt, typisk ikke for sit eget site. Det var noget, der var ret stort for en del år siden, hvor man faktisk kunne komme ud i den situation, at man pludselig opdagede, at ens site mistede mange placeringer. Man vidste måske ikke helt, hvad det skyldtes, men så kunne man finde ud af, at der var kommet en masse dårlige links til ens site. Det er et ret stort problem, for når man vælger at bygge links til sit site, gør man det jo med henblik på at opnå nogle autoritative links, som giver en god autoritet for sit samlede domæne. Men her kommer der pludselig andre, som faktisk vælger at bygge links til dit site med det ene formål, at det skal være negativt.

Så i virkeligheden endte det med at blive en form for sabotage, hvor man optimerer negativt i stedet for at få positive anbefalinger til sit website. Det fører til, at man får bedre placeringer eller øger sin mængde af placeringer. Tilgangen her er direkte omvendt: man sender dårlige links afsted i håbet om, at Google opdager disse dårlige links og fjerner synligheden fra websitet. Så det er i virkeligheden en slags sabotage. Ja.

Ja, og det er også vigtigt at sige, at det typisk var andre, der gjorde det mod ens eget site. Det var ikke folk, der selv gjorde det. Men hvordan og hvornår blev det aktuelt? Altså, hvornår var det, Google begyndte at implementere det her?

Henrik, man kan sige, helt præcist skete det den 24. april 2012, da Google udgav en ny linkspam-algoritme kaldet Google Penguin. Før denne opdatering var der aldrig noget med, at Google straffede websites for indgående links, men det blev et faktum, da denne opdatering rullede ud den 24. april 2012. Google Penguin gik efter at formindske synligheden på websites, der i overvældende grad brugte skadelige teknikker til at opnå flere backlinks til deres website. Man kan så sige, byggede man bare links dengang? Ja, det gjorde man, men man byggede ufatteligt mange links, også links af meget dårlig kvalitet.

Nogle eksempler på typer af links, som Google så negativt på, kunne for eksempel være forumprofiler, hvor man havde oprettet en bruger inde på et forum, skrevet en lille smule om sig selv og så linket tilbage til sit website. Den praksis er der ikke noget galt i, hvis du gør det på de fora, du er aktiv på, men i stedet fandt eller lavede man lister med flere tusinde fora og oprettede profiler på alle disse fora udelukkende for at lave et backlink til ens website. Disse fora var hverken relevante for indhold eller noget som helst andet. Samtidig kiggede Google også meget på mængden af indgående links, altså hvor hurtigt de kom til. Hvis du fik en meget stor mængde links meget hurtigt, var der en stor chance for, at Penguin ville ramme dit website.

Det, der var ret unikt dengang, også da Penguin begyndte at rulle ud, var, at man mistede synlighed på store dele af ens website, og nogle gange blev hele ens website usynligt, når Penguin ramte det. Og det var et problem, fordi…

Der gik cirka et år imellem, at Google trak i håndtaget. Det var en manuel algoritmeopdatering, så det vil sige, det var nogen inde på Google, der skulle trykke på en knap og sige “nu kører vi opdateringer igen”. Udfordringen ved det var, at når man først var ramt af Penguin, var det først muligt at komme ud af den straf, man havde, når Penguin kørte igen. Så første gang den kørte, gik der et helt år før vi kunne se recovery af sites. Det er i virkeligheden det der…

Jamen, og så kan man sige, det var det, der gjorde det rigtig svært også at arbejde med, for at også SEO-folk skulle kunne finde ud af, hvad det egentlig var, der ramte dem. Google havde jo bare en ret bred beskrivelse: “Det rammer linkspam”, men folk var meget interesserede i at finde ud af, hvad det var for nogle former for linkspam og hvor grænsen gik, fordi vi skulle jo arbejde med links. Og det blev markant sværere, når man først så det et år efter, hvad det rent faktisk var, der virkede. Normalt kigger man jo også på flere opdateringer, før man egentlig kan lave en konklusion på, hvad der forventeligt er det, der har trigget denne algoritme. Så det var en meget svær periode.

Ja, og Googles formål med at komme ud med denne opdatering var egentlig at ramme dem, der havde virkelig optimeret deres eget site med nogle ret spammy links, og det var også det, man kunne se. Man kunne lave nogle ret dårlige links til ens eget site og så opnå en absurd god effekt. Så det var for at ramme dem, der byggede links til deres eget site af meget tvivlsom karakter og alligevel kunne se nogle rigtig fine stigninger. Men så er det jo, at når man vælger at gøre det her og komme med Google Penguin-opdateringen, så er det, at man ligesom kunne se, at der var konkurrenter, der pludselig fik den smarte idé at begynde at lave det her negative SEO. Og som du også selv kommer ind på, så var det jo lidt problemet, at hvis man blev ramt af negativ SEO af ens konkurrent, som selvfølgelig er super ulovligt, så var det, at man kunne være helt ude af Google i lad os sige bare et halvt år, indtil opdateringen for eksempel blev kørt igen. Så det var et kæmpe problem for alle de forskellige sites.

Det har selvfølgelig også været lidt et problem for dem, der måske har bygget lidt for mange spammy links og så blev opdaget af Google, og så ville man selvfølgelig prøve at fjerne dem igen for at følge Googles retningslinjer. De er selvfølgelig også blevet ramt, fordi de har også været ude i et vist antal tid i forhold til, at den er blevet opdateret igen. Men hvordan er det så så så var det den her det så var jo funktion inde i Google search console. Den blev ret ret ret brugbar.

Tænker Det var jo Det var jo en funktion som Google decideret lavet til de websites der var blevet ramt af Google Penguin, og ideen var at man så indsendte en liste over links, som man synes var spammy, og som man ikke selv havde lavet. Man kunne så bede Google om at se bort fra dem. Og den her disavow-fil, Det var noget, vi vi brugte i lang tid. Det var den anden stadig. Disse var jo værktøjet. Det store spørgsmål er bare den dag i dag, hvad brugte man værktøjet til? Brugte Google det til at samle mere information? Altså man kan sige, Der er jo noget ræson i at få webmastere til at indsende lister med links, som de selv synes ser spammy ud, så får du lige pludselig en meget stor database med.

Potentielle spam links, som måske kan være svær at opfange algoritmisk, og det kunne man jo altså de her data kunne man jo tage og så bruge noget deep learning og så implementere det direkte ind i en algoritme. Så spørgsmålet er om om det så var jo filen i virkeligheden er hjulpet Google mere end har hjulpet website ejerne, men Det var klart min opfattelse, når man brugte det show filen i hvert fald dengang så gjorde det en forskel for Google, når man skulle køre reconsideration request, så man også kunne når man var blevet ramt af Google Penguin, så altså man indsendte den her disavow-fil og så sendte man en reconsideration request. Men Det var så først når Penguin kørte igen, at websites overhovedet havde mulighed for at komme ud. Så Det var en alvorlig straf på, at man kan også sige for de websites, der så decideret blev ramt af negativ SEO. Altså Der er jo nogen der har mistet deres forretning. Man kan så sige dem der har været mest sårbare. Det er selvfølgelig dem der udelukkende har levet af organisk trafik, og Det er jo heller ikke noget, vi anbefaler som medarbejder i et bureau den dag i dag. Det er simpelthen for sårbart, og Jeg vil hænge en enkelt trafikkilde, også selvom Det er organisk, og Det har også gjort, at man har skullet øge budgetterne på Google Ads og så videre for at kunne få tilsvarende mængder af omsætning ind, som måske har været nødvendigt for at drive forretningen, så Det er bare.

Alvorlige tider for for mange websites, men det blev lidt ændret over tid fordi i 2016 så kommer der jo en ny udgave af af Penguins, som Google kalder for Hyper Penguin, og den her opdatering der, eller Google lancerer den på Google, siger at de har gjort penguin meget mere granuler og nu kører den for øvrigt aktivt altså som en real-time algoritme i Google services, så det vil sige at Google løbende vurderer hvad det nu hedder. Potentielle spamme links, men det andet den anden ret store ændring de kom med, Det var, at de i stedet for at straffe websites og deciderede hjemmesideadresser på et website for den sags skyld. Jamen så gik man, gik man i stedet i gang med at se bort fra de her spamme links. Det vil sige man jo bare være med at lade dem akkreditere nogle former for links værdier. Så lad os sige der var 1000 links og kun 800 af de her links der pegede på websitet.

Eller hvad? Det hedder kun 200 af de her links der pegede på websitet rent reelle indgående links. Resten var spam links når man selv havde på den ene eller anden måde produceret. Men så så vi Google bare se bort fra de 800 links og så vil din linkprofil egentlig bare bestå af de her 200 links når du så selv kigger på din linkprofil så vil du forstå du har 1000 indgående links og så vil man selvfølgelig undre sig over at du ikke har større synlighed når du har 1000 indgående links og din synlighed sandsynlige med afspejler du har omkring de 200 links fordi Det er Google eller Det er Google ser så den dag i dag er det faktisk umuligt at vide om et link rent faktisk overfører link, fordi fordi at Google kan have nogle effekten på det pågældende domæne, Sådan at det ikke er krediteret til din linkprofil og dermed synlighed. Og man kan så også sige, at efter Hyper Penguin så kom så så er der lidt mindre risikoer, eller så er der lidt mindre grund til at være bange for negativ SEO, som altså direkte var en decideret truet.

Ja, så det. Det vil jeg også sige at ja, de har jo helt fjernet en negativ effekt ved at få et dårligt link ind, så så både både sandsynlighed for at der bliver bliver lavet negativ SEO mod en den er, så den er også helt forsvundet, kan man sige, og det gør jo så også det, at når man selv sidder og arbejder aktivt med linkbuilding, så skal man heller ikke rigtig være nervøs for at man man Sådan. Hardcore overoptimere sin sin linkprofil fordi at man. Bare for nullet effekten ud af de her links altså så så Der er ikke nogen negativ effekt. Der er bare ingen effekt på nogen links.

man kan jo godt sidde og lave den her slags type af crappy links, men chancen for at den har en effekt af forsvindende lille, så er det mere sådan: Hvorfor skal man så gøre det? Altså det er jo bare spild af tid, men lad mig lige sammen. Altså det er også vigtigt at lige fortælle hvordan man egentlig lavede links dengang, fordi at det kan jo godt lyde som om, at vi snakker om at det var websites der lige købte et par links fra nogle medier engang imellem og fik nogle linkkatalog links, men det var altså en meget voldsom volumen. Jeg kan sige dengang jeg arbejdede heftigt med linkbuilding, altså det altså tilbage i 2010 og sådan. Det var jo nærmest spam man lavede. Altså jeg kunne jo godt lave 50 links på en dag, det ville vi jo ikke kunne gøre den dag i dag. Nogle af vores kunder så altså jeg brugte man jo både automatik og en masse forskellige metoder, og så kunne du masseproducere site så jamen der var så mange teknikker der virkede dengang og og vi bruger jo ikke en brøkdel af de teknikker den dag i dag, og det er jo særligt også fordi de ikke har nogen effekt. Så man skal ikke være bange for at selv heller nej eller at købe links for den slags.  Ja og det er jo det er jo mere. Altså. Fokus bør så også være på at man man kigger på de links man så vælger at bygge, altså det er jo så sådan i forhold til. Til brug af ankertekster også hvor man linker ind til selve sit site. Det er jo nok mere det der har har super stor relevans i dag at man ikke overoptimerer.

Ved kun at bruge de samme samme ankertekster. Det synes jeg, vi har set flere cases på hvor at der er nogle sites der bare har vil ville ranke nummer et. På deres helt specifikke søgeord, og så har de kun optimeret mod det. Og det er jo det er jo sådan noget, man i hvert fald ikke heller ikke kan anbefale.

Absolut ikke, og det er jo altså man kan sige da Penguin kom. Der var den rigtig aggressiv i forhold til noget ankertekster, og jeg vil sige det er faktisk helt tilbage fra dengang vi har lært at være lidt mere moderat med hvordan man bruger ankertekster og generelt set så altså optimeret ankertekst har en rigtig rigtig stor effekt, men lige så snart du har for mange af dem, så bliver det en sladrehank, så har det modsatte effekt, fordi det ser unaturligt ud. Altså det er jo noget man stad

Deltag i diskussionen