Det här är vad jag tror hänt på Google under det senaste året.

Det finns nu 3 st databaser (datacenters/dc’s).
Det primära dc’t är för hemsidor/sidor som har:
a) Konstant bra kvalitativa, nya länkar till sig. utan masstillverkning.
b) Kan hända att det hjälper med att addera nytt material konstant.

Denna databas har sin egna uppsättning av algoritmer för sökoptimering. Om relevans finns för söktermen så kommer hemsidor ur detta dc’t att ranka bra efter sökoptimering och sökresultatet att komma högt upp. Det är som om dom redan har bonuspoäng av något slag.

Den andra databasen är för hemsidor som har bra inkommande länkar men “temat” är inte riktigt “rätt”. Kanske för få nya länkar eller innehåll som inte uppdaterats på flera månader. Dessa hemsidor kan ranka bra i sökresultaten vid hög relevans (kanske för att sidans titel matchar sökningen bra) men hemsidor i det primära datacentret kommer alltid att ranka högre om förhållandena är likvärdiga.

Hemsidor i det andra dc’t är känsliga för fler “sido faktorer” och vara utsatta för en roterande algoritm på Google. Vilket kan resultera i några veckors topplacering för att sedan droppa lite under några veckor. Detta var vanlligt vid sökoptimering sör ca ett år sedan och verkar nu vara tillbaka i ny tappning.

Google vill ha variationer i sina resultat och det verkar dom göra via det sekundära indexet. Hemsidor i det första datacentret är mindre känsliga för en roterande algoritm.

Det tredje datacentret består av nya hemsidor och “duplicate content” (samma innehåll). Dessa är dom sista Google presenterar och kommer endast upp i sökresultaten efter sökoptimering om få matchningar finns i dom två andra datacentrerna. Sättet att komma ur detta indexet är att ha unikt innehåll som uppdateras eller kompletteras med nya sidor emellanåt (ert jobb) samt att hemsidan får nya fräscha relevanta länkar konstant (vårt jobb). Hemsidor måste “bevisa” för Google att dom inom sitt “tema” är av en “naturlig profil” inom ett växande område om sökoptimering i detta indexet skall lyckas.

Denna teori (medger att det endast är teori) kan förklara varför vissa sökoptimeringar fungerar bättre och är stabilare än andra sökoptimeringar. Ett primärt index med sin egna algoritm ur rankningshänseende är olika det sekundära. Att komma in i det första datacentret är av stor vikt. Ni bör därför uppdatera med nytt material oftare än förut (se separat artikel). En gammal regel vid sökoptimering är att skriva en ny sida om dagen!. Skriver ni minst en per månad så hjälper det garanterat.

(Detta är en artikel som våra kunder haft tillgång till under lång tid på vår kundwebb, nu publicerad offentligt).

Læs også:

%d bloggers like this: