SEO har alltid varit ett knepigt företag, inte bara experter måste spendera tid på att undersöka sökord och följa de bästa metoderna, de måste vara förberedda för de förändringar som sökmotorer oundvikligen ställer på plats.

Förra året såg sökgigant Google två stora algoritmuppdateringar - Panda and Penguin - som såg många en plats ned i rankningarna, eftersom de straffades av de nya reglerna.

Detta berodde på att förändringarna genomfördes för att rangordna webbplatser med dålig kvalitet, till exempel innehållsfabriker och länkplanter, och lägga ner vikt på webbplatser som producerar kvalitetsinnehåll.

Detta genomförs genom att göra ändringar i hur Googles spindlar känner igen en webbplats, vilket ger bättre rankningar till webbplatser med kvalitets, välskrivet innehåll och sociala medier. För webbproffs skapade detta något av panik, eftersom statiska webbplatser som inte var särskilt välskrivna och fyllda med sökord började misslyckas.

Pingvin och Panda uppdateringar förlitade sig på en ny uppsättning regler och mer komplexa algoritmer utformade för att rangordna en webbplats på ett antal olika faktorer.

Dessa inkluderar:

  • Innehåll: Google spindlar kan nu berätta om en webbplats är dåligt skriven, med stavning och grammatiska fel, många annonser och länkar med dålig kvalitet. Denna förändring ses som en välkommen en för många SEO- och digitala proffs, eftersom det omedelbart knackade artiklar med låg kvalitet i artikeln och innehållsfabrikerna ner i raderna, så att hög kvalitet kunde ta plats och vara mer användbar för sökare.
  • Friskhet: "Friskheten" av kopia har blivit viktigare för Google än inkommande länkar. Det innebär att för att kunna konkurrera på Google är det nödvändigt att ofta lägga till nytt innehåll. Färskhetsrankningen ser på 3 nyckelområden: # 1: Trendiga ämnen som OS eller USA-val # 2: Återkommande kända händelser som Superbowl # 3: Hur nyligen har innehållet lagts till.
  • Unikt innehåll: har någonsin kopierats och klistrat in något innehåll på en webbplats för att klippa hörn? Nu kommer det också att klippa webbplatsens ranking. Ursprungligt innehåll är en av de viktigaste aspekterna för att bestämma positionen. Innehåll som innehåller onaturliga länkar kommer även att straffas, så det är viktigt att se till att länkar visas organiskt och är mycket relevanta för innehållet. Detta kommer bara att bli ännu viktigare som Googles författarrankning lyfter.
  • Social: Så många som du vet, social är den nya marknadsföringen och är ett mycket kraftfullt verktyg för SEO. Google använder nu socialt i sökresultat för att avgöra hur användbart en webbplats är över hela linjen. Det är viktigt nu för online marknadsförare och SEO-experter att inkludera sociala, så att alla varumärkeskvaliteter och logotyper är enhetliga över sociala kanaler och webbplatser. Dessutom är det viktigt att den sociala närvaron är välskött. dåligt, botförvalt socialt kommer att skada en webbplats ranking.
  • Fritt från tekniska fel: det här är särskilt viktigt för webbprofessorer, och kommer utan tvekan att slå många bloggar på toppen av abborre. En webbplats som har en ljudarkitektur kommer att fungera bättre än en webbplats som är byggd av mallar, Flash, eller är mer än två år gammal. Detta innebär att koden ska vara standardbaserad med giltiga CSS-taggar och städa metadata.

Hur man hanterar problem med en webbplats ranking

Även några av de största platserna påverkades av förändringarna i Google-algoritmerna, jag läste av en som skulle strippas direkt tillbaka för att ändra alla sökord och kopiera sidor.

En webbplats som är dålig skrivet bör ha allt innehåll uppdateras, helst av någon som kan skriva. Detta inkluderar blogginlägg och artiklar, så om en webbplats har mycket innehåll så här kan det vara en bättre idé att ta bort allt från webbplatsen och lägga till som du får det eller annat innehåll, skrivet.

Metadata måste också vara ren och städad och Google tenderar att ignorera sökord och koncentrera sig på beskrivningar här. Sökord naturligtvis har sin plats och det är viktigt att se till att dessa fortfarande undersöks och analyseras, men artiklar och bloggar med hög sökordstäthet kommer sannolikt att straffas. Detta beror på att nyckelord, när de är överanvändna, tenderar att äventyra kvaliteten på skrivandet.

Panda koncentrerade sig på att bli av med de webbplatser som försökte "lura" sina algoritmer med överanvändning av nyckelord och länkspammning. Om du har bestämt att en webbplats har spam-länkar som pekar på den, använd Googles Disavow Tool , som kommer att ta bort dem för dig. Det är emellertid viktigt att på denna punkt notera att en noggrann platsrevision ska utföras för att identifiera dåliga länkar och det bör vara försiktigt att verktyget används.

För Panda är det också värt att kontrollera att webbplatsens innehåll är unikt. Det måste vara 60% unikt på hela webbplatsen, såväl som tillgängligt, för att klara Pandas regler.

Penguin koncentrerades mer om det faktiska innehållet och båda algoritmer uppdateras fortfarande regelbundet för att förfina dem. Penguin koncentrerar sig till största del på sökordspackning inom artiklar och spam-länkar.

I huvudsak handlar de både om tillgänglighet, innehåll, spammningsteknik och nya regler som är utformade för att förhindra svart hatt SEO.

Vad är svart hatt SEO?

I grund och botten är det här ett sätt att försöka manipulera sökmotorerna så att det väsentligen "trickar" dem till att tro att en webbplats är värdefull. Svart hatt använder aggressiv taktik och är inriktad mot sökmotorn, snarare än en mänsklig publik.

I de kommande artiklarna kommer jag att kolla på svarta, vita och gråhattstekniker för att ge en tydlig översikt över vilka som kan användas säkert och vilka är ett nej-nr. Problemet som många har funnit är att vissa, mindre än ansedda, SEO-experter har använt svarthattsteknik för att vinna fler kunder och göra en snabb pengar. Det är därför som vissa företagswebbplatser har fallit som en sten ner i rankningen, ofta omedveten om att de har gjort någonting fel.

Svarta hatttekniker inkluderar:

  • förpackningskod med "dold" text
  • länk gårdar där en grupp av webbplatser alla länkar till varandra för att skräppost indexet för en sökmotor;
  • blogg spam, använd kommentarfältet på bloggar och forum för att placera länkar till andra webbplatser;
  • skrapning, en övning där en webbplats tar innehåll från en annan för att bli mer värdefull för sökmotorerna;
  • dörröppningssidor som används för att locka sökare med fraser som inte är relaterade till webbplatsinnehåll.
  • parasitisk värd , där en webbplats är värd på någon annans server utan tillstånd
  • cloaking, en teknik där sökmotorns spindel ser olika innehåll till slutanvändaren som tittar genom en webbläsare.

Svart hatt metoder ses av många webbprofessorer att vara oetiska, eftersom de använder taktik som lovar snabba avkastningar men riskerar att skada ett företags rykte, hemsida och i sin tur vinster.

Att använda svart hatt metoder betyder ofta att en webbplats inte behöver vänta månader för länkbackar, som du skulle med traditionella vita hattmetoder. Det fyller emellertid också internet med oanvändbar information och skräppost och har genom åren påverkat sökningen på allvar.

Det är också billigare för SEO strategen att utföra så ofta, ett bloggnätverk är redan inrättat för att länka till och det beror inte mycket på analytik och innehåll, som vit hatt övning gör.

Inte bara använder man svart hatt metoder leder ofta till hot om rättsliga åtgärder, om de används tillsammans med en PPC-kampanj, kan stora påföljder uppkomma från reklamvärden.

Det rekommenderas inte att en webbplats använder svarthattsteknik på grund av de påföljder som berörs, i form av rättsliga åtgärder, rykte och hot om att inte rangordnas. Men ingen tvekan om att det inte kommer att stoppa alla, trots Google-uppdateringarna.

Säger att vi redan ser innehållsfabriker som snabbt släpper ner rankningarna, så uppdateringarna fungerar uppenbarligen eftersom detta är ett av de viktigaste områdena som Google ville ta itu med.

Google och alla större sökmotorer har en vision, en som avser att städa upp nätet och göra sig av med dåliga rutiner, vilket leder till mer användbar innehåll som visas högst upp på sökandet efter oss alla. Oavsett om du använder svarthattsteknik eller inte, är det mellan dig och ditt samvete, men säkert är jag glad för att jag kan söka och inte komma med en sida full av skräp innan jag kommer till det jag vill ha.

Vilka problem har du stött på på grund av Panda och Penguin? Hur har du löst svarthattsteknik som används av föregångare? Låt oss veta i kommentarerna.

Utvalda bild / miniatyrbild, sökbild via Shutterstock.