Back to Question Center
0

Hvad er de mest definerende øjeblikke ved websøgemaskineoptimering?

1 answers:

Internettet vokser altid og udvikler sig. Hver dag uploader mennesker tonsvis af forskellige kvalitetsoplysninger til søgemaskiner. For at forstå, hvilket indhold der kan være gavnligt for brugerne og skelne det fra spam, skal store søgemaskiner som Google nødt til at forbedre og opdatere deres algoritmer regelmæssigt. Ved at gøre det giver de mulighed for både websejere og gennemsnitlige brugere at drage nytte af kvalitetsdata. Desuden gør regelmæssige algoritmeopdateringer det muligt for søgemaskiner at straffe spammere og sort-hat SEO-specialister. Så for at blive på toppen af ​​SEO-spil, skal du være opmærksom på alle nyheder i websøgemaskineoptimeringsbranchen og foretage passende forbedringer på dit websted. I denne artikel vil vi diskutere tre definerende øjeblikke, der ændrede karakteren af ​​SEO og gøre SEO eksperter ændre deres metoder til website optimering. Drastiske ændringer i websøgemaskine optimering

Det er værd at sige, at Google algoritme opdateringer i løbet af det sidste årti har ændret reglerne for søgemaskinen drastisk optimering. Mens nogle online-forhandlere faldt i deres ranglister efter Google-opdateringer, brugte andre fremsynede webstedsejere lejlighed til at forbedre deres positioner på SERP. I dag vil vi tale om tre mest kraftfulde algoritmeopdateringer, der ændrede dagens SEO.

  • Den første Google Florida Update

Den første Google opdatering fandt sted i november 2003. Det er kendt som Google Florida opdatering. Denne opdatering var den største ændring i Googles placeringer i disse tider. Det primære formål med Florida opdatering var at ramme black hat SEO specialister, der forsøgte at manipulere rankings. Det var designet til at undgå sådan sort-hat SEO teknik som søgeord stuffing. Udtrykket "nøgleordet søgeord" har dukket op siden de tidlige dage med udviklingen af ​​søgemaskineoptimering. Det er en skyggefuld teknik, der gør det muligt for webmastere at manipulere søgerrangeringer. Det er en proces at indsætte bestemte søgeord eller sæt nøgleord i indhold. Disse søgeord har som regel ikke relevans for indholdet og designet specielt til søgebots, men ikke til gennemsnitlige brugere. Disse sætninger kan gentages gennem teksten så ofte, at det lyder unaturligt. Så for at forbedre brugeroplevelsen med søgemaskinesystemet besluttede Google at straffe hjemmesider, hvor nøgleordene blev observeret. Efter denne innovation mistede mange websteder trafik og led meget. Det tog meget tid og bestræbelser for websejere at genoprette deres webkilder omdømme. Det var dog en god lektion for dem, der forsøger at overtræde standardrangeringsretningslinjerne. Google Panda opdatering

Den anden af ​​dens størrelse og indflydelse på den digitale verden var Google Panda opdatering. Det blev introduceret i februar 2011. Det primære formål med dette filter var at undgå websteder med dårlig kvalitet fra at arbejde sig ind i Googles TOP-søgeresultater. Ved at gøre det, vil Google gerne returnere højkvalitets og relevante websteder tæt på toppen af ​​SERP og forbedre brugerens oplevelse under søgningen. Denne opdatering blev rocket op til 12% af søgeresultaterne. De største internetplatforme med konstant trafikstrøm tabte mere end 50% af deres besøgende på grund af deres SERP-positioner falder. Denne Google-opdatering gør kun ondt i websteder med lavere kvalitet. For andre domæner blev situationen ikke ændret dramatisk. Google gjorde det klart, at højere kvalitet og maksimalt relevant indhold vil blive belønnet med flere øverste placeringer, mens der ikke vil blive straffet af uigenkaldelige tekster af lav kvalitet. Panda fokuserede primært på websteder med tyndt indhold. Dette filter var en god måde, at Google målrettede indholdsbedrifter netop, da det blev en stor affære i søgeresultaterne med dets lavkvalitets ikke-unikke indhold, som havde tendens til at rangere på grund af rent volumen. De væsentligste overtrædelser af reglerne er ikke blevet genoprettet fra dette Google-filter til denne dato. I dag udvikler Google Panda som en del af core ranking algoritmen. Det tjener som en del af en langsom rullende opdatering, varig måned pr. Cyklus. Som følge heraf blev det svært at vide, om et websted lider under Panda opdatering eller ej. Google Penguin-opdateringen

Google Penguin-algoritmen lanceret i april 2012

google panda

  • . Det er en webspam-algoritme, der har til formål at straffe dem, der ikke følger Googles retningslinjer. Da denne algoritme trådte i kraft, har Google udstedt følgende erklæring:

    ".Denne algoritme repræsenterer en anden forbedring i vores bestræbelser på at reducere webspam og fremme indhold af høj kvalitet. Selvom vi ikke kan give bestemte signaler, fordi vi ikke vil give folk en måde at spille vores søgeresultater på og forværre oplevelsen for brugere, skal vores råd til webmastere fokusere på at skabe websites af høj kvalitet, der skaber en god brugeroplevelse og ansæt hvide hat SEO metoder (GOOGLE). "

    Det målrettede websteder, der bruger bedrageriske linkordninger til at rangere højt på Google. Disse online-handlende og webmastere, der fik et link juice til deres websteder ved hjælp af black hat SEO teknikker såsom link køb eller link landbrug blev forbudt. Når en Google Penguin-opdatering blev udgivet, kan websteder, der har truffet foranstaltninger for at fjerne backlinks af ikke-kvalitet, genvinde placeringer. Fra sin side giver Google mulighed for at fjerne dårlige links hurtigt og gratis. Alt du behøver er at implementere Google Disavow Links-værktøj. De, der blev ramt af Google Penguin opdatering, måtte vente til denne algoritme løb igen for at få deres placeringer tilbage.

    Denne algoritme påvirker stadig website ranking, da kvalitet og relevante links er en vigtig del af Googles ranking system. Derfor kan det koste dig omdømme for at implementere sort-hat-web-SEO-teknik eller ansætte unprofessional SEO-team. I øjeblikket gik Penguin opdatering hovedsagelig efter misbrug af links og påvirket 3,1% af forespørgslen Source .

December 22, 2017