Hoe de robots metatags gebruiken in Thesis
One van de grootste problemen met WordPress is het feit dat deze automatisch genereert verschillende soorten archief pagina's dat kan worden geïndexeerd door zoekmachines. Van datum-gebaseerde archieven (dagelijks, maandelijks, jaarlijks) om tags aan categorieën, deze automatisch gegenereerde pagina's alle duplicate content bevatten die niet thuishoren in zoekmachines.
Waarom is dit duplicate content een potentieel probleem? Beschouw dit:
De taak van zoekmachines is naar de index van uw site pagina's en te bepalen wat uw site over gaat. Als je 100 unieke pagina's met artikelen, dan in het ideale geval zou zoekmachines slechts 100 pagina's te indexeren crawlen van uw site volledig.
Echter, als je met behulp van categorieën, tags, en de datum-gebaseerde archieven (en afhankelijk van hoe je de neiging om overboord te gaan met categorisering en tagging), dan zul je te hebben ten minste een extra pagina per categorie, per tag, per maand, enz.
Nu, plaats van 100 pagina's te indexeren, kan je 600 pagina's. Aangezien u slechts 100 pagina's met unieke content, waardoor een zoekmachine naar de index 600 pagina's om te bepalen wat uw site gaat over gewoon niet, geen zin.
Denk aan het op deze manier: leest u liever een 100-pagina's tellende boek of een 600-pagina's tellende boek, dat vertelt het exact hetzelfde verhaal? Verder, welke denk je dat je je beter te begrijpen? Welke zal uw aandacht beter?
De bottom line is dat je de robots meta-tags in Thesis gebruiken om verschillende vormen van automatisch gegenereerde pagina's te voorkomen wordt geïndexeerd door zoekmachines. Verder kunt u aan deze knop om uit te breiden alle de pagina's van uw site met behulp van de meta robots controles op een per-pagina of per post.
Waarom is dit duplicate content een potentieel probleem? Beschouw dit:
De taak van zoekmachines is naar de index van uw site pagina's en te bepalen wat uw site over gaat. Als je 100 unieke pagina's met artikelen, dan in het ideale geval zou zoekmachines slechts 100 pagina's te indexeren crawlen van uw site volledig.
Echter, als je met behulp van categorieën, tags, en de datum-gebaseerde archieven (en afhankelijk van hoe je de neiging om overboord te gaan met categorisering en tagging), dan zul je te hebben ten minste een extra pagina per categorie, per tag, per maand, enz.
Nu, plaats van 100 pagina's te indexeren, kan je 600 pagina's. Aangezien u slechts 100 pagina's met unieke content, waardoor een zoekmachine naar de index 600 pagina's om te bepalen wat uw site gaat over gewoon niet, geen zin.
Denk aan het op deze manier: leest u liever een 100-pagina's tellende boek of een 600-pagina's tellende boek, dat vertelt het exact hetzelfde verhaal? Verder, welke denk je dat je je beter te begrijpen? Welke zal uw aandacht beter?
De bottom line is dat je de robots meta-tags in Thesis gebruiken om verschillende vormen van automatisch gegenereerde pagina's te voorkomen wordt geïndexeerd door zoekmachines. Verder kunt u aan deze knop om uit te breiden alle de pagina's van uw site met behulp van de meta robots controles op een per-pagina of per post.
Geen opmerkingen:
Een reactie posten