Optimizando las paginaciones

Muchas veces tenemos que paginar resultados en nuestra página web y es una muy buena opción para hacer un poco de SEO en esas paginaciones para lograr objetivo poco a poco.

Normalmente cuando hacemos paginaciones podemos hacerlo bien mediante variables en la URL, cosa muy mejorable, o bien podemos usar la re-escritura de las URL mediante mod_rewrite en caso de servidores Apache o IpRewrite u otros en caso de usar IIS.

Normalmente cuando hacemos una re-escritura de las URLs para paginaciones solemos hacer algo así
http://mipagina .com/categoria/subcategoria/producto/1/ por ejemplo.

Para la segunda página y sucesivas hacemos
http://mipagina .com/categoria/subcategoria/producto/2  etc

Cuando ya tenemos posicionada la página para la palabra subcategoría, es un desperdicio de contenido las siguientes páginas de resultados ya que Google verá todas como parecidas y posiblemente no las tendrá tanto en cuenta. Pero si cada página de resultados cambiamos los metas, títulos de enlaces, palabras, etc podemos conseguir muchos objetivos poco a poco.

Pongamos un ejmemplo:
En una web que ando ahora sobre barcos de ocasion tengo categorías para yates, veleros, etc.. Si vamos a los yates de ocasion veremos como la página está optimizada para la palabra yates de ocasion (antes estaba para comprar yate, pero visto lo fácil que era...), si vamos a la página número 2 de los resultados veremos como esa está optimizada para yates en venta (título, anchor text, etc),  siendo ésta búsqueda mucho má difícil de posicionar que las otras, si vamos a la página 3 está para yates baratos (objetivo ya conseguido), si vamos a la 4 para yates en venta, si vamos a la 5 para yates de ocasion .

Resumiendo...
Si es la inicial para yates de ocasion
Si es impar para yates en venta
Si es la dos para yates baratos
Si es par y no es la primera (0) ni la 2 para yates de ocasion

Así espero poder posicinar la página para todas esas búsquedas ayudado por la paginación.

¿Alguna idea para mejorarlo?

 


Javier Lorente (@)hace Hace más de 16 años y 177 días

Hola! Yo creo que aquí estás jugando con fuego... no se puede considerar black hat pero white white... jaja

Un saludo y suerte con ello!

Errioxa (@)hace Hace más de 16 años y 177 días

Javi, yo no creo que sea algo penalizable, son palabras que describen el mismo producto, pero puedo entender tu postura.

mafa (@)hace Hace más de 15 años y 291 días

Una idea para mejorarlo, aplica otra fórmula que te permita orientar más variantes en tus paginaciones, imagina que hay 100 páginas en un futuro, repetirás 25 veces el mismo título.

seek (@)hace Hace más de 15 años y 232 días

Hola, me parece una idea excelente, como toda la web.

Javier Lorente (@)hace Hace más de 11 años y 253 días

Seguirías ahora con ello? En agosto 2012?



Lea otros artículos de Links internos

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II