Optimizando las paginaciones

Muchas veces tenemos que paginar resultados en nuestra página web y es una muy buena opción para hacer un poco de SEO en esas paginaciones para lograr objetivo poco a poco.

Normalmente cuando hacemos paginaciones podemos hacerlo bien mediante variables en la URL, cosa muy mejorable, o bien podemos usar la re-escritura de las URL mediante mod_rewrite en caso de servidores Apache o IpRewrite u otros en caso de usar IIS.

Normalmente cuando hacemos una re-escritura de las URLs para paginaciones solemos hacer algo así
http://mipagina .com/categoria/subcategoria/producto/1/ por ejemplo.

Para la segunda página y sucesivas hacemos
http://mipagina .com/categoria/subcategoria/producto/2  etc

Cuando ya tenemos posicionada la página para la palabra subcategoría, es un desperdicio de contenido las siguientes páginas de resultados ya que Google verá todas como parecidas y posiblemente no las tendrá tanto en cuenta. Pero si cada página de resultados cambiamos los metas, títulos de enlaces, palabras, etc podemos conseguir muchos objetivos poco a poco.

Pongamos un ejmemplo:
En una web que ando ahora sobre barcos de ocasion tengo categorías para yates, veleros, etc.. Si vamos a los yates de ocasion veremos como la página está optimizada para la palabra yates de ocasion (antes estaba para comprar yate, pero visto lo fácil que era...), si vamos a la página número 2 de los resultados veremos como esa está optimizada para yates en venta (título, anchor text, etc),  siendo ésta búsqueda mucho má difícil de posicionar que las otras, si vamos a la página 3 está para yates baratos (objetivo ya conseguido), si vamos a la 4 para yates en venta, si vamos a la 5 para yates de ocasion .

Resumiendo...
Si es la inicial para yates de ocasion
Si es impar para yates en venta
Si es la dos para yates baratos
Si es par y no es la primera (0) ni la 2 para yates de ocasion

Así espero poder posicinar la página para todas esas búsquedas ayudado por la paginación.

¿Alguna idea para mejorarlo?

 


Javier Lorentehace Hace más de 12 años y 362 días

Hola! Yo creo que aquí estás jugando con fuego... no se puede considerar black hat pero white white... jaja

Un saludo y suerte con ello!

Errioxahace Hace más de 12 años y 362 días

Javi, yo no creo que sea algo penalizable, son palabras que describen el mismo producto, pero puedo entender tu postura.

mafahace Hace más de 12 años y 111 días

Una idea para mejorarlo, aplica otra fórmula que te permita orientar más variantes en tus paginaciones, imagina que hay 100 páginas en un futuro, repetirás 25 veces el mismo título.

seekhace Hace más de 12 años y 52 días

Hola, me parece una idea excelente, como toda la web.

Javier Lorentehace Hace más de 8 años y 73 días

Seguirías ahora con ello? En agosto 2012?



Lea otros artículos de Links internos

Últimos posts

Últimos comentarios


Adrian Coutin

muy bueno Lino, nos indica un elemento, de los tantos, en la optimización de googlebot, no trabajar en vano... ;-) ciao
Post: Google podria no querer el HTML de una URL

Ricardo

Hola, Hay vídeo de la charla de Seonthebeach? saludos,
Post: Logs y Big Data

Lino

@Felipe quizás si puedes añadir javacript podrías añadirla, pero si no creo que no podrás ya que el meta canonical va a nivel de cabec
Post: Consolidación de urls canónicas en Google Search Console

Jordi

Presentarl@ a un amig@ = Redirección.
Post: El SEO para ligar

OSCAR NAVARRO AMADO


Post: Saber cuántos dominios tiene una persona

Felipe

Cada vez que pongo una etiqueta canónica en wordpress, me la desaparece automáticamente, la pongo en html, ya que de otra forma no me per
Post: Consolidación de urls canónicas en Google Search Console

Lino

@pacorapidohace así es, este experimento fue hace 10 años... y sí, he comprobado lo mismo que tú, hace falta estar la palabra en la url
Post: Links de imagen y texto, como los trata Google

pacorapido

Hola @Errioxa todo esto ha cambiado por que creo que tiene que ver que la pagina destino no tiene en su contenido las palabras inventadas,
Post: Links de imagen y texto, como los trata Google

FunnelPunk

Complementando la respuesta (y aprovechando para comprobar mi "avisador" por Twitter), por si Google no pudiese acceder al robots.txt y no s
Post: Errores críticos originados por el robots.txt

Lino

Hola Miriam, crea un robots.txt vacío para probar, también podrías añadir uno básico con las dos siguientes líneas User-agent: * Allo
Post: Errores críticos originados por el robots.txt