PR sculpting con desplegables

Publicado el 14 de julio del 2010

Lo primero decir que ya siento haber tardado tanto en volver a escribir, pero claro, en verano quién lo va a leer si todo el mundo anda de vacaciones!. Entre eso, los San Fermines, una boda y mi ajetreada vida no pude hacerlo.

Hoy quería explicar como hacer PR scuplting cuando tenemos muchos filtros para dar resultados de nuestro propio site, como por ejememplo en las webs de clasificados.

En muchos casos los listados los vamos filtrando según pobalción, tipo de producto, precio, etc. Y a veces hay algunos filtrados que no nos interesa indexar y posicionar, por lo tanto tampoco nos interesa que se les pase nada de PR.

Para conseguir esto podemos usar JavaScript capado por el robots.txt, pero esto a veces puede ser un poco grey hat y no conviene arriesgar. El mítico nofollow creo que no sirve, es más puede llegar a ser contraproducente algún día.

Una de las mejores soluciones en estos casos puede ser poner un desplegable (<select>) para ir filtrando estos resultados, de esta manera no pasaremos PR a donde no queramos, Google no lo seguirá y al usuario incluso le es más intuitivo.


También podemos crear otro tipo de "desplegables" como muestro en esta imagen.


¿Cómo lo veis?



 


fernando (@)hace Hace más de 13 años y 281 días

muy bien pensado si lo haces pensando en eso. ek problema es cnd llos desarrolladores solo usan esto para navegacion... muy listo te vi ahi, hamijo

Emilio (@)hace Hace más de 13 años y 268 días

Es una buena forma de actualizar el contenido con el filtro que queramos y evitar perder PR. Si lo haces con el segundo formulario y usando AJAX ya sería genial ;)

Yo hasta ahora he venido usando el atributo canonical para evitar duplicidad pero claro, se perdía popularidad debido a enlaces.

Juana (@)hace Hace más de 13 años y 221 días

Yo no me preocupo tanto por el PR.



Lea otros artículos de Page Rank sculpting

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II