PR sculpting con JavaScript y Robots.txt

Publicado el 28 de febrero del 2010

Ya vimos como hacer PR sculpting usando JavaScript, así, independientemente de  cómo Google quiera valorar los enlaces nofollow (a veces nos dice que valen para pr sculpting y otras nos dice que no) nos aseguramos que el peso de una url lo traspasemos exactamente entre los links que nosotros queramos.


Creo que hoy en día Google podría estar contando las etiquetas "<a" que haya en nuestra web para dividir entre ese número el peso que distribuye a cada enlace. Capacidad tiene, y sería un buen método por su parte para evitar que los SEOs hagamos fluir esa fuerza a nuestro antojo y de forma artificial.

En muchos casos, como por ejemplo blogs, hay enlaces a páginas externas en el nombre de los usuarios que comentan cada post. La última postura oficial de Google es que aunque pongas nofollow a esos links contarán a la hora de dividir tu PR, y encima, lo más seguro, es que ese PR no fluya hacia esas webs sino que simplemente ese PR se queda en el limbo de los links (lo desperdiciamos).

Podría ser que detecte cuando son comentarios, o enlaces externos y no contar con ellos a la hora de dividir el PR que distribuirá, pero eso no lo sabemos y lo podría cambiar cuando le apeteciese.

Lo mejor es crear esos links con JavaScript como ya dijimos;

 
<html>
    <head>
        <title>ejemplo de enlace con JS</title>
    </head>
<script>
function enlacesnofollow(enlace) {
    alert("");
    trozoUrl = "'http://";   //Descompongo la URL
    trozoOrden ="window.";   //Decompongo las órdenes JS
    trozoOrden2 ="location.";
    trozoOrden3 = "href=";
   
    //Interpreto la concatenación de cadenas
    eval(trozoOrden+trozoOrden2+trozoOrden3+trozoUrl+enlace+"'");
}
</script>
<body>
<span onclick="enlacesnofollow('www.yahoo.es');">hola</span>
</body>
</html>


 y además podemos poner la función que redirige al usuario a la nueva URL en un archivo .js y este archivo bloquearlo por el robots.txt

De esta manera Google nunca sabrá dónde va ese click ni que hace, y tampoco lo contará a la hora de la distribución del PR.

Actualización:
Como nos dice Pedro Martinez en los comentarios, todavía podemos ofuscar más nuestro código del enlace. Con JQuery puede ser todavía más sencillo, y como cuenta en su blog, Google de esta manera, dejó de cachearle determinadas URLs. Así que habrá que probar y asegurarnos de que no se entera de que eso realmente son links, aunque el usuario lo vea igual.


 


vseo (@)hace Hace más de 14 años y 56 días

Se suele establecer también redirectes alojados bajo una ruta que esté bloqueada en Robots y funciona muy bien.
También puedes añadirle un tracking de publicidad y Google lo omite

Errioxa (@)hace Hace más de 14 años y 56 días

Lo del redirect, podría ser otra manera, pero no harías sclupting, no?



Lo del tracking de publi pude ser buena manera, pero ¿contará a la hora de repartir PR? Yo creo que sí.

Dani Pinillos (@)hace Hace más de 14 años y 52 días

Hola Lino.

Muy buen complemento al PRsculpting con js.
Una cosa para rizar el rizo ¿Puedes ocultar el robots.txt desde cualquier petición diferente a bots para que nadie te pueda meter un spam report no? Ya se que es retorcido pero la gente es mala jajajaja

Otra cosa ¿has probado el uso de iframes para aquellas zonas que quieres excluir? Personalmente no me convence mucho y prefiero usar js para links normales pero para algunos casos como links agrupados es una solución sencilla. Ej en timeline de twitter integrado en una web.

¿Tienes experiencia comenta Vseo en el uso del adserver para eso?

Por cierto me gusta tu archivo de robots :D
Saludos!

Javier Lorente (@)hace Hace más de 13 años y 324 días

@vseo Supongo que ni conlos redirects ni agregando trackings codes esculpes tu zumo, curioso esto de esculpir líquidos hoygan!

@Dani si google puede acceder, tu puedes acceder. Aunque no estaría demás poder indicarle nuestro propio robots.txt particular dentro de las webmasterstools a cada buscador para no dejarlo público. La timeline de twitter ahora con el real time search puede resultar interesante mostrarla sin iframes para que tus twitts cojan relevancia.

@Pedro Como te aseguras que en el futuro no te cacheará esas búsquedas? Si un browser lo sigue, porqué no va a seguirlo Google?

@Lino la mejor manera de hacer link sculpting sin duda es hacerlo manualmente, es decir sin poner los links.



Lea otros artículos de El fichero Robots.txt para SEO

Últimos posts

Últimos comentarios


Nichol
An Easy-To-Follow Guide To Accidents Attorney Near Me accident attorney washington state
Post: Denunciar la venta de link

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console