PR sculpting con JavaScript y Robots.txt

Publicado el 28 de febrero del 2010

Ya vimos como hacer PR sculpting usando JavaScript, así, independientemente de  cómo Google quiera valorar los enlaces nofollow (a veces nos dice que valen para pr sculpting y otras nos dice que no) nos aseguramos que el peso de una url lo traspasemos exactamente entre los links que nosotros queramos.


Creo que hoy en día Google podría estar contando las etiquetas "<a" que haya en nuestra web para dividir entre ese número el peso que distribuye a cada enlace. Capacidad tiene, y sería un buen método por su parte para evitar que los SEOs hagamos fluir esa fuerza a nuestro antojo y de forma artificial.

En muchos casos, como por ejemplo blogs, hay enlaces a páginas externas en el nombre de los usuarios que comentan cada post. La última postura oficial de Google es que aunque pongas nofollow a esos links contarán a la hora de dividir tu PR, y encima, lo más seguro, es que ese PR no fluya hacia esas webs sino que simplemente ese PR se queda en el limbo de los links (lo desperdiciamos).

Podría ser que detecte cuando son comentarios, o enlaces externos y no contar con ellos a la hora de dividir el PR que distribuirá, pero eso no lo sabemos y lo podría cambiar cuando le apeteciese.

Lo mejor es crear esos links con JavaScript como ya dijimos;

 
<html>
    <head>
        <title>ejemplo de enlace con JS</title>
    </head>
<script>
function enlacesnofollow(enlace) {
    alert("");
    trozoUrl = "'http://";   //Descompongo la URL
    trozoOrden ="window.";   //Decompongo las órdenes JS
    trozoOrden2 ="location.";
    trozoOrden3 = "href=";
   
    //Interpreto la concatenación de cadenas
    eval(trozoOrden+trozoOrden2+trozoOrden3+trozoUrl+enlace+"'");
}
</script>
<body>
<span onclick="enlacesnofollow('www.yahoo.es');">hola</span>
</body>
</html>


 y además podemos poner la función que redirige al usuario a la nueva URL en un archivo .js y este archivo bloquearlo por el robots.txt

De esta manera Google nunca sabrá dónde va ese click ni que hace, y tampoco lo contará a la hora de la distribución del PR.

Actualización:
Como nos dice Pedro Martinez en los comentarios, todavía podemos ofuscar más nuestro código del enlace. Con JQuery puede ser todavía más sencillo, y como cuenta en su blog, Google de esta manera, dejó de cachearle determinadas URLs. Así que habrá que probar y asegurarnos de que no se entera de que eso realmente son links, aunque el usuario lo vea igual.


 


vseohace Hace más de 10 años y 234 días

Se suele establecer también redirectes alojados bajo una ruta que esté bloqueada en Robots y funciona muy bien.
También puedes añadirle un tracking de publicidad y Google lo omite

Errioxahace Hace más de 10 años y 234 días

Lo del redirect, podría ser otra manera, pero no harías sclupting, no?



Lo del tracking de publi pude ser buena manera, pero ¿contará a la hora de repartir PR? Yo creo que sí.

Dani Pinilloshace Hace más de 10 años y 230 días

Hola Lino.

Muy buen complemento al PRsculpting con js.
Una cosa para rizar el rizo ¿Puedes ocultar el robots.txt desde cualquier petición diferente a bots para que nadie te pueda meter un spam report no? Ya se que es retorcido pero la gente es mala jajajaja

Otra cosa ¿has probado el uso de iframes para aquellas zonas que quieres excluir? Personalmente no me convence mucho y prefiero usar js para links normales pero para algunos casos como links agrupados es una solución sencilla. Ej en timeline de twitter integrado en una web.

¿Tienes experiencia comenta Vseo en el uso del adserver para eso?

Por cierto me gusta tu archivo de robots :D
Saludos!

Javier Lorentehace Hace más de 10 años y 137 días

@vseo Supongo que ni conlos redirects ni agregando trackings codes esculpes tu zumo, curioso esto de esculpir líquidos hoygan!

@Dani si google puede acceder, tu puedes acceder. Aunque no estaría demás poder indicarle nuestro propio robots.txt particular dentro de las webmasterstools a cada buscador para no dejarlo público. La timeline de twitter ahora con el real time search puede resultar interesante mostrarla sin iframes para que tus twitts cojan relevancia.

@Pedro Como te aseguras que en el futuro no te cacheará esas búsquedas? Si un browser lo sigue, porqué no va a seguirlo Google?

@Lino la mejor manera de hacer link sculpting sin duda es hacerlo manualmente, es decir sin poner los links.



Lea otros artículos de El fichero Robots.txt para SEO

Últimos posts

Últimos comentarios


Adrian Coutin

muy bueno Lino, nos indica un elemento, de los tantos, en la optimización de googlebot, no trabajar en vano... ;-) ciao
Post: Google podria no querer el HTML de una URL

Ricardo

Hola, Hay vídeo de la charla de Seonthebeach? saludos,
Post: Logs y Big Data

Lino

@Felipe quizás si puedes añadir javacript podrías añadirla, pero si no creo que no podrás ya que el meta canonical va a nivel de cabec
Post: Consolidación de urls canónicas en Google Search Console

Jordi

Presentarl@ a un amig@ = Redirección.
Post: El SEO para ligar

OSCAR NAVARRO AMADO


Post: Saber cuántos dominios tiene una persona

Felipe

Cada vez que pongo una etiqueta canónica en wordpress, me la desaparece automáticamente, la pongo en html, ya que de otra forma no me per
Post: Consolidación de urls canónicas en Google Search Console

Lino

@pacorapidohace así es, este experimento fue hace 10 años... y sí, he comprobado lo mismo que tú, hace falta estar la palabra en la url
Post: Links de imagen y texto, como los trata Google

pacorapido

Hola @Errioxa todo esto ha cambiado por que creo que tiene que ver que la pagina destino no tiene en su contenido las palabras inventadas,
Post: Links de imagen y texto, como los trata Google

FunnelPunk

Complementando la respuesta (y aprovechando para comprobar mi "avisador" por Twitter), por si Google no pudiese acceder al robots.txt y no s
Post: Errores críticos originados por el robots.txt

Lino

Hola Miriam, crea un robots.txt vacío para probar, también podrías añadir uno básico con las dos siguientes líneas User-agent: * Allo
Post: Errores críticos originados por el robots.txt