PR sculpting con JavaScript y Robots.txt

Publicado el 28 de febrero del 2010

Ya vimos como hacer PR sculpting usando JavaScript, así, independientemente de  cómo Google quiera valorar los enlaces nofollow (a veces nos dice que valen para pr sculpting y otras nos dice que no) nos aseguramos que el peso de una url lo traspasemos exactamente entre los links que nosotros queramos.


Creo que hoy en día Google podría estar contando las etiquetas "<a" que haya en nuestra web para dividir entre ese número el peso que distribuye a cada enlace. Capacidad tiene, y sería un buen método por su parte para evitar que los SEOs hagamos fluir esa fuerza a nuestro antojo y de forma artificial.

En muchos casos, como por ejemplo blogs, hay enlaces a páginas externas en el nombre de los usuarios que comentan cada post. La última postura oficial de Google es que aunque pongas nofollow a esos links contarán a la hora de dividir tu PR, y encima, lo más seguro, es que ese PR no fluya hacia esas webs sino que simplemente ese PR se queda en el limbo de los links (lo desperdiciamos).

Podría ser que detecte cuando son comentarios, o enlaces externos y no contar con ellos a la hora de dividir el PR que distribuirá, pero eso no lo sabemos y lo podría cambiar cuando le apeteciese.

Lo mejor es crear esos links con JavaScript como ya dijimos;

 
<html>
    <head>
        <title>ejemplo de enlace con JS</title>
    </head>
<script>
function enlacesnofollow(enlace) {
    alert("");
    trozoUrl = "'http://";   //Descompongo la URL
    trozoOrden ="window.";   //Decompongo las órdenes JS
    trozoOrden2 ="location.";
    trozoOrden3 = "href=";
   
    //Interpreto la concatenación de cadenas
    eval(trozoOrden+trozoOrden2+trozoOrden3+trozoUrl+enlace+"'");
}
</script>
<body>
<span onclick="enlacesnofollow('www.yahoo.es');">hola</span>
</body>
</html>


 y además podemos poner la función que redirige al usuario a la nueva URL en un archivo .js y este archivo bloquearlo por el robots.txt

De esta manera Google nunca sabrá dónde va ese click ni que hace, y tampoco lo contará a la hora de la distribución del PR.

Actualización:
Como nos dice Pedro Martinez en los comentarios, todavía podemos ofuscar más nuestro código del enlace. Con JQuery puede ser todavía más sencillo, y como cuenta en su blog, Google de esta manera, dejó de cachearle determinadas URLs. Así que habrá que probar y asegurarnos de que no se entera de que eso realmente son links, aunque el usuario lo vea igual.


 


vseo (@)hace Hace más de 12 años y 126 días

Se suele establecer también redirectes alojados bajo una ruta que esté bloqueada en Robots y funciona muy bien.
También puedes añadirle un tracking de publicidad y Google lo omite

Errioxa (@)hace Hace más de 12 años y 126 días

Lo del redirect, podría ser otra manera, pero no harías sclupting, no?



Lo del tracking de publi pude ser buena manera, pero ¿contará a la hora de repartir PR? Yo creo que sí.

Dani Pinillos (@)hace Hace más de 12 años y 122 días

Hola Lino.

Muy buen complemento al PRsculpting con js.
Una cosa para rizar el rizo ¿Puedes ocultar el robots.txt desde cualquier petición diferente a bots para que nadie te pueda meter un spam report no? Ya se que es retorcido pero la gente es mala jajajaja

Otra cosa ¿has probado el uso de iframes para aquellas zonas que quieres excluir? Personalmente no me convence mucho y prefiero usar js para links normales pero para algunos casos como links agrupados es una solución sencilla. Ej en timeline de twitter integrado en una web.

¿Tienes experiencia comenta Vseo en el uso del adserver para eso?

Por cierto me gusta tu archivo de robots :D
Saludos!

Javier Lorente (@)hace Hace más de 12 años y 29 días

@vseo Supongo que ni conlos redirects ni agregando trackings codes esculpes tu zumo, curioso esto de esculpir líquidos hoygan!

@Dani si google puede acceder, tu puedes acceder. Aunque no estaría demás poder indicarle nuestro propio robots.txt particular dentro de las webmasterstools a cada buscador para no dejarlo público. La timeline de twitter ahora con el real time search puede resultar interesante mostrarla sin iframes para que tus twitts cojan relevancia.

@Pedro Como te aseguras que en el futuro no te cacheará esas búsquedas? Si un browser lo sigue, porqué no va a seguirlo Google?

@Lino la mejor manera de hacer link sculpting sin duda es hacerlo manualmente, es decir sin poner los links.



Lea otros artículos de El fichero Robots.txt para SEO

Últimos posts

Últimos comentarios


iara erthal
10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
Post: Representación visual de que es un Googol y Googolplex

cristina
que ha pasado?
Post: Valor del Alt en la imagenes

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II

Lino
@Fernando LEns es por si acaso falla en algo, pero viendo tu feedback y que no he dicho nada de esa hoja, la borraré :)
Post: Clustering de keywords SEO en Google Search Console - Parte II

Fernando LEns
Tremendo. Ya bien testado, funciona muy bien. Incluso con muchos datos tira bien y no tarda mucho . La pestaña de Cluster sin raiz sale v
Post: Clustering de keywords SEO en Google Search Console - Parte II

Quentin
Very good list, thx !
Post: Expresiones regulares para SEO (Google Search Console)