PR sculpting con JavaScript y Robots.txt

Publicado el 28 de febrero del 2010

Ya vimos como hacer PR sculpting usando JavaScript, así, independientemente de  cómo Google quiera valorar los enlaces nofollow (a veces nos dice que valen para pr sculpting y otras nos dice que no) nos aseguramos que el peso de una url lo traspasemos exactamente entre los links que nosotros queramos.


Creo que hoy en día Google podría estar contando las etiquetas "<a" que haya en nuestra web para dividir entre ese número el peso que distribuye a cada enlace. Capacidad tiene, y sería un buen método por su parte para evitar que los SEOs hagamos fluir esa fuerza a nuestro antojo y de forma artificial.

En muchos casos, como por ejemplo blogs, hay enlaces a páginas externas en el nombre de los usuarios que comentan cada post. La última postura oficial de Google es que aunque pongas nofollow a esos links contarán a la hora de dividir tu PR, y encima, lo más seguro, es que ese PR no fluya hacia esas webs sino que simplemente ese PR se queda en el limbo de los links (lo desperdiciamos).

Podría ser que detecte cuando son comentarios, o enlaces externos y no contar con ellos a la hora de dividir el PR que distribuirá, pero eso no lo sabemos y lo podría cambiar cuando le apeteciese.

Lo mejor es crear esos links con JavaScript como ya dijimos;

 
<html>
    <head>
        <title>ejemplo de enlace con JS</title>
    </head>
<script>
function enlacesnofollow(enlace) {
    alert("");
    trozoUrl = "'http://";   //Descompongo la URL
    trozoOrden ="window.";   //Decompongo las órdenes JS
    trozoOrden2 ="location.";
    trozoOrden3 = "href=";
   
    //Interpreto la concatenación de cadenas
    eval(trozoOrden+trozoOrden2+trozoOrden3+trozoUrl+enlace+"'");
}
</script>
<body>
<span onclick="enlacesnofollow('www.yahoo.es');">hola</span>
</body>
</html>


 y además podemos poner la función que redirige al usuario a la nueva URL en un archivo .js y este archivo bloquearlo por el robots.txt

De esta manera Google nunca sabrá dónde va ese click ni que hace, y tampoco lo contará a la hora de la distribución del PR.

Actualización:
Como nos dice Pedro Martinez en los comentarios, todavía podemos ofuscar más nuestro código del enlace. Con JQuery puede ser todavía más sencillo, y como cuenta en su blog, Google de esta manera, dejó de cachearle determinadas URLs. Así que habrá que probar y asegurarnos de que no se entera de que eso realmente son links, aunque el usuario lo vea igual.


 


vseo (@)hace Hace más de 11 años y 241 días

Se suele establecer también redirectes alojados bajo una ruta que esté bloqueada en Robots y funciona muy bien.
También puedes añadirle un tracking de publicidad y Google lo omite

Errioxa (@)hace Hace más de 11 años y 241 días

Lo del redirect, podría ser otra manera, pero no harías sclupting, no?



Lo del tracking de publi pude ser buena manera, pero ¿contará a la hora de repartir PR? Yo creo que sí.

Dani Pinillos (@)hace Hace más de 11 años y 237 días

Hola Lino.

Muy buen complemento al PRsculpting con js.
Una cosa para rizar el rizo ¿Puedes ocultar el robots.txt desde cualquier petición diferente a bots para que nadie te pueda meter un spam report no? Ya se que es retorcido pero la gente es mala jajajaja

Otra cosa ¿has probado el uso de iframes para aquellas zonas que quieres excluir? Personalmente no me convence mucho y prefiero usar js para links normales pero para algunos casos como links agrupados es una solución sencilla. Ej en timeline de twitter integrado en una web.

¿Tienes experiencia comenta Vseo en el uso del adserver para eso?

Por cierto me gusta tu archivo de robots :D
Saludos!

Javier Lorente (@)hace Hace más de 11 años y 144 días

@vseo Supongo que ni conlos redirects ni agregando trackings codes esculpes tu zumo, curioso esto de esculpir líquidos hoygan!

@Dani si google puede acceder, tu puedes acceder. Aunque no estaría demás poder indicarle nuestro propio robots.txt particular dentro de las webmasterstools a cada buscador para no dejarlo público. La timeline de twitter ahora con el real time search puede resultar interesante mostrarla sin iframes para que tus twitts cojan relevancia.

@Pedro Como te aseguras que en el futuro no te cacheará esas búsquedas? Si un browser lo sigue, porqué no va a seguirlo Google?

@Lino la mejor manera de hacer link sculpting sin duda es hacerlo manualmente, es decir sin poner los links.



Lea otros artículos de El fichero Robots.txt para SEO

Últimos posts

Últimos comentarios


Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II

Lino
@Fernando LEns es por si acaso falla en algo, pero viendo tu feedback y que no he dicho nada de esa hoja, la borraré :)
Post: Clustering de keywords SEO en Google Search Console - Parte II

Fernando LEns
Tremendo. Ya bien testado, funciona muy bien. Incluso con muchos datos tira bien y no tarda mucho . La pestaña de Cluster sin raiz sale v
Post: Clustering de keywords SEO en Google Search Console - Parte II

Quentin
Very good list, thx !
Post: Expresiones regulares para SEO (Google Search Console)

Javier
Gracias Lino!
Post: Expresiones regulares para SEO (Google Search Console)

Lino
Hola Marcos, muy buena observación y sí, es tal como dices, o al menos yo percibo eso. El otro día lo comenté en el evento de ClickSeo
Post: Links y experimentos

Marcos
Hola Lino, gracias por tu excelente Blog Estuve replicando tu experimento, y vi lo siguiente: > Hice 3 pruebas, y no puedo posicionar co
Post: Links y experimentos

Lino
Hola @RicOriFra sí lo hay :), al vídeo sobre Search Console en el SEonthebeach
Post: Logs y Big Data

Lino
Hola @davidzslv sí me aparecieron, pero no siempre :s. Creo funciona igual que desde el Inspector, es decir, cuando quiere la indexa y cuá
Post: Solicitar indexación de una URL usando API Indexing + API Explorer