PR sculpting con JavaScript y Robots.txt

Publicado el 28 de febrero del 2010

Ya vimos como hacer PR sculpting usando JavaScript, así, independientemente de  cómo Google quiera valorar los enlaces nofollow (a veces nos dice que valen para pr sculpting y otras nos dice que no) nos aseguramos que el peso de una url lo traspasemos exactamente entre los links que nosotros queramos.


Creo que hoy en día Google podría estar contando las etiquetas "<a" que haya en nuestra web para dividir entre ese número el peso que distribuye a cada enlace. Capacidad tiene, y sería un buen método por su parte para evitar que los SEOs hagamos fluir esa fuerza a nuestro antojo y de forma artificial.

En muchos casos, como por ejemplo blogs, hay enlaces a páginas externas en el nombre de los usuarios que comentan cada post. La última postura oficial de Google es que aunque pongas nofollow a esos links contarán a la hora de dividir tu PR, y encima, lo más seguro, es que ese PR no fluya hacia esas webs sino que simplemente ese PR se queda en el limbo de los links (lo desperdiciamos).

Podría ser que detecte cuando son comentarios, o enlaces externos y no contar con ellos a la hora de dividir el PR que distribuirá, pero eso no lo sabemos y lo podría cambiar cuando le apeteciese.

Lo mejor es crear esos links con JavaScript como ya dijimos;

 
<html>
    <head>
        <title>ejemplo de enlace con JS</title>
    </head>
<script>
function enlacesnofollow(enlace) {
    alert("");
    trozoUrl = "'http://";   //Descompongo la URL
    trozoOrden ="window.";   //Decompongo las órdenes JS
    trozoOrden2 ="location.";
    trozoOrden3 = "href=";
   
    //Interpreto la concatenación de cadenas
    eval(trozoOrden+trozoOrden2+trozoOrden3+trozoUrl+enlace+"'");
}
</script>
<body>
<span onclick="enlacesnofollow('www.yahoo.es');">hola</span>
</body>
</html>


 y además podemos poner la función que redirige al usuario a la nueva URL en un archivo .js y este archivo bloquearlo por el robots.txt

De esta manera Google nunca sabrá dónde va ese click ni que hace, y tampoco lo contará a la hora de la distribución del PR.

Actualización:
Como nos dice Pedro Martinez en los comentarios, todavía podemos ofuscar más nuestro código del enlace. Con JQuery puede ser todavía más sencillo, y como cuenta en su blog, Google de esta manera, dejó de cachearle determinadas URLs. Así que habrá que probar y asegurarnos de que no se entera de que eso realmente son links, aunque el usuario lo vea igual.


 




Últimos posts

Últimos comentarios


Javier Galán

Este post es una auténtica genialidad. Muy útil.
Post: Medir cuántos usuarios hacen click para ampliar la imagen en Google Imágenes, aunque no entren en nuestra web

Antonio

Hola Lino, Sabes si añadiendo como robot Googlebot ya incluye tanto al robot de desktop como de mobile? O se tendria que añadir Googlebot
Post: Monotorizar GoogleBot con Google Analytics

unoquepasa

Que pasaria si haces varias paginas y cambias el orden de las palabras en los titulos ¿cual se mostrara primero? las que esten mas cerca de
Post: ¿Cuántas palabras valorará Google en el title?

Alex Rodríguez

Muy buenas Lino! Me pasaba por aquí por casualidad a ver si encontraba algo de info de lo que pasó estos días y bueno... Parece que al
Post: Google comienza el año con dos updates

Lino Uruñuela

@Javi sí, sobre que hay mucho cafre por ahí, tienes razón, pero es como el robots.txt es "peligroso" en manos inadecuadas, igual que el n
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Javier Lorente

Gracias Lino! Para "ocultar" errores en plan de andar por casa tiro de robots. Por otro lado, estamos ante una genial actualización que
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier Lorente

Siempre sospeché de https://www.seroundtable.com/amp/google-long-term-noindex-follow-24990.html tiene toda la lógica. En alguno de tus exp
Post: Meta Robots Noindex

Contacta

Lánzate y pregunta!

Nos gustan los robots, pero no tanto
7 + 3