Red de links con webs ajenas

Publicado el sábado 6 de Octubre de 2007

Comprobando cómo está actuando Google ante el spam de los .cn me ha hecho recordar una técnica Black Hat que vi hace tiempo.

Posiblemente si buscas "tudominio .cn" verás que tu página sale en sitios que nunca los enviarías, compartiendo links con páginas de viagra, farmaceúticas, sexo, etc. Podrías llegar a pensar que te pueden penalizar por tener un link junto a ese tipo de sitios que normalmente acaban siendo penalizados de una u otra manera. No te preocupes (demasiado) porque según leo en SER, esos links según Google no te pueden perjudicar.

Esta es una técnica Black Hat SEO que se está viendo últimamente sobre todo con dominios .cn .cz .pl (perdón éstos usan técnicas de copia de contenido automático y no este tipo de link building), Hace ya muchísmo tiempo el que llevan haciendo esto,  todos lo hemos podido comprobar y padecer. Pero no sólo se basan en insertar links automáticamente allá donde pueden, además enlazan desde otras víctimas las paginas en las cuales consiguieron insertar un link (o 20). De esta manera se van creando una red de enlaces para tener links con algo más de importancia, siempre es mejor que la página que te enlaza tenga muchos back links.

Pongamos un ejemplo, tenemos una página A que es la que queremos posicionar. También tenemos un programita (mucha paciencia en su defecto) para rastrear webs en busca de cualquier formulario para introducir sus links en la página B (página víctima) normalmente en comentarios y foros.

Luego nuestro programita seguirá buscando y encontrará una tercera página C, ahí no sólo meterá su link a la web A, también lo hace a la B (que no es suya) con la misma palabra o muy relacionada. Con esto conseguirá que la página B vaya tomando el tema de la key para Google al ser enlazada desde otros sitios con esa misma palabra/s .

De forma esquemática

B -> A (la mía)
C --> A,B
D --> A,B,C
E --> A,B,C,D
F --> A,B,C,D,E

Si haces tu programita bien, tendrás muchas páginas víctima (cada vez más), enlazadas entre si por una o varias keys similares aumentando la autoridad que tienían día a día. Imaginar esto con cientos de páginas.

Pero vamos, que yo no lo haría porque al final es muy cantoso y lo más probable es que Google te eche de su index. A no ser que lo hagas un poco disimulado

 




Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


Lino

@errioxa probando desde comentarios del site :)
Post: El valor de los logs para el SEO

Lino

@Santy Jordi y Sergio muchas gracias! Irá mejorando, pero poco a poco :)
Post: Informes y gráficas usando la API de Google Search Console

sergio

Bravo! Gracias por compartir.
Post: Informes y gráficas usando la API de Google Search Console

Santy

Gracias Lino, muy útil para el día a día
Post: Informes y gráficas usando la API de Google Search Console

Jordi

Buenas tardes Lino, Felicidades por la herramienta, me parece algo espectacular y rápido de utilizar. Espero con muchas ganas ver las nue
Post: Informes y gráficas usando la API de Google Search Console

Joan marc

Muchísimas gracias @Lino!! Para acabar, sabes si con Varnish tendríamos problemas? Entiendo que al no hacerse siempre consultas al servid
Post: Monitorizar GoogleBot con Google Analytics

Lino

@Joan marc sí!, pero has de configurar el server para que cualquier URL que de 301 sea tratada por una única url del site (como la url de
Post: Monitorizar GoogleBot con Google Analytics

Joan marc

Excelento post Lino! Has podido trackear los 301 y 302?
Post: Monitorizar GoogleBot con Google Analytics

German

Hola amigo, lo cierto es que no me he enterado pajolera idea de lo que cuentas, aunque te felicito por aparecer en el Discovery de Google. M
Post: Google podria no querer el HTML de una URL

Lino

Una manera súper sencilla para comprobarlo: 1- Una URL, mirar un log de Googlrbot de esa UR cuando da 200 2- Comparar con otro log
Post: Google podria no querer el HTML de una URL