Red de links con webs ajenas

Publicado el sábado 6 de Octubre de 2007

Comprobando cómo está actuando Google ante el spam de los .cn me ha hecho recordar una técnica Black Hat que vi hace tiempo.

Posiblemente si buscas "tudominio .cn" verás que tu página sale en sitios que nunca los enviarías, compartiendo links con páginas de viagra, farmaceúticas, sexo, etc. Podrías llegar a pensar que te pueden penalizar por tener un link junto a ese tipo de sitios que normalmente acaban siendo penalizados de una u otra manera. No te preocupes (demasiado) porque según leo en SER, esos links según Google no te pueden perjudicar.

Esta es una técnica Black Hat SEO que se está viendo últimamente sobre todo con dominios .cn .cz .pl (perdón éstos usan técnicas de copia de contenido automático y no este tipo de link building), Hace ya muchísmo tiempo el que llevan haciendo esto,  todos lo hemos podido comprobar y padecer. Pero no sólo se basan en insertar links automáticamente allá donde pueden, además enlazan desde otras víctimas las paginas en las cuales consiguieron insertar un link (o 20). De esta manera se van creando una red de enlaces para tener links con algo más de importancia, siempre es mejor que la página que te enlaza tenga muchos back links.

Pongamos un ejemplo, tenemos una página A que es la que queremos posicionar. También tenemos un programita (mucha paciencia en su defecto) para rastrear webs en busca de cualquier formulario para introducir sus links en la página B (página víctima) normalmente en comentarios y foros.

Luego nuestro programita seguirá buscando y encontrará una tercera página C, ahí no sólo meterá su link a la web A, también lo hace a la B (que no es suya) con la misma palabra o muy relacionada. Con esto conseguirá que la página B vaya tomando el tema de la key para Google al ser enlazada desde otros sitios con esa misma palabra/s .

De forma esquemática

B -> A (la mía)
C --> A,B
D --> A,B,C
E --> A,B,C,D
F --> A,B,C,D,E

Si haces tu programita bien, tendrás muchas páginas víctima (cada vez más), enlazadas entre si por una o varias keys similares aumentando la autoridad que tienían día a día. Imaginar esto con cientos de páginas.

Pero vamos, que yo no lo haría porque al final es muy cantoso y lo más probable es que Google te eche de su index. A no ser que lo hagas un poco disimulado

 




Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II