Posicionamiento con Blogs

Publicado el martes 11 de Septiembre de 2007

Veo día tras día, como se crean blogs por todos lados que copian y pegan los artículos de otros ya sean de su propiedad o no. Algunos ponen la referencia, otros no pero da igual.

Se están creando miles de blogs sólo para posicionar otras páginas, éstos además de que son todo contenidos duplicados a las  4 semanas se quedan estancados, supongo que al dueño no le da tiempo a actualizar los 100 que se ha creado el último mes. La técnica es sencilla, crear páginas con conido relacionado con la web a posicionar y poner un enlace en cada artículo "creado".

Los resultados de este método dependen sobre todo de la competencia de esa frase, ya que esos blogs no tienen ninguna autoridad y es imposible crear tantos como serían necesarios para búsquedas muy competidas. Pero para frases con poca competencia puede ser una manera de hacer un posicionamiento rápido y sin esfuerzos con la ayuda de la fácil indexación que los blogs tienen.

Google también lo sabe, y está claro que poco a poco tomará medidas contra este tipo de Black Hat, porque para mi esto es Black Hat, crear contenidos que ya existen con la única intención de alterar los resultados del buscador, cosa que al fin y al cabo todos intentamos.

Las posibles soluciones, que a mi entender, puede tomar Google son:

  • que los enlaces en los blogs cuenten menos,
  • que los enlaces en los blogs poco actualizados cuenten menos.
  • que los blogs que tengan contenido duplicado sean mas "penalizados".
Si algún día Google tomase algunas de estas medidas ¿cómo sabría que es un blog? pues identificando si hace pings, si es wordpress, etc.

Tiempo al tiempo, pero creo que los blogs volverán a ser lo que eran, una simple página para contar la vida personal de las personas y no una herramienta para posicionamiento.

 




Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II