Crear contenidos automáticamente

Una de las técnicas menos vistas de SEO BLACK HAT son las de creación de contenidos automáticos, seguro que las hay mejores y ni nos damos cuenta.

Esta técnica consiste en crear sitios webs automáticamente, sin necesidad de preocuparte de ir completando tu página con contenidos día a día, ni buscando links ni nada parecido a trabajar en el desarrollo de tu web site. Para esto necesitarás unos mínimos conocimientos de prorgamación y no tener ningún aprecio a tu dominio.

Lo primero que debermos hacer es crear un archivo de texto lleno de palabras obtenidas de otras páginas previamente seleccionadas automaticamente, por ejemplo los resultados de Google por las frases a posicionar.

A partir del fichero completo con unas 500 palabras obtenidas de la página de resultados de Google, crearemos nuevos ficheros, html o la extensión que queramos o necesitemos, ponienndo las palabras aleatoriamente una a una para que ninguna página sea igual (podemos poner en unas páginas 200 y en otras 300). Da igual que el resultado no tenga sentido.

Calcularemos la densidad de palabras clave que queramos en la página (por ejemplo un 5%), y según vayamos escribiendo las obtenidas del archivo, las iremos contando.

Con una simple condición de nuestra variable que cuenta las palabras

Si el resto del numero de la palabra actual dividio por   10 =  0
escribimos la frase a posicionar


En PHP, que a los programadores hasta nos resulta más fácil Wink

if ( ($contador_Palabra % 10) == 0)
      $texto_Contenido .= "frase a posicionar";
else
     $texto_Contenido .=$palabra_Aleatoria;


Así, crearemos contenido automáticamente, con palabras relacionadas con nuestra frase a posiconar (simetría de palabras) y totalmente optimizadas.

Tendremos que programar los links de los menús, imágenes y demás, pero realemente no es muy laborioso y consigues.
  • Crear páginas con distintas denisdades de palabras clave.
  • Frases clave en un porcentaje que queramos de las páginas.
  • Que se ejecuten cada x días para no crear todo a la vez.
  • Introducir x páginas nuevas el día que se ejecute.
  • Se actualiza regularmente.
Y un sin fín de posibilidades, autocompletar los comentarios si los tiene, enlazar de vez en cuando a otra con prestigio en ese tema...

Con 10 páginas así, haciéndolo sutilmente, llegarás a primeras posiciones, pero entonces será cuando desaparezcas para siempre porque Google te borra de sus resultados, pero lo hará manualmente cuando algún webmaster de la competencia lo visite. Si lo haces bien no podrá detectarlo autmáticamente. Otra cosa es que la uses para posicionar una segunda web, o inluso una tercera que posiciona a una legal que posiciona a otra.... lo mismo, un sin fín de posibilidades que yo ni practico, ni recomiendo.

 


Invitado (@)hace Hace más de 16 años y 293 días

juas juas juas, interesante.... a ver si lo prueba alguien.

Kalixto (@)hace Hace más de 16 años y 293 días

pues como le de a todo el mundo por hacer esto google va apañado

juanito (@)hace Hace más de 12 años y 200 días

Para que calentarse tanto la cabeza teniendo a WProbot, aunque yo no Lo uso ;)



Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II