Crear contenidos automáticamente

Una de las técnicas menos vistas de SEO BLACK HAT son las de creación de contenidos automáticos, seguro que las hay mejores y ni nos damos cuenta.

Esta técnica consiste en crear sitios webs automáticamente, sin necesidad de preocuparte de ir completando tu página con contenidos día a día, ni buscando links ni nada parecido a trabajar en el desarrollo de tu web site. Para esto necesitarás unos mínimos conocimientos de prorgamación y no tener ningún aprecio a tu dominio.

Lo primero que debermos hacer es crear un archivo de texto lleno de palabras obtenidas de otras páginas previamente seleccionadas automaticamente, por ejemplo los resultados de Google por las frases a posicionar.

A partir del fichero completo con unas 500 palabras obtenidas de la página de resultados de Google, crearemos nuevos ficheros, html o la extensión que queramos o necesitemos, ponienndo las palabras aleatoriamente una a una para que ninguna página sea igual (podemos poner en unas páginas 200 y en otras 300). Da igual que el resultado no tenga sentido.

Calcularemos la densidad de palabras clave que queramos en la página (por ejemplo un 5%), y según vayamos escribiendo las obtenidas del archivo, las iremos contando.

Con una simple condición de nuestra variable que cuenta las palabras

Si el resto del numero de la palabra actual dividio por   10 =  0
escribimos la frase a posicionar


En PHP, que a los programadores hasta nos resulta más fácil Wink

if ( ($contador_Palabra % 10) == 0)
      $texto_Contenido .= "frase a posicionar";
else
     $texto_Contenido .=$palabra_Aleatoria;


Así, crearemos contenido automáticamente, con palabras relacionadas con nuestra frase a posiconar (simetría de palabras) y totalmente optimizadas.

Tendremos que programar los links de los menús, imágenes y demás, pero realemente no es muy laborioso y consigues.
  • Crear páginas con distintas denisdades de palabras clave.
  • Frases clave en un porcentaje que queramos de las páginas.
  • Que se ejecuten cada x días para no crear todo a la vez.
  • Introducir x páginas nuevas el día que se ejecute.
  • Se actualiza regularmente.
Y un sin fín de posibilidades, autocompletar los comentarios si los tiene, enlazar de vez en cuando a otra con prestigio en ese tema...

Con 10 páginas así, haciéndolo sutilmente, llegarás a primeras posiciones, pero entonces será cuando desaparezcas para siempre porque Google te borra de sus resultados, pero lo hará manualmente cuando algún webmaster de la competencia lo visite. Si lo haces bien no podrá detectarlo autmáticamente. Otra cosa es que la uses para posicionar una segunda web, o inluso una tercera que posiciona a una legal que posiciona a otra.... lo mismo, un sin fín de posibilidades que yo ni practico, ni recomiendo.

 




Posts anteriores en SEO Black Hat


  • 0000-00-00 00:00:00

Publicado el 23 de enero del 2010 El otro día miré las páginas indexadas de mi dominio y eran más de 2.000 cuando yo sólo he escrito unos 200 artículos como mucho. Esto es debido a los cutre-tags que tengo debajo de cada artículo. Hacen una b&ua

Seguir leyendo
  • 0000-00-00 00:00:00

Hoy en uno de los comentarios, el Barbol, me ha preguntado por un PR muy alto de una web (Urbaniza.com) y mirando los links que tenía veo uno de Universia con un PR 9. La verdad es que entre una de mis tareas pendientes es enterarme de cómo introducir links hacia mis páginas

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 27 de mayo del 2008 No sé si será un bug de Google o que su algoritmo tiene un pequeño fallito, pero parece ser que es posible desposicionar a una página web no muy consolidada de una forma relativamente sencilla. Actualmente Google está dando mu

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el sábado 6 de Octubre de 2007 Comprobando cómo está actuando Google ante el spam de los .cn me ha hecho recordar una técnica Black Hat que vi hace tiempo. Posiblemente si buscas "tudominio .cn" verás que tu página sale en sitios q

Seguir leyendo
  • 2007-09-11 00:00:00

Publicado el martes 11 de Septiembre de 2007 Veo día tras día, como se crean blogs por todos lados que copian y pegan los artículos de otros ya sean de su propiedad o no. Algunos ponen la referencia, otros no pero da igual. Se están creando miles de blogs sól

Seguir leyendo
  • 0000-00-00 00:00:00

El otro día comenté de manera abstracta como generar contenidos automáticamente en tu web, también de cómo ya había cosas hechas de black hat SEO. Aquí os dejo un cacho de código black hat por si a alguno le interesa ver por dónde van

Seguir leyendo
  • 0000-00-00 00:00:00

Para ver auténtico black Hat SEO hay que mirar en inglés. No es que esté hecho, sino que lo venden. Es como comenté hace unos días en generar contenidos automáticamente, todo está inventado. Por supuesto no recomiendo estos programas black hat se

Seguir leyendo
  • 0000-00-00 00:00:00

Ayer vimos qué era el Cloaking  y como hacerlo a la manera tradicional con programación en el servidor. Hoy nos complicamos algo más para intentar que los distitos robots de Google, no sean capaces de darse cuenta de esta técnica. Os recuerdo que yo no aconsejo es

Seguir leyendo
  • 0000-00-00 00:00:00

Estos días escribiré entre otras cosas algunas técnicas Seo Black Hat, que desde aquí no recomiendo en absoluto a no ser que sólo necesiteis posicionamiento por breve tiempo puesto que lo más seguro es que cualquiera de vuestra competencia se queje a Google

Seguir leyendo

Últimos posts

Últimos comentarios


Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier Lorente

Siempre sospeché de https://www.seroundtable.com/amp/google-long-term-noindex-follow-24990.html tiene toda la lógica. En alguno de tus exp
Post: Meta Robots Noindex

Javier Lorente

Creo que deberíamos empezar a diferenciar ya de una vez por todas "indexadas" y "en el index server". Personalmente por indexadas entien
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier

Bueenas Lino! Gracias por tu respuesta! Efectivamente, cogiendo texto de una página hecha con javascript y poniéndolo en Google entre comi
Post: Meta Robots Noindex

Lino Uruñuela

Hola @Javier repondiendo a tu pregunta "¿significa eso que google no está viendo el contenido en texto y no lo posicionará?" con el mismo
Post: Meta Robots Noindex

Lino Uruñuela

@Alex R , lo primero graciias por a ti por participar :) Sobre tu prebunta ¿Dentro de un mismo artículo o entrada podemos hacer que no s
Post: Meta Robots Noindex

Javier

Buenas Lino Mecagoenlos! (vaya apellido tienes...) Tu artículo me ha dado mucho que pensar... acaban de hacerme una web en una agencia y
Post: Meta Robots Noindex

Alex R

Hola Lino! Te leo desde hace algún tiempo (genial el cambio de look) y casualmente he venido aquí con una duda sobre indexación. Lo
Post: Meta Robots Noindex

Contacta

Lánzate y pregunta!

Nos gustan los robots, pero no tanto
7 + 3