Posicionamiento con Blogs

Publicado el martes 11 de Septiembre de 2007

Veo día tras día, como se crean blogs por todos lados que copian y pegan los artículos de otros ya sean de su propiedad o no. Algunos ponen la referencia, otros no pero da igual.

Se están creando miles de blogs sólo para posicionar otras páginas, éstos además de que son todo contenidos duplicados a las  4 semanas se quedan estancados, supongo que al dueño no le da tiempo a actualizar los 100 que se ha creado el último mes. La técnica es sencilla, crear páginas con conido relacionado con la web a posicionar y poner un enlace en cada artículo "creado".

Los resultados de este método dependen sobre todo de la competencia de esa frase, ya que esos blogs no tienen ninguna autoridad y es imposible crear tantos como serían necesarios para búsquedas muy competidas. Pero para frases con poca competencia puede ser una manera de hacer un posicionamiento rápido y sin esfuerzos con la ayuda de la fácil indexación que los blogs tienen.

Google también lo sabe, y está claro que poco a poco tomará medidas contra este tipo de Black Hat, porque para mi esto es Black Hat, crear contenidos que ya existen con la única intención de alterar los resultados del buscador, cosa que al fin y al cabo todos intentamos.

Las posibles soluciones, que a mi entender, puede tomar Google son:

  • que los enlaces en los blogs cuenten menos,
  • que los enlaces en los blogs poco actualizados cuenten menos.
  • que los blogs que tengan contenido duplicado sean mas "penalizados".
Si algún día Google tomase algunas de estas medidas ¿cómo sabría que es un blog? pues identificando si hace pings, si es wordpress, etc.

Tiempo al tiempo, pero creo que los blogs volverán a ser lo que eran, una simple página para contar la vida personal de las personas y no una herramienta para posicionamiento.

 




Posts anteriores en SEO Black Hat


  • 0000-00-00 00:00:00

Publicado el 23 de enero del 2010 El otro día miré las páginas indexadas de mi dominio y eran más de 2.000 cuando yo sólo he escrito unos 200 artículos como mucho. Esto es debido a los cutre-tags que tengo debajo de cada artículo. Hacen una b&ua

Seguir leyendo
  • 0000-00-00 00:00:00

Hoy en uno de los comentarios, el Barbol, me ha preguntado por un PR muy alto de una web (Urbaniza.com) y mirando los links que tenía veo uno de Universia con un PR 9. La verdad es que entre una de mis tareas pendientes es enterarme de cómo introducir links hacia mis páginas

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 27 de mayo del 2008 No sé si será un bug de Google o que su algoritmo tiene un pequeño fallito, pero parece ser que es posible desposicionar a una página web no muy consolidada de una forma relativamente sencilla. Actualmente Google está dando mu

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el sábado 6 de Octubre de 2007 Comprobando cómo está actuando Google ante el spam de los .cn me ha hecho recordar una técnica Black Hat que vi hace tiempo. Posiblemente si buscas "tudominio .cn" verás que tu página sale en sitios q

Seguir leyendo
  • 0000-00-00 00:00:00

El otro día comenté de manera abstracta como generar contenidos automáticamente en tu web, también de cómo ya había cosas hechas de black hat SEO. Aquí os dejo un cacho de código black hat por si a alguno le interesa ver por dónde van

Seguir leyendo
  • 0000-00-00 00:00:00

Para ver auténtico black Hat SEO hay que mirar en inglés. No es que esté hecho, sino que lo venden. Es como comenté hace unos días en generar contenidos automáticamente, todo está inventado. Por supuesto no recomiendo estos programas black hat se

Seguir leyendo
Space Needle
Una de las técnicas menos vistas de SEO BLACK HAT son las de creación de contenidos automáticos, seguro que las hay mejores y ni nos damos cuenta. Esta técnica consiste en crear sitios webs automáticamente, sin necesidad de preocuparte de ir completando tu p&aac

Seguir leyendo
  • 0000-00-00 00:00:00

Ayer vimos qué era el Cloaking  y como hacerlo a la manera tradicional con programación en el servidor. Hoy nos complicamos algo más para intentar que los distitos robots de Google, no sean capaces de darse cuenta de esta técnica. Os recuerdo que yo no aconsejo es

Seguir leyendo
  • 0000-00-00 00:00:00

Estos días escribiré entre otras cosas algunas técnicas Seo Black Hat, que desde aquí no recomiendo en absoluto a no ser que sólo necesiteis posicionamiento por breve tiempo puesto que lo más seguro es que cualquiera de vuestra competencia se queje a Google

Seguir leyendo

Últimos posts

Últimos comentarios


Lino Uruñuela

@David Es capaz de renderizar e interpretar el JavaScript siempre que no haga falta la interacción del usuario. Me explico, si pones una fu
Post: Ofuscando enlaces para mejorar Link Juice

David

Hablando sobre la ofuscación de enlaces, tras las últimas noticias de Google y su segunda oleada de indexación tras la renderización de
Post: Ofuscando enlaces para mejorar Link Juice

Javier Galán

Este post es una auténtica genialidad. Muy útil.
Post: Medir cuántos usuarios hacen click para ampliar la imagen en Google Imágenes, aunque no entren en nuestra web

Antonio

Hola Lino, Sabes si añadiendo como robot Googlebot ya incluye tanto al robot de desktop como de mobile? O se tendria que añadir Googlebot
Post: Monotorizar GoogleBot con Google Analytics

unoquepasa

Que pasaria si haces varias paginas y cambias el orden de las palabras en los titulos ¿cual se mostrara primero? las que esten mas cerca de
Post: ¿Cuántas palabras valorará Google en el title?

Alex Rodríguez

Muy buenas Lino! Me pasaba por aquí por casualidad a ver si encontraba algo de info de lo que pasó estos días y bueno... Parece que al
Post: Google comienza el año con dos updates

Lino Uruñuela

@Javi sí, sobre que hay mucho cafre por ahí, tienes razón, pero es como el robots.txt es "peligroso" en manos inadecuadas, igual que el n
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Javier Lorente

Gracias Lino! Para "ocultar" errores en plan de andar por casa tiro de robots. Por otro lado, estamos ante una genial actualización que
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.