Cloaking Black Hat SEO

Estos días escribiré entre otras cosas algunas técnicas Seo Black Hat, que desde aquí no recomiendo en absoluto a no ser que sólo necesiteis posicionamiento por breve tiempo puesto que lo más seguro es que cualquiera de vuestra competencia se queje a Google y os borrarán del mapa a golpe de ratón, no lo dudéis.

CLOACKING
Esta técnica consiste en mostrar al robot de Google una página web distinta a la que le muestras a los usuarios. Con esto podemos haer una página completamente optimizada para determindas búsquedas para que el robot la vea así, y otra más funcional y lógica para los usuarios.

Esto se consigue analizando varios parámetros en el servidor antes de devolver la página al navegador, por ejemplo en PHP podemos obtener el host desde el que el visitante llega de la siguiente manera:

 $host = @gethostbyaddr($REMOTE_ADDR); 

por ejemplo cuando pasa un robot de Google nos devuelve crawl-66-249-70-34.googlebot.com, pero hay más, muchos más. Lo que pasa es que coinciden en googlebot.com y así podríamos identificar que es el robot de google y devolverle la página que hemos optimizado para él.

$host = @gethostbyaddr($REMOTE_ADDR);
if (substr($host,-1,14) == "googlebot.com"){
     //Código para el robot
}
else {
    //Código para el usuario
}


¿Fácil y sencillo? pues no, no sólo porque nos podemos complicar más y hacerlo mucho más óptimo sino porque Google no es tonto y de vez en cuando nos mándará algún robot que no podamos identificar y nos pillará.

Pero si te quieres arriesgar no te quedes aquí, identifica la referencia de dónde vienen con $HTTP_REFERER, analízalas y optimiza según sea esa referencia. Si vienen preguntando por pisos, muestrale todo orientado a pisos, título, descripción, contenidos... Si vienene preguntando por apartamentos muestra apartamentos, y así haces una web a medida no solo con los robots sino también con los usuarios, pero claro al final te acabaran pillando....

En este tema podríamos seguir profundizando pero no creo que a muchos les interese, y yo no aconsejo estos métodos para posicionamiento de webs.

 


alberto merello (@anmsterra.cl)hace Hace más de 9 años y 51 días

HOLA, A MI ME INTERESA.

FAVOR DIME DONDE CONSIGO ESTE CODIGO?

GRACIAS



Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II