Inicio Posicionamiento en Google   Posicionamiento  On Page  Dime que logs tienes, y te dire si Googlebot te quiere
  • Ponte tu sombrero
  • SEO bueno SEO malo
  • SEO White Hat
  • SEO Black Hat
  • ¿Qué es SEO?
  • Posicionamiento
  • WebmasterTools
  • estrellitas ★★★★☆ en el title
  • Google Analytics
  • Formación SEO
  • Cambios en las serps
  • Geolocalizar la web
  • Off Page
    On Page
    +
    Tratamiento de urls que tienen un tiempo de vida muy corto
    +
    Validando masivamente términos potenciales para muchas KWs
    +
    Velocidad de carga de una página web, ¿factor relevante para Google?
    +
    Dime que logs tienes, y te dire si Googlebot te quiere
    +
    Google aconseja no usar canonical en las paginaciones
    +
    Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas
    +
    Mejorar la experiencia de usuario
    +
    Evaluará Googel la tasa de rebote para los rankings
    +
    PR sculpting con desplegables
    +
    Código fuente
    +
    Links internos
    +
    Como evitar contenido duplicado
    +
    El contenido es el Rey
    +
    Posicionamiento de imágenes
    +
    Una web optimizada
  • Penalizacion en Google
  • Links y experimentos
  • Noticias
  • Ajax, ¿un arma sutil de Google?
  • Noticias de Youtube Tv
  • Yahoo
  • Live.com
  • Google
  • Personal
  • Off Topic: Google Vs Gallardon
  • 10 Años!
  • ¿Penalizará Google las empresas que traten mal a sus empleados?
  • Cambio de curro
  • Amigos míos
  • Tipos de marketing
  • Tipos de marketing online
  • Ver todos los artículos por orden cronólogico

    Últimos artículos
  • Google dice que no restrinjas ficheros css o javascript mediante robots.txt

  • Cómo camuflar tus links para que Google tenga en cuenta el alt de las imágenes

  • Despistar a Google usando <span> en vez de <a>

  • ¿Valorará Google el alt cuando hay una imagen + texto en el mismo enlace?

  • Benchmarking en Google Analytics y divagaciones sobre el marketing a cañonazos

  • Cómo obtener la fuente en Universal Analytics sin cookie utmz

  • El tráfico de Internet Explorer vuelve a ser orgánico

  • ¿Dosis de cafeína en Panda 4.0?

  • Últimos Comentarios
  • Sr Mason Clark: Mi nombre es Sr Mason Clark. Soy un pres...

  • Errioxa: @Cristian ¿en que paso te falla? ...

  • Cristian: Hola Lino... hice todo al pie de la letr...

  • Tony A: Hola, Pues igual me quedo. Las he pu...

  • Esteban : Lamentable el 90% de los que he leído aq...

  • Alex Luque: Hola: Me gustaría posicionar mi web en ...

  • Jorge Maiden: Haber que no salio el html del span, hab...

  • DJ: Ultimamente google esta haciendo cualqui...

  • SEO

    Dime que logs tienes, y te dire si Googlebot te quiere

     

    Publicado el 23 de junio del 2013 By Lino Uruñuela

     

    Algo muy común en el día a día de un SEO es mirar las distintas herramientas que Google nos proporciona dentro de WMT para saber el estado de nuestra web en cosas como la frecuencia de rastreo, el número de páginas indexadas, errores 404, errores 503, etc...

     

     

     

     

    No está mal echar de vez en cuando un vistazo a estos datos, pueden darnos señales de algo que ocurra en nuestra web.

    Pero creo que damos demasiada importancia a esos números e ignoramos otros datos en los que deberíamos fijarnos, por lo menos, de la misma manera aunque no nos los muestre WMT.

    En primer lugar, hay que inetentar comprender cómo funciona exactamente el bot de Google en nuestra página, y en segundo lugar, debemos optimizar lo que creamos que hay mejorable y/o arreglar lo que esté mal después de analizar lo que veamos.

    Por ejemplo, en el caso de los errores 404, o los errores propios del servidor los 501, 503, etc, estos datos debemos mantenerlos lo más bajo posible, porque todos podríamos afirmar en consenso que tener muchos errores, bueno no es. Así que si los controlamos mucho mejor.

    Hay otros datos como el número de páginas rastreadas al día, que no es que me fie o no de esa gráfica, porque realmente la mayoría de las veces coincide en las variaciones de la frecuencia de rastreo, cuando la contrastas con los logs . Pero posiblemente no sea muy importante el valor del número sino como varía y por qué! 


     

    Dicho esto, creo que nos conformamos con muy poco, con estos datos realmente estamos tuertos si no analizamos nada más. El saber qué está haciendo el bot cuando llega a nuestra web, por dónde está “perdiendo” el tiempo,

    • ¿cada cuanto vuelve a rastrear los distintos tipos de urls que tengamos?

    • ¿Con que frecuencia rastrea nuestros sitemaps?

    • ¿Cuántas redirecciones 301 tenemos en cada tipología de url? 

    • ¿Sigue Google rastreando redirecciones de hace 10 años? ya os lo adelanto... sí.
    • ¿Cuánto tiempo dedica a los paginados?

    • ¿Y a los filtros?

    • ¿Cuál es el ratio entre el número total de hits de Googlebot que hay en cada tipo de urls y los usuarios recibidos a éstas?



    ¿A que ahora parece que no sabemos nada?
    Hay que reconocer que la única información útil que nos puede mostrar Google Analytics y no nos la podrán dar los logs del servidor, son los datos de las kw de los usuarios que llegan de buscadores, y puede que dentro de pooco nos quedaremos sin referer, ya que cada vez hay más usuarios que van con esa información encriptada o directamente sin ella como en OS6.


    ¿Que podemos hacer de una forma rápida y fácil con los logs?
    Hay cuatro o cinco comandos (linux) que podemos/debemos usar para obtener unos datos muy interesantes de la actividad del bot en nuestras páginas.

    Ahí tenemos muchísima información, y si lo hacemos bien, que es muy fácil, tendremos datos más fiables que los de cualquier herramienta de analítica que nos proporcionen otros, como WMT.

    Vamos a ello!
    Digamos que nos bajamos los logs del servidor del último mes, o de donde los tengamos guardados. Normalmente vienen en ficheros separandos, por ejemplo, pongamos que tenemos

    • ficherologs.1

    • ficherologs.2

    • ficherologs.3

    • ficherologs.4

    • etc



    Lo primero que vamos a hacer es unir estos logs todos en un mismo fichero, para esto hacemos.

    cat ficherologs.* > logs-Unidos.txt

    Ahora que ya tenemos todos los logs juntitos, vamos analizar por ejemplo los hits que hace Googlebot en nuestro site. Para ello del fichero de logs-Unidos.txt vamos a quedarnos sólo con los accesos de Googlebot y los meteremos en otro archivo

    cat logs-Unidos.txt | grep Googlebot > AccesosTotalesGooglebot.txt

    Cada fila representa un acceso de Googlebot, entonces, ya tenemos el número total de veces que Googlebot ha pasado por nuestro site!, en dos órdenes... vamos a analizar un poquito más. Hay que tener en cuenta que en este fichero están todos los accesos, tanto a imágenes, js, etc. aunque Googlebot casi no entra en comparación al resto de urls

    Así que vamos a centrarnos en URLs de contenido, no js, css, o imágenes.
    No quedmaos sólo con la info útil de cada línea, en este caso las URLs

    cat AccesosTotalesGooglebot.txt | egrep -io 'GET (.*) HTTP' > HitsTotales.txt


    Ahora tenemos un fichero que está compuesto por líneas como estas

     

    Vemos que por cada línea tenemos un GET + landing + HTTP, el GET y el HTTP los he dejado ahí porque la primera vez que hice la expresión regular me salió de esta manera, y cómo realmente me da igual que estén o no... pues ahí siguen :)

    Ahora filtramos para quedarnos sólo con las urls de contenido, o sea, nos quedamos sólo con las que acaben en “.php HTTP” o en “/ HTTP”

    cat AccesosTotalesGooglebot.txt | egrep -io 'GET (.*)[\.php|/] HTTP' > Hits-URLs.txt


    Ahí tendremos por cada línea un acceso de Googlebot a la url de esa línea. Ahora sí, podemos saber el número de accesos que ha hecho en total el bot.

    egrep -c '' Hits-URLs.txt


    El resultado que devuelve es el número de hits que hace Googlebot en nuestro site.

    Puede que también queramos saber por ejemplo el desglose por tipo de url, entonces le ponemos el patrón que las diferencie, por ejemplo yo quiero saber cuántas hits hay a urls de un directorio haría

    egrep -c 'nombreDirectorio' Hits-URLs.txt


    Daros cuenta que en vez de nombreDirectorio le puedo poner el patrón que quiera, por ejemplo el patron que uso en las paginaciones, o el patrón que se usa en cada filtro. De esta manera también sabré cuánto tiempo dedica el bot a rastrear mis paginados... En todas las webs que miro se pasa casi un 80% del tiempo en paginados o haciéndose la picha un lío ordenándose a si mismo...

    Si la web es muy muy grande esto puede ser un punto en tu contra, porque ese tiempo que dedica a esos paginados interminables no se lo dedica a otras urls que quizás te interesaran más...

    Otro dato muy importante es saber a cuántas URls únicas accede, ¿cuántas URLs rastrea de verdad?

    Tal como está ahora puede haber muchos accesos por parte de Googlebot a una misma URL .pero nosotros ahora quremos analizar por ejemplo cuántas URLs distintas nos está rastreando
    Para eso vamos a ordenar y agrupar nuestro fichero de Hits-URLs.txt con la siguiente orden

    sort Hits-URLs.txt | uniq -c > hits-agrupados-por-urls.txt


    Si miramos cómo nos queda el fichero vemos algo así





    Donde el número de la primera columna es las veces que el bot de Google ha accedido a esa url. Ahora con la misma orden de antes (o contando las líneas totales del fichero) sabremos cuántas URLs distintas ha rastreado Google.

    egrep -c '' hits-agrupados-por-urls.txt


    De la misma manera podemos analizar cuánto tráfico orgánico nos llega desde Google por medio de los logs, y combinando con los datos que hoy hemos obtenido podemos tener una visión muy clara de que URls son rentables o cuáles no, pero esto lo dejaremos para el próximo post :)



    Además se pueden pintar todos estos datos gracias a muy diversas y variadas herramientas de gráficas, y así conseguiremos gráficas como estas, donde desglosamos todos estos filtros y datos.


    grtaficas de logs


    Actualización:

    Y no sólo eso, también podemos hacer muchas cosas con estos datos, como ver el comportamiento del bot de Google en comparación con el acceso de usuarios, ahí os dejo este vídeo.

     


    Dime que logs tienes, dire Googlebot quiere
    * Nombre
    * Email
    Comentarios:

    Escriba las dos palabras

    Print Imprimir Recommend the page Imprimir
    Contenidos: Lino Uruñuela, 2006 - 2013, SEO desde Donostia San Sebastián | Algunos los derechos reservados | Diseño: MeCagoEnLos.com - SEO y posicionamiento en buscadores
    Creative Commons License by MeCagoEnLos distribuido mediante la licencia Creative Commons Reconocimiento-No comercial-Compartir. Posicionamiento en buscadores, CP:20013 San Sebastian