Keywords para hoy not provided para mañana

Publicado el 4 de abril del 2013 by Lino Uruñuela

Como todos sabemos desde hace más de un año el Not Provided cada vez aglutina más keywords en nuestras estadísticas y aunque aun podemos trabajar casi igual que hace dos años, no creo que podamos hacerlo dentro de otros dos...


El crecimiento del término Not Provided en las estadísticas de entrada de los sites es un poco alarmante.

Fucking not provided


Yo en algunos casos llego casi al 40%, y estoy empezando a "preocuparme" y por lo tanto en ir pensando en cómo resolver este problema que se nos avecina. En inglés todavía es mayor


Fucking not provided

Ya comentó Iñaki Huerta con su idea sobre cómo habría que analizar los datos de entrada de los usuarios a nuestro site y como deberíamos ir pensando en aprender a intuir que Keywords llegan a cada URL.

La verdad que dentro de nuestro site pocas cosas se pueden hacer, lo único que veo posible es aplicar una regla de tres y si para una URL tengo 100 entradas en total, de las cuales 70 son "not provided", 15 con kw1, 7 con kw2, 4 con kw3 y 1 con kw4 podríamos imaginar que de los 70 not provided se repartiran en proporción.

O sea, que de los 70
  • 10,5 son con Kw1
  • 4,9 con kw2
  • 2,8 con kw3
  • 0,7 con kw4


Pero claro nunca lo sabremos seguro, pero es una manera de intuirlo.

Mis grandes dudas son

  • ¿Cómo voy a saber que keywords me convierten y cuáles no?
    Ah! sí, con AdWords sí te da esos datos.

  • ¿Cómo voy a realizar una estrategia de generación de contenido en base a la demanda?
    Ah síl, con AdWords podré verlo

  • ¿Cómo voy a saber que keywords debo potenciar o que tal de efectiva está siendo una campaña SEO para determinadas KW?
    Ah sí, con AdWords puedo.....

  • Las herramientas de tracking de keywords como SEOMoz, AWR etc no tendrán tanta utilidad ya que lo único que harán será trackear posiciones sin poder cruzar datos.


Creo que esto puede fomentar el scrapeo de la competencia y de todas las fuentes que podamos para así intenar posicionarnos por las KW por las que nuestra competencia esté posicionada. No digo que sea la mejor idea, pero es una fuente de "probables" kw que no sabremos sin funcionan o no, y como no tendremos esa visibilidad las burradas serán mayores.

Si vemos que una URL determinada o un grupo de urls determinadas experimenta una crecida de visitas desde Google, incoscientemente prestaremos más atención a ese contenido, aunque no tengamos ni pajolera idea de que se está cociendo... y en muchos casos nos desviará del camino que anteriormente nos habíamos marcado... y esto no es bueno.

No saber qué tipo de usuarios y por que tipo de búsquedas llegan a tu site no sólo fastidia al SEO sino a cualquier persona que realmente se interese por su producto. Muchas webs perderán credibilidad ante sus clientes, por ejemplo se me ocurren las típicas webs donde su modelo de negocio es vender posiciones más altas en los listados de sus categorías o productos. La conversión para el anunciante seguro que es muchísimo peor y generará desconfianza.


Un site que intente ofrecer la mejor opción para sus clientes podrá persuadirlos con datos de palabas potenciales para éste. En cambio los sites que vendan humo y que ofrecerán datos de miles de usuarios en determinados listados podrían estar mintiendo como auténticos bellacos...


Yo creo que que el no saber los términos por los que llegan los usuarios no sólo perjudica al SEO, produce daños colaterales a todos los departamentos

  • El departamento de producto no sabrá explicarse muchas cosas de las que ocurran en su web

  • El departamento de contenido tendrá que estrujarse más la cabeza para adivinar que podría interesar a sus usuarios y no recibirá las señales que las KWs te dan para esto.

  • El departamento de experiencia de usuario no tendrá tan fácl el adivinar por qué ciertos usuarios no convierten

  • El departamento comercial no tendrá datos fiables para vender.

  • Aumentará x100 los sitios duplicados y scrapeados. Muchos intentarán obtener posibles KW ya que el keyword research también se verá muy mermado. Guardar datos de estos años que tenemos información puede ser como invertir en oro....

Además, Google con el monopolio que ha creado como buscador podrá echar a todos sus competidores de analítica web. ¿Para que voy a contratar otra herramienta  si no me va a dar ni un 5% de las KW?

Creo que vamos a jugar a la gallinita ciega... y Google es el lobo que y sin pañuelo en los ojos

Ala.... me quedé agusto!


 




Lea otros artículos de Google Analytics

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.

Últimos posts

Últimos comentarios


Fran Javietr

Hola Lino como podemos añadir a este código la identificación de la ip del bot, como sabes hay falsos bots y una forma de saber si son l
Post: Monotorizar GoogleBot con Google Analytics

Javier

Buenas Lino, ¿Alguna novedad sobre cómo considera Google los links en PDFs? Se me ocurre que, siguiendo con este experimento, se po
Post: Link building con PDF

Francisco

Flaco. Por lo general, no dejo comentarios pero, en tu caso, voy a hacer una excepción pues, sencillamente... ¡sos un genio!, Gracias.
Post: Cómo cargar css y js y no bloquear la carga de contenido

Juan Francisco Gancia

Excelente artículo, gracias! Te encuentro de casualidad por un post de hace 10 años.
Post: Diferencias entre url indexada y url accesible

Lino Urnuela

@Emirodgar gracias! Pero parece que en tema de imágenes las pilla lo hagas cómo lo hagas parece, eso sí, siempre que no tengas un fall
Post: Indexar imágenes en Google usando Lazy Load

Emirodgar

Muy interesante el experimento. Yo estaba probando con los nuevos formatos webp y pero al final, como eran pocas imágenes y usaba Masonry,
Post: Indexar imágenes en Google usando Lazy Load

Lino Uruñuela

Completamente de acuerdo :) Pero en este experimento solo quería comprobar el método usado para hacer lazy load, en este caso con xmlht
Post: Indexar imágenes en Google usando Lazy Load

Francisco Morales

Lino muy interesante las distintas formas de cargar la imagen. Pero no crees que lo realmente interesante de aplicar Lazy Loading es cargar
Post: Indexar imágenes en Google usando Lazy Load

javier

Buenas , esto del onclik ha cambiado actuamente en algunas web que tengo las lee y sigue enlaces
Post: ¿Cómo ejecuta, interpreta e indexa Google el contenido cargado mediante javascript?

David Girona

Antes de Nada muchas gracias por la aportación. Estoy probando de poner en marcha este procedimiento y me surgen un par de dudas. En
Post: Cómo añadir el valor del meta Robots a Google Analytics via Google Tag Manager