Cómo añadir el valor del meta Robots a Google Analytics via Google Tag Manager

Publicado el 24 de mayo del 2017, by Lino Uruñuela


Muchas veces los SEOs usamos determinados protocolos y/o directivas para dar determinadas señales a los Bots de los buscadores y otros servicios.

Así por ejemplo, podemos usar un meta para indicarles en qué fecha se publicó determinada noticia o a qué hora fue modificada por última vez.

		<meta property="article:published_time" content="2017-05-24T17:48:33+0200" />
		<meta property="article:modified_time" content="2017-05-24T17:48:34+0200" />
	


También tenemos otros protocolos/directivas para indicar a los robots que una url no es accesible para ellos, y que les prohibimos acceder a esa url, normalmente cuando sabemos que siempre querremos impedir el acceso a Google a determinadas urls usamos el robots.txt.


Meta NoIndex

Uno de los metas más usados es el meta robots, el cual indica a los buscadores que esa url no debe indexarse ni mostrarse en los resultados del buscador.

<meta name="robots" content="noindex,follow">

Este meta, al contrario que la directiva Disallow del robots.txt, no impide el acceso por parte del Bot al cotnenido de esa url, solo indica al buscador que ni el el contenido de esa url, ni la propia url debe ser mostrada en los resultados del buscador.

El meta robots se suele usar en urls que tienen contenido el cual podría ser considerado por Google como duplicado, o como thin content (contenido de baja calidad), de esta manera le damos una señal a Google para que no lo tenga en cuenta a la hora de evaluar el site porque sabemos que es contenido de baja calidad, ya sea por escaso, ya sea por duplicado, o ya sea porque realmente es de baja calidad, como ocurre a veces con los contenidos generados por los usuarios.

La mayoría de las veces usamos el meta noindex de una forma dinámica, es decir, dependiendo de diversos factores se le añadirá el meta noindex o no. Pongamos un ejemplo, tenemos un site donde los usuarios generan contenido, unos lo hacen muy bien, y otros en cambio lo hacen fatal, por ejemplo creando miles de contenidos con solo unas pocas palabras.

Queremos aprovechar el cotenido que creen los usuarios que cumpla ciertos requerimientos de calidad, por ejemplo, que el texto redactado contenga más de 200 palabras y una imagen. Todos los artículos que no cumplan al menos esta regla no queremos que Google lo valore como parte de nuestro site/contenido, una manera sencilla de realizarlo es introducir el meta con el valor noindex en aquellos contenidos que no satisfagan nuestras condiciones, y solo permitir su indexación (poniendo el meta robots con valor index) en aquellos contenidos con cierta calidad.

En muchas ocasiones, cuando el site tiene cierto histórico, el número de contenidos con el meta noindex puede ser muy superior al cotenido indexable, y eso no es bueno. Cada vez hay más urls de este tipo, que hacen perder el tiempo a Google, ya que aunque no lo indexa sí accede y la rastrea. Esto conlleva un gasto del presupuesto de rastreo que Google asigna al site, y lo gastará en urls que no van a darnos visitas al no ser indexanles.

Una de las mayores dificultades a las que me suelo enfrentar en sites grandes  (como webs de anuncios clasificados , o sites con un altísimo volumen de urls en su histórico) es saber cuántas y qué urls están, en ese u otro momento, con un meta noindex.


Cómo monitorizar el valor del meta Robots

Para saber el número de urls con meta noindex (o index) que tenemos en nuestro site podemos usar un crawler que rastree nuesrto site y nos lo indique. En webs grandes no hay crawler capaz de rastrear todas y cada una de las urls tal como hace Google. Normalmente estos crawlers o terminan con la memoria Ram de tu pc, como le ocurre a Screaming Frog, o terminan con tu cuenta bancaria como en el caso de Botify...

Hoy vamos a ver cómo ver y analizar el contenido de este meta en una dimensión personalizada de nuestro Google Analytics, y así poder segmentar y listar fácilmente las urls que tienen uno u otro valor, y lo mejor de todo, sin necesidad de implementación técnica en el código de nuestro site.

Para ello vamos a seguir estos pasos:

  1. Crear Dimensión personalizada en GA

    Llamaremos a esta nueva dimensión personalizada "MetaRobots", y nos fijaremos en el número del índice, en este caso el 3

  2. Creamos una variable en Tag Manager

    Dentro del Workspace de GTM creamos una variable del tipo JavaScript personalizada

  3. Añadimos el siguiente código JavaScript en la variable que acabamos de crear




  4. 						function metas() {
    				encontrada=0;
    				var metas = document.getElementsByTagName('meta'); 
    				for (i=0; i<metas.length; i++)
    				if (metas[i].getAttribute("name") == "robots") {
    				encontrada=1;
    				return metas[i].getAttribute("content"); 
    				}
    				if (encontrada==0)
    								return "index,follow";
    				}

     

  5. Crear dimensión personalizada en GTM

    En la configuración del tag de Universal Analytics en GTM creamos una dimensión personalizada
    El índice, en nuestro caso sería el 6 y el valor sería "{{MetaRobots}}"

  6. Pulbicamos el nuevo tag.

 

A partir de ahora ya podremos comprobar, mirando el tráfico de hoy por horas, que se está ejecutando de manera correcta. Yo he craedo dos segmentos avanzados, uno que contiene "noindex" en la dimensión secundaria MetaRobots y otro que no lo contiene



Para luego poder segmentar por el valor del meta y verlo así en los informes, este lo acabo de crear a la vez que este post, por eso hoy solo puedo visualizar los datos de las últimas hora.

 

Y podremos usar la nueva dimensión secundaria MetaRobots en nuestros informes de Google Analytics como cualquier otra

 

 

 

 

 

 


Javier Lorentehace Hace más de 3 años y 13 días

Gracias Lino!

David Ruizhace Hace más de 3 años y 13 días

Muy útil...gracias!

David Gironahace Hace más de 1 años y 210 días

Antes de Nada muchas gracias por la aportación.

Estoy probando de poner en marcha este procedimiento y me surgen un par de dudas.

En el punto 1 : Crear Dimensión personalizada en GA
Se informa que el id = 3, pero luego más adelante en el punto 4 : Crear dimensión personalizada en GTM se usa el id=6

Sobre el script, puede ser que falte cerrar una llave al código javascript?
En este código se define la función, pero cuando se ejecuta esta función si no se llama desde ningún sitio.

Y por último, ¿sería posible mediante este mismo procedimiento guardar la respuesta del servidor (404/200/500), el bot y la última fecha de visita?

Muchas gracias de antemano.





Lea otros artículos de Google Analytics

Últimos posts

Últimos comentarios


Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console

India

Buen día, muy buenas explicaciones! Justo estoy viendo las métricas de una consulta exacta. Cuando miro las páginas y sumo el total de cl
Post: Datos incoherentes y cálculo de la posición media en Search Console

FunnelPunk

@Lino probando mi script del futuro
Post: Errores críticos originados por el robots.txt

Lino

@Xavier que Google no pueda acceder no significa que no pueda indexarla. Lo que no hará es entrar, y por lo tanto, no podrá ver el conteni
Post: Errores críticos originados por el robots.txt

Xavier

Lino estoy haciendo un experimento y tengo una duda, si en una web donde puedes crearte un perfil de usuario capan mediante Robots.txt, pero
Post: Errores críticos originados por el robots.txt

Norek Beat

Realmente.. de verdad buen articulo, gracias. Aparte de la historia del principio,he comprendido por fin la posición media. No es ni la pri
Post: Datos incoherentes y cálculo de la posición media en Search Console

Lino

@seozamp sí se puede, mira por ejemplo el blog de @useo, seguro que tiene unos cua
Post: Informes y gráficas usando la API de Google Search Console

Henrique

Contenido rico! ¿Hay alguna forma de recopilar los datos de GSC a través de la API y verlos en Data Studio?
Post: Informes y gráficas usando la API de Google Search Console

rubiel taborda

hola amigo, he usado el plugins Lazy Load y la velocidad de la pagina ha mejorado muchom, creo que es una buena solucion, mas cuando es una
Post: Indexar imágenes en Google usando Lazy Load

Lino

@errioxa probando desde comentarios del site :)
Post: El valor de los logs para el SEO