Diferencia de datos en Search Console para webs pequeñas dependiendo del método que usemos

Publicado el 9 de marzo del 2023 por Lino Uruñuela.

El otro día comenté la direncia que hay en la cantidad de datos obtenidos dependiendo del método que usemos para consultarlos, ya sea usando la propia web de Search Console, la API de Search Console o el nuevo método de exportación que acaba de implementar Search Console a través de Big Query.

Vimos una tabla dónde mostraba las diferencias que hay entre el nuevo método de exportación de datos de Search Console y el consultar los datos a través de la propia web de Search Console o de la API.

 

Hoy comparto esta misma tabla pero con datos de una web pequeña, con pequeña quiero decir que es una web con las siguientes características:

  • Web con unos 3.000 ~ 4.000 usuarios diarios
  • Web con menos de 1.000 URLs

 

Tabla con los datos según el método de consultarlos

  • New bulk export (datos filtrados por "search_type" = "WEB"): Son los datos extraídos mediante el nuevo método de exportación, por ejemplo, los clicks recibidos el día 17 de febrero sonn 3.227, y hay 100.712 impresiones, 1.247 URLs únicas y hay 15.324 keywords diferentes..

  • DATOS VIA WEB por propiedadEstos datos son obtenidos mediante la api, sin solicitar ni filtrar por las dimensiones de "query" o "page", este es el número que vemos encima de las gráficas de Search Console cuándo vemos los clicks o impresiones sin filtrar. Es el valor máximo de clicks que se pueden obtener tanto mediante la API como del interface WEB

  • % de datos que no veíamos usando la API y/o WEB:muestra qué porcentaje de clicks y de impresiones representan los datos que antes no podíamos ver a través de la WEB o usando  AP cuando lo comparamos con el nuevo método de exportación. 

    Por ejemplo para el día 17 de febrero, sin filtrar ninguna URL, cuando utilizamos el nuevo método obtenemos 3.227 clicks, mientras que para el mismo día si consultaos el dato de clicks mediate la web de Search Console o usando la AP es de 3.190 clicks. Por lo tanto la diferencia es de 3.227 - 3.190 = 37 clicks que representan al 1,15% del total de clicks, es decir, con el nuevo método para exportar datos de Search Console obtenemos un 1,15% más de clicks.

    Mientras que si filtramos por URL o por keyword, o solicitamos la lista de URLs o de kws los datos son más altos, De los 3.227 clicks que obtenemos utilizando el nuevo método de exportación pasamos a solo 1.320 clicks, lo que supone una pérdida del 59% de los clicks, de las 100.712 impresiones utilzando el nuevo método pasamos a 61.966 lo que representa una pérdida del 38,47%

Exportar de Search Console , comparativa

 

Me quedo bastante más tranquilo que cuándo realicé esta misma comparación con los datos de un site muy grande, unos 2 millones de usuarios diarios y con más de 100 millones de URLs dónde vimos que los datos "perdidos" si no utilizamos la exportación de Search Console a Big Query eran de más del 11% de clicks y más del 48% de las impresiones si no aplicábamos filtros, y si lo hacíamos la cifra se disparaba hasta un 78% de clicks y un 98% de las impresiones, 98% de las URLs diferentes y el 97% de las palabras clave.

Aun así, vemos que cuando aplicamos algún tipo de filtro de dimensión la brecha entre los datos según la fuente de dónde los obtengamos es más relevante, y cómo vimos en el anterior artículo es exageradamente grande cuando el site es también exagerada,ente grande!!

 

 

 

 




Lea otros artículos de Google Search Console

Últimos posts

Últimos comentarios


Nichol
An Easy-To-Follow Guide To Accidents Attorney Near Me accident attorney washington state
Post: Denunciar la venta de link

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console