Obtener datos de Search Console día a día con php

Publicado por Lino Uruñuela el 21 de agosto del 2015

El oto día Google anunció lo que muchos SEOs veníamos pidiendo desde hace años, una API decente para acceder a los datos que nos da Google Search Console.

Anteriormente se hacía la extracción de estos datos emulando un acceso normal de usuario y se extraían esos datos, pero era muy engorroso y muy poco práctico. Pero esto ha cambiado y Google por fin nos da acceso mediante una API.

Hoy vamos a ver cómo extraer esos datos mediante la API desde PHP y guardar esos datos en una base de datos, yo he usado MongoDB, y es que por fin estoy migrando todas mis herramientas de MySql a MongoDB, la diferencia es abismal :)

En este post no explicaré nada de MongoDB simplemente el cómo extraer los datos con PHP, así luego cualquiera podrá usarlo y guardarlos dónde y como quiera.

Limitaciones de la API

Una de las cosas que siempre echamos de menos en Google Search Console (GSC) es que solo nos ofrece 90 días de "consultas de búsqueda" y muchas veces esto puede ser una putada gran pega ya que para muchas cosas se nos queda corto este intervalo de tiempo.

Por ello mi primera recomendación es guardar los datos en nuestro propio sistema (en mi caso MongoDB) e ir actualizándolo día a día, de esta manera podremos tener un histórico completo.

Activar el uso de la API

Lo primero que debemos hacer crear un proyecto en la consola y después activar la API para ese proyecto desde la Consola de APIs de Google, dónde activaremos la API "Google Search Console"

API Google Search Console

El segundo paso una vez activada es elegir el tipo de acceso que queremos, en nuestro caso será una "cuenta de servicio" ya que lo que queremos es que pueda tener acceso sin presencia humana, es decir, sin tener que meter usuario y contraseña de Google para identificarnos cada vez que se ejecute, sino que pueda acceder sin ninguna intervención.

API Google Search Console


Y elegiremos como tipo de clave un fichero P12

API Google Search Console

Nos descargamos nuestro fichero y lo guardamos en la misma carpeta donde ejecutaremos el script.

Ahora veremos que nos ha creado un usuario de correo muy raro y largo

API Google Search Console

Este usuario tendremos que darle de alta en GSC y darle permiso de lectura en nuestro dominio dentro de GSC

API Google Search Console

Una vez tengamos esto hecho, ya podemos centrarnos en el código.

Código PHP

Como en otras APIs ofrecidas por Google haremos el acceso mediante la librería ofrecida por el propio Google y que te puedes descargar desde aquí. Y también nos ofrece una guía de cómo usarla.

Una vez la descarguemos tendremos que incluirla en nuestro código, si la descargamos en el mismo directorio del script sería

		require_once 'google-api-php-client/src/Google/autoload.php';
		

Ahora vamos a obtener las credenciales para el acceso

		$key_file_location ='Fichero-c36f200a8499.p12'; //Fichero P12 
		$service_account_name = 'Nombre del Proyecto'; //Nombre del Proyecto en la consola de APis de Google 
		$client_id = 'XXXX-XCXXX.apps.googleusercontent.com';
		$Email_address = 'XXXX-XCXXX@developer.gserviceaccount.com';	 	
		
		$client = new Google_Client();	 	
		$client->setApplicationName("Nombre del Proyecto");
		$key = file_get_contents($key_file_location);	 
		$scopes ="https://www.googleapis.com/auth/webmasters.readonly"; 	
		$cred = new Google_Auth_AssertionCredentials(	 
			$Email_address,	 	 
			array($scopes),	 	
			$key	 	 
			);	 	
		$client->setAssertionCredentials($cred);
		

Obtenidas ya las credenciales llamamos al servicio Webmasters que nos proporciona Google

		$webmastersService = new Google_Service_Webmasters($client);
		$searchanalytics = $webmastersService->searchanalytics;
		$request = new Google_Service_Webmasters_SearchAnalyticsQueryRequest;
		

Ahora vamos a indicar de que fechas queremos obtener los datos, pensando en ejecutar este script día a día, la fecha final y la inicial serán la misma. Y teniendo en cuenta que GSC ofrece como datos más recientes los tres días a la fecha de hoy nos queda

		$fecha_Inicial = date("Y-m-d",strtotime('-3 day',strtotime(date("Y-m-d"))));
		$fecha_Final = date("Y-m-d",strtotime('-3 day',strtotime(date("Y-m-d"))));
		

Recorremos cada uno de los resultados y los vamos introduciendo en nuestra base de datos, en mi caso en MongoDB

		while ($fecha_Inicial<=	$fecha_Final){
			$request->setStartDate($fecha_Inicial);
			$request->setEndDate($fecha_Inicial);
			$request->setDimensions(["date","query","page","country","device"]);
			$qsearch = $searchanalytics->query($miDominio, $request); 
			$rows2 = $qsearch->getRows();
			foreach($rows2 as $fila){
				$kwFecha = $fila["keys"][0];
				$kwQuery = $fila["keys"][1];
				$kwPage = $fila["keys"][2];
				$kwCountry = $fila["keys"][3];
				$kwDevice = $fila["keys"][4];
				$kwClicks = $fila["clicks"];
				$kwCtr = round($fila["ctr"],2);
				$kwImpresiones = $fila["impressions"];
				$kwPosicion = round($fila["position"],2);
				$MongoFecha = new MongoDate(strtotime($kwFecha." 02:00:00"));
				$datos = array("GSCId"=>getNextSequence("GSCId"),"fecha"=>$MongoFecha,"kw"=>$kwQuery,"page"=>$kwPage,"impresiones"=>$kwImpresiones,"clicks"=>$kwClicks,"ctr"=>$kwCtr,"posicion"=>$kwPosicion,"country"=>$kwCountry,"device"=>$kwDevice);
				$collection->insert($datos);
			}
			$varFecha_Inicial = new DateTime($fecha_Inicial);
			$varFecha_Inicial=date_add($varFecha_Inicial, date_interval_create_from_date_string('1 days'));
			$fecha_Inicial=$varFecha_Inicial->format("Y-m-d");	
			$contador_dias++;
		}
		

Y con esto ya estaremos metiendo los datos que nos da la API del día más reciente a hoy, es decir, los datos de hace tres días.

API Google Search Console


Como vemos obtenemos todas las dimensiones posibles,  para que los datos sean los más exactos posibles. Luego ya en nuestro sistema podremos hacer las consultas tal como queramos en cada momento, agrupando, sumando lo que queramos.

En próximos posts veremos como dar todavía más valor a estos datos :)

 


Jordi Rosellhace Hace más de 4 años y 255 días

No sólo eso. En magento tengo un plugin cron diario para vincular datos dia a dia de GA organico de google con GSC :)

Pedro J. Garcimartínhace Hace más de 4 años y 234 días

Hola.
Estoy intentando descargar +1000 errores de GSC y he obtenido un código en php (creo) para obtener todas las urls rotas.

¿Dónde pongo ese código?

Gracias.

Errioxahace Hace más de 4 años y 229 días

@Pedro J. Garcimartín ¿te refieres a dónde lo pones en tu web para hacerlo? ¿o quieres compartirlo con el resto?

si me lo envías por mail lo publico aquí mismo ;)

Javier Lorente Murillohace Hace más de 4 años y 193 días

Publica algo más sencillito, con una orden tipo PUT https://www.googleapis.com/webmasters/v3/sites/www.tuweb.com%2Fen%2FResults%2BStatistics?key={APIKEY} para agregar sitios :-)

O como descargar errores, con la consola.

Gracias!

David Gironahace Hace más de 3 años y 190 días

Existe algún programa o plugin de wordpress que haga precisamente esto?
Conectar con SC sincronizar y analizar los datos en el tiempo?
Gracias!

David Gironahace Hace más de 3 años y 190 días

Existe algún programa o plugin de wordpress que haga precisamente esto?
Conectar con SC sincronizar y analizar los datos en el tiempo?
Gracias!



Lea otros artículos de Google Search Console

Últimos posts

Últimos comentarios


Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console

India

Buen día, muy buenas explicaciones! Justo estoy viendo las métricas de una consulta exacta. Cuando miro las páginas y sumo el total de cl
Post: Datos incoherentes y cálculo de la posición media en Search Console

FunnelPunk

@Lino probando mi script del futuro
Post: Errores críticos originados por el robots.txt

Lino

@Xavier que Google no pueda acceder no significa que no pueda indexarla. Lo que no hará es entrar, y por lo tanto, no podrá ver el conteni
Post: Errores críticos originados por el robots.txt

Xavier

Lino estoy haciendo un experimento y tengo una duda, si en una web donde puedes crearte un perfil de usuario capan mediante Robots.txt, pero
Post: Errores críticos originados por el robots.txt

Norek Beat

Realmente.. de verdad buen articulo, gracias. Aparte de la historia del principio,he comprendido por fin la posición media. No es ni la pri
Post: Datos incoherentes y cálculo de la posición media en Search Console

Lino

@seozamp sí se puede, mira por ejemplo el blog de @useo, seguro que tiene unos cua
Post: Informes y gráficas usando la API de Google Search Console

Henrique

Contenido rico! ¿Hay alguna forma de recopilar los datos de GSC a través de la API y verlos en Data Studio?
Post: Informes y gráficas usando la API de Google Search Console

rubiel taborda

hola amigo, he usado el plugins Lazy Load y la velocidad de la pagina ha mejorado muchom, creo que es una buena solucion, mas cuando es una
Post: Indexar imágenes en Google usando Lazy Load

Lino

@errioxa probando desde comentarios del site :)
Post: El valor de los logs para el SEO