Nuevo Google Search Console ¿qué información nos ofrecerá?

Publicado por Lino Uruñuela el 11 de enero del 2018


El otro día Google anunció que en breve pondrá a disposición de todos los usuarios la nueva versión de Google Search Console, a la cuál solo unos pocos han podido tener acceso en su versión Beta.

Si bien es cierto que no se ha dado mucha información por parte de estos privilegiados usuarios, la ayuda sobre esta nueva versión ya está online, y nos da muy buenas pistas de lo que se podrá ver en la nueva versión de Google Search Console.

En este último año hemos podido comprobar que Google intenta ofrecer más información a los webmasters sobre cómo ve Google cada site, tanto con problemas detectados como en recomendaciones para una mejor experiencia de los usuarios al navegar por nuestro site.

Creo que es un acierto por parte de Google intentar dar más información sobre determinados temas que ayudarán a resolver problemas que pueden estar influyendo negativamente en la visibilidad de su web y que son debidos a cuestiones técnicas.

Si Google consiguiese que todos los sites estuviesen libres de problemas y todo estuviese perfecto, todas las webs competirían en igualdad de condiciones para salir en los resultados de búsqueda, y en los factores para ordenar los resultados no entrarían en juego las dificultades técnicas de cada site. Como consecuencia los resultados que mostrase serían mejores que los actuales.

¿Qué información relevante podemos obtener de esta documentanción?

Voy a exponer aquí lo que más me ha llamado la antención, en algunas cosas hay que leerlas entre líneas para comprender de su posible importancia, pero creo que son estos detalles los que nos aportan información que antes no sabíamos o no teníamos la certeza de cómo eran.

Vamos a analizar la documentación para las distintas funcionalidades de la nueva versión de Google Search Console y también vamos a ver una "antigua" versión de esta documentación, de hace un mes (Diciembre del 2017) para ver qué ha cambiado en este mes, y si esta es una información relevante.

En la antigua versión se informaba de que el número de urls que aparecenen los informes de Estado de la indexación podría disminuir en comparación con la versión clásica de GSC debido a que en la nueva versión solo muestra la información de las urls que actualmente se muestran en los resultados del buscador, mientras que en la versión clásica se mostraban todas las urls, estuviesen o no saliendo en las serps.

Classic Search Console reported many stale URLs that no longer appear in Search results. Therefore, if you used the Index Status report in classic Search Console, you may notice that the total indexed numbers shown in the new Index Status report are lower than the total indexed numbers in the older Index Status report. This is because the new report focuses on pages that are actually seen in Google Search in order to provide more useful and fresher data.
Esta información ha desparecido en la nueva versión de la documentación, no tengo ni idea del por qué....

Informe de nivel superior

 

Google Search Console

 


Podríamos decir que ya casi da más información que el actual GSC, te dirá que urls no están incluídas, cosa que hasta ahora no ofrecía.

Me llama la atención que en la descripción de "Excluida" porque tiene, en mi opinión, una contradicción.  Dice "no se ha incluido la página en el índice por motivos que están fuera de tu alcance"mientras que también dice en esta misma línea "(por ejemplo, mediante una directiva noindex)".

El meta noindex es introducido por el webmasterpor lo que es un motivo que sí está al alcance del webmaster, pero bueno, no es una información relevante como SEO, quizás sí como miembro de la R.A.E., pero no SEO ;)

 

Filtro desplegable de descubrimiento de URL

 

filtros en GSC



 

De esto solo tengo una duda, dónde pone "Se considera que una URL se ha enviado mediante un sitemap aunque también se haya descubierto a través de otro mecanismo" ¿querrá decir que si cruzamos los datos de páginas conocidas con las páginas enviadas podremos obtener las urls descubiertas por google que no encontramos en el sitemap.

Si Google marca cualquier url que aparece en los sitemaps como "url de sitemaps" se podría comprobar las urls que están en "Todas las páginas conodica" y que no están en "Todas las páginas enviadas" son las urls que Google está rastreando y que no tenemos incluídas en sitemaps, información útil para detectar qué URLs no previstas está viendo Google de tu site.

 

Motivos de estados

Errores

nuevo GSC

 

Aunque esta información la teníamos casi en su totalidad en la versión clásica de GSC (en diferentes informes), se ha añadido el estado de "Error de redirección" que podría ser provocado por causas como demasiadas redirecciones, redirecciones infinitas, longitud de url excesiva, etc.

Nos vendrá bien ya que no tendremos que pasar un crawler para poder saber el estado y funcionamiento de las urls que hacen redirección en nuestro servidor. En mi opinión, aquí podrían haber ofrecido también urls que hacen redirección a una url que da error404, algo muy habitual y que los webmasters no pueden obtener a no ser que sea mediante un crawler o un análisis de logs.

 

URLs con incidencias

 

nuevo GSC

 

URLs válidas

 

urls validas  GSC


Nos econtramos con un dato interesante, "Indexed; consider marking as canonical", la url  fue indexa y debería ser marcada como canónica debido a que tiene urls dupliacadas.

Esta información como SEOs nos puede ser relevante, si Google nos da la lista de urls que cree son duplicadas, o si tenemos una sospecha muy clara de que urls podrían ser las duplicadas de esta url podríamos saber que url es la preferida de Google y así poner canonical desde las otras a esta, o modificar el enlazado interno para comprobar si cambia, o añadir contenido diferencial.

También podremos hacer a la inversa, si tenemos un grupo de urls duplicadas o con probabilidad de estar duplicadas podemos intentar averiguar cuándo dos urls dejan de ser duplicadas entre ellas y saber cuál es el mínimo que tenemos que trabajar para conseguir su diferenciación.


Otro dato muy relevante existía en la versión de Diciembre del 2017 como podemos ver en esta imagen, pero en la versión actual no está, Indexed, low interest.

 

old urls validas  GSC


Indexed, low interest la página fue indexada, pero aparece muy rara vez en los resultados de búsqueda....

GSC quizás nos de pistas de que urls (contenido) no está siendo mostrado en los resutaldos de Google por su baja calidad, si Google nos ofrece esta información podría ser una piedra angular del SEO. Nos daría mucho valor para la toma de decisiones sobre diferntes aspectos.

Decisiones técnicas:

  • paginaciones, ¿las considera de baja calidad si están muy profundas? ¿sabe que son paginaciones?
  • comentarios, ¿están aportando valor si son indexados?
  • parámetros, aunque realmente ya existe posibilidad de "configurarlos" desde el actual GSC.
  • mayúsculas / minúsculas, ¿tenemos problemas de duplicidad por esto?.
  • etc

 

Aspectos de calidad:

  • Contenido generado por usuarios.
  • Calidad de los distintos tipos de contenido (textos, galerías de imágenes).
  • Saber cuánto tenemos que trabajar el contenido para que deje de ser de bajo interés.
  • Segmentar por urls y ver que secciones no están rindiendo como debiesen.
  • Conocer cómo está tratando determinadas tipologías de páginas.

 

Esperemos que Google implemente esta información, de momento en la documentación ha desaparecido.

 

URLs excluidas

En este apartado vamos a ir por partes, porque hay bastante información y muy interesante.

 

urls excluidas  GSC

 

Estos mensajes no nos dan nada nuevo que no supiéramos con la versiónclásica de GSC, quizás el mensaje de "Crawled - currently not indexed",que también nos podría dar pistas de qué urls no está mostrando Goolge en los resultados de búsqueda. Además, dice que estas urls puede que se indexen y puede que no en el futuro. ¿Estarán en la cuerda floja? ¿las estará tomando como contenido especial? habrá que comprobarlo cuándo lo tengamos, pero podría ser interesante.

Ahora vamos a ver lo que más me ha llamado la atención, seguimos con los posibles estados de las urls marcadas como excluídas.

 

urls excluidas  GSC 2



"Discovered - currently not indexed"

Undato que me parece que valdrá para saciar la curiosidad de cuánto tardaGoogle desde que la rastrea hasta que la evalua y envia al índice. Perocreo que poco más valor nos ofrecerá.

 

"Alternate page with proper canonical tag"

Estosí me parece muy interesante, ya que con el grupo que antes he comentado  " Indexed; consider marking as canonical" nos podría ayudar asaber que grupos de urls tiene Google de nuestro site marcadas como duplicadas, y cuál de ellas es la "buena" para el buscador. Nos ayudará aver si Google está entendiendo nuestras señales, o si por el contrario tenemos un problema porque no conseguimos hacer ver a Google que dos urls son contenidos duplicados y cuál queremos que sea la "buena". Sin duda una gran ayuda para el SEO, ya sea con buenas o malas intenciones.


"Duplicate page without canonical tag"

Otroestado dirigido a darnos pistas sobre qué urls está considerando Googlecomo duplicadas, y en este caso, que no tienen el meta canonical. Parece que no, pero ya puestos estaría bien que nos indicara cuál cree él que es la url a la que debemos apuntar con el canonical de estas urls... por pedir que no quede!

 

"Duplicate non-HTML page"

Nosservirá de ayuda para nuestros archivos multimedia o PDF, ¿quizás también para detectar algún error como ficheros XML oJson que esté crawleando y contenga ese contenido? habrá que verlo :)

 

"Google chose different canonical than user"

Sobrecanonicals casi era la única información que faltaba en esta lista, Google nos dice que desde otras urls se está poniendo un meta canonical hacia esta url, y que él piensa que no es la adecuada para serlo, que hay otra mejor. Y que como él piensa que esta es duplicada de otra entonces no la indexará, porque solo indexa las urls "buenas" (o url canónica).

¿Nos está diciendo Google que confía más en su decisión algorítmica que en nuestra decisión? pues claramente sí!!. Creoque Google debería dar más valor a las señales que los SEOs / Webmasterle enviamos, por lo menos en determinados casos como las urls canonicals. Podría haber mil motivos razonables por los que querríamos indicar a Google que url es la buena, aunque Google piense que es otra. Por ejemplo si el webmaster sabe que las urls viejas se van duplicar porculpa de una migración de plataforma, o porque el CMS en cuestión tratadeterminadas cosas de deteriminada manera... creo que habría que convertir más señales en directivas. Pero esto será otro post;)

 

urls excluidas  GSC 3

 

 

"Submitted URL dropped"

Pareceque Google nos informará de las urls que ya no están en el índice, no sé si se referirá a porque han tenido algún problema o bien por otras causas.Ambas cosas nos servirán seguro para ver si hay urls que podrían estar desindexándose por algún fallo no controlado, lo que sin lugar a dudas será de gran utilidad cuándo en el equipo de IT haya algún kamikaze que sube sin ton ni son, o para despiestes que tengamos cualquiera a la hora de configurar algún meta, robots, etc.


Solución de problemas

Estaes otra de las grandes novedades que parece tendrá la nueva versión de GSC, un proceso más serio para avisar a Google de la resolución de los problemas vistos en los informes anteriores, a ver si con suerte tenemosun botón de "ocultar este error en futuras ocasiones" para que no arroje ruido errores de los que ya somos conscientes y no podamos / creamos / queramos solucionar, y con opción de ver estos errores ocultosen los informes y poder volver a marcarlos como visibles cuándo queramos... por pedir que no quede!

 

Más o menos esto eslo que he visto relevante de esta documentación, seguro que se me escapan cosas que son importantes y no he mencionado, no dudes en añadirlas en los comentarios, en Twitter o dónde quieras, pero compártelo, compartir es saber!

 

 

 

 




Posts anteriores en WebmasterTools


Space Needle
Publicado por Lino Uruñuela el 21 de agosto del 2015 El oto día Google anunció lo que muchos SEOs veníamos pidiendo desde hace años, una API decente para acceder a los datos que nos da Google Search Console. Anteriormente se hacía la extracción

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 11 de marzo del 2014 by Lino UruñuelaErrioxa Hace tiempo que no escribo con frecuencia, pero eso está cambiando! Para motivarme voy a comenzar una serie de post donde explicar cómo usar distintas APIs de Google, y hoy vamos a comenzar con la API de Webmaster Too

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 10 de enero del 2014 by Lino Uruñuela Como ayer comenté, en WMT ha habido algún cambio en cuanto a la exactitud de los datos que nos arroja sobre nuestra web, concretamente sobre las Consu

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 9 de enero del 2014 by Lino Uruñuela   Ayer cuando me reconecté después de mi mes sabático una de las cosas que hice fue ir a WMT para comprobar si había ocurrido algo en alguno de los sites. Cuando fui a "Consultas de búsqueda&qu

Seguir leyendo

Últimos posts

Últimos comentarios


Javier Galán

Este post es una auténtica genialidad. Muy útil.
Post: Medir cuántos usuarios hacen click para ampliar la imagen en Google Imágenes, aunque no entren en nuestra web

Antonio

Hola Lino, Sabes si añadiendo como robot Googlebot ya incluye tanto al robot de desktop como de mobile? O se tendria que añadir Googlebot
Post: Monotorizar GoogleBot con Google Analytics

unoquepasa

Que pasaria si haces varias paginas y cambias el orden de las palabras en los titulos ¿cual se mostrara primero? las que esten mas cerca de
Post: ¿Cuántas palabras valorará Google en el title?

Alex Rodríguez

Muy buenas Lino! Me pasaba por aquí por casualidad a ver si encontraba algo de info de lo que pasó estos días y bueno... Parece que al
Post: Google comienza el año con dos updates

Lino Uruñuela

@Javi sí, sobre que hay mucho cafre por ahí, tienes razón, pero es como el robots.txt es "peligroso" en manos inadecuadas, igual que el n
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Javier Lorente

Gracias Lino! Para "ocultar" errores en plan de andar por casa tiro de robots. Por otro lado, estamos ante una genial actualización que
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier Lorente

Siempre sospeché de https://www.seroundtable.com/amp/google-long-term-noindex-follow-24990.html tiene toda la lógica. En alguno de tus exp
Post: Meta Robots Noindex

Contacta

Lánzate y pregunta!

Nos gustan los robots, pero no tanto
7 + 3