Nuevo Google Search Console ¿qué información nos ofrecerá?

Publicado por Lino Uruñuela el 11 de enero del 2018


El otro día Google anunció que en breve pondrá a disposición de todos los usuarios la nueva versión de Google Search Console, a la cuál solo unos pocos han podido tener acceso en su versión Beta.

Si bien es cierto que no se ha dado mucha información por parte de estos privilegiados usuarios, la ayuda sobre esta nueva versión ya está online, y nos da muy buenas pistas de lo que se podrá ver en la nueva versión de Google Search Console.

En este último año hemos podido comprobar que Google intenta ofrecer más información a los webmasters sobre cómo ve Google cada site, tanto con problemas detectados como en recomendaciones para una mejor experiencia de los usuarios al navegar por nuestro site.

Creo que es un acierto por parte de Google intentar dar más información sobre determinados temas que ayudarán a resolver problemas que pueden estar influyendo negativamente en la visibilidad de su web y que son debidos a cuestiones técnicas.

Si Google consiguiese que todos los sites estuviesen libres de problemas y todo estuviese perfecto, todas las webs competirían en igualdad de condiciones para salir en los resultados de búsqueda, y en los factores para ordenar los resultados no entrarían en juego las dificultades técnicas de cada site. Como consecuencia los resultados que mostrase serían mejores que los actuales.

¿Qué información relevante podemos obtener de esta documentanción?

Voy a exponer aquí lo que más me ha llamado la antención, en algunas cosas hay que leerlas entre líneas para comprender de su posible importancia, pero creo que son estos detalles los que nos aportan información que antes no sabíamos o no teníamos la certeza de cómo eran.

Vamos a analizar la documentación para las distintas funcionalidades de la nueva versión de Google Search Console y también vamos a ver una "antigua" versión de esta documentación, de hace un mes (Diciembre del 2017) para ver qué ha cambiado en este mes, y si esta es una información relevante.

En la antigua versión se informaba de que el número de urls que aparecenen los informes de Estado de la indexación podría disminuir en comparación con la versión clásica de GSC debido a que en la nueva versión solo muestra la información de las urls que actualmente se muestran en los resultados del buscador, mientras que en la versión clásica se mostraban todas las urls, estuviesen o no saliendo en las serps.

Classic Search Console reported many stale URLs that no longer appear in Search results. Therefore, if you used the Index Status report in classic Search Console, you may notice that the total indexed numbers shown in the new Index Status report are lower than the total indexed numbers in the older Index Status report. This is because the new report focuses on pages that are actually seen in Google Search in order to provide more useful and fresher data.
Esta información ha desparecido en la nueva versión de la documentación, no tengo ni idea del por qué....

Informe de nivel superior

 

Google Search Console

 


Podríamos decir que ya casi da más información que el actual GSC, te dirá que urls no están incluídas, cosa que hasta ahora no ofrecía.

Me llama la atención que en la descripción de "Excluida" porque tiene, en mi opinión, una contradicción.  Dice "no se ha incluido la página en el índice por motivos que están fuera de tu alcance"mientras que también dice en esta misma línea "(por ejemplo, mediante una directiva noindex)".

El meta noindex es introducido por el webmasterpor lo que es un motivo que sí está al alcance del webmaster, pero bueno, no es una información relevante como SEO, quizás sí como miembro de la R.A.E., pero no SEO ;)

 

Filtro desplegable de descubrimiento de URL

 

filtros en GSC



 

De esto solo tengo una duda, dónde pone "Se considera que una URL se ha enviado mediante un sitemap aunque también se haya descubierto a través de otro mecanismo" ¿querrá decir que si cruzamos los datos de páginas conocidas con las páginas enviadas podremos obtener las urls descubiertas por google que no encontramos en el sitemap.

Si Google marca cualquier url que aparece en los sitemaps como "url de sitemaps" se podría comprobar las urls que están en "Todas las páginas conodica" y que no están en "Todas las páginas enviadas" son las urls que Google está rastreando y que no tenemos incluídas en sitemaps, información útil para detectar qué URLs no previstas está viendo Google de tu site.

 

Motivos de estados

Errores

nuevo GSC

 

Aunque esta información la teníamos casi en su totalidad en la versión clásica de GSC (en diferentes informes), se ha añadido el estado de "Error de redirección" que podría ser provocado por causas como demasiadas redirecciones, redirecciones infinitas, longitud de url excesiva, etc.

Nos vendrá bien ya que no tendremos que pasar un crawler para poder saber el estado y funcionamiento de las urls que hacen redirección en nuestro servidor. En mi opinión, aquí podrían haber ofrecido también urls que hacen redirección a una url que da error404, algo muy habitual y que los webmasters no pueden obtener a no ser que sea mediante un crawler o un análisis de logs.

 

URLs con incidencias

 

nuevo GSC

 

URLs válidas

 

urls validas  GSC


Nos econtramos con un dato interesante, "Indexed; consider marking as canonical", la url  fue indexa y debería ser marcada como canónica debido a que tiene urls dupliacadas.

Esta información como SEOs nos puede ser relevante, si Google nos da la lista de urls que cree son duplicadas, o si tenemos una sospecha muy clara de que urls podrían ser las duplicadas de esta url podríamos saber que url es la preferida de Google y así poner canonical desde las otras a esta, o modificar el enlazado interno para comprobar si cambia, o añadir contenido diferencial.

También podremos hacer a la inversa, si tenemos un grupo de urls duplicadas o con probabilidad de estar duplicadas podemos intentar averiguar cuándo dos urls dejan de ser duplicadas entre ellas y saber cuál es el mínimo que tenemos que trabajar para conseguir su diferenciación.


Otro dato muy relevante existía en la versión de Diciembre del 2017 como podemos ver en esta imagen, pero en la versión actual no está, Indexed, low interest.

 

old urls validas  GSC


Indexed, low interest la página fue indexada, pero aparece muy rara vez en los resultados de búsqueda....

GSC quizás nos de pistas de que urls (contenido) no está siendo mostrado en los resutaldos de Google por su baja calidad, si Google nos ofrece esta información podría ser una piedra angular del SEO. Nos daría mucho valor para la toma de decisiones sobre diferntes aspectos.

Decisiones técnicas:

  • paginaciones, ¿las considera de baja calidad si están muy profundas? ¿sabe que son paginaciones?
  • comentarios, ¿están aportando valor si son indexados?
  • parámetros, aunque realmente ya existe posibilidad de "configurarlos" desde el actual GSC.
  • mayúsculas / minúsculas, ¿tenemos problemas de duplicidad por esto?.
  • etc

 

Aspectos de calidad:

  • Contenido generado por usuarios.
  • Calidad de los distintos tipos de contenido (textos, galerías de imágenes).
  • Saber cuánto tenemos que trabajar el contenido para que deje de ser de bajo interés.
  • Segmentar por urls y ver que secciones no están rindiendo como debiesen.
  • Conocer cómo está tratando determinadas tipologías de páginas.

 

Esperemos que Google implemente esta información, de momento en la documentación ha desaparecido.

 

URLs excluidas

En este apartado vamos a ir por partes, porque hay bastante información y muy interesante.

 

urls excluidas  GSC

 

Estos mensajes no nos dan nada nuevo que no supiéramos con la versiónclásica de GSC, quizás el mensaje de "Crawled - currently not indexed",que también nos podría dar pistas de qué urls no está mostrando Goolge en los resultados de búsqueda. Además, dice que estas urls puede que se indexen y puede que no en el futuro. ¿Estarán en la cuerda floja? ¿las estará tomando como contenido especial? habrá que comprobarlo cuándo lo tengamos, pero podría ser interesante.

Ahora vamos a ver lo que más me ha llamado la atención, seguimos con los posibles estados de las urls marcadas como excluídas.

 

urls excluidas  GSC 2



"Discovered - currently not indexed"

Undato que me parece que valdrá para saciar la curiosidad de cuánto tardaGoogle desde que la rastrea hasta que la evalua y envia al índice. Perocreo que poco más valor nos ofrecerá.

 

"Alternate page with proper canonical tag"

Estosí me parece muy interesante, ya que con el grupo que antes he comentado  " Indexed; consider marking as canonical" nos podría ayudar asaber que grupos de urls tiene Google de nuestro site marcadas como duplicadas, y cuál de ellas es la "buena" para el buscador. Nos ayudará aver si Google está entendiendo nuestras señales, o si por el contrario tenemos un problema porque no conseguimos hacer ver a Google que dos urls son contenidos duplicados y cuál queremos que sea la "buena". Sin duda una gran ayuda para el SEO, ya sea con buenas o malas intenciones.


"Duplicate page without canonical tag"

Otroestado dirigido a darnos pistas sobre qué urls está considerando Googlecomo duplicadas, y en este caso, que no tienen el meta canonical. Parece que no, pero ya puestos estaría bien que nos indicara cuál cree él que es la url a la que debemos apuntar con el canonical de estas urls... por pedir que no quede!

 

"Duplicate non-HTML page"

Nosservirá de ayuda para nuestros archivos multimedia o PDF, ¿quizás también para detectar algún error como ficheros XML oJson que esté crawleando y contenga ese contenido? habrá que verlo :)

 

"Google chose different canonical than user"

Sobrecanonicals casi era la única información que faltaba en esta lista, Google nos dice que desde otras urls se está poniendo un meta canonical hacia esta url, y que él piensa que no es la adecuada para serlo, que hay otra mejor. Y que como él piensa que esta es duplicada de otra entonces no la indexará, porque solo indexa las urls "buenas" (o url canónica).

¿Nos está diciendo Google que confía más en su decisión algorítmica que en nuestra decisión? pues claramente sí!!. Creoque Google debería dar más valor a las señales que los SEOs / Webmasterle enviamos, por lo menos en determinados casos como las urls canonicals. Podría haber mil motivos razonables por los que querríamos indicar a Google que url es la buena, aunque Google piense que es otra. Por ejemplo si el webmaster sabe que las urls viejas se van duplicar porculpa de una migración de plataforma, o porque el CMS en cuestión tratadeterminadas cosas de deteriminada manera... creo que habría que convertir más señales en directivas. Pero esto será otro post;)

 

urls excluidas  GSC 3

 

 

"Submitted URL dropped"

Pareceque Google nos informará de las urls que ya no están en el índice, no sé si se referirá a porque han tenido algún problema o bien por otras causas.Ambas cosas nos servirán seguro para ver si hay urls que podrían estar desindexándose por algún fallo no controlado, lo que sin lugar a dudas será de gran utilidad cuándo en el equipo de IT haya algún kamikaze que sube sin ton ni son, o para despiestes que tengamos cualquiera a la hora de configurar algún meta, robots, etc.


Solución de problemas

Estaes otra de las grandes novedades que parece tendrá la nueva versión de GSC, un proceso más serio para avisar a Google de la resolución de los problemas vistos en los informes anteriores, a ver si con suerte tenemosun botón de "ocultar este error en futuras ocasiones" para que no arroje ruido errores de los que ya somos conscientes y no podamos / creamos / queramos solucionar, y con opción de ver estos errores ocultosen los informes y poder volver a marcarlos como visibles cuándo queramos... por pedir que no quede!

 

Más o menos esto eslo que he visto relevante de esta documentación, seguro que se me escapan cosas que son importantes y no he mencionado, no dudes en añadirlas en los comentarios, en Twitter o dónde quieras, pero compártelo, compartir es saber!

 

 

 

 




Posts anteriores en Google Search Console


hhh
  • Viernes 21 de Agosto del 2015
yy Obtener datos de Search Console día a día con php
Publicado por Lino Uruñuela el 21 de agosto del 2015 El oto día Google anunció lo que muchos SEOs veníamos pidiendo desde hace años, una API decente para acceder a los datos que nos da Google Search Console. Anteriormente se hacía la extracción

Seguir leyendo
    gg
  • Martes 11 de Marzo del 2014

Publicado el 11 de marzo del 2014 by Lino UruñuelaErrioxa Hace tiempo que no escribo con frecuencia, pero eso está cambiando! Para motivarme voy a comenzar una serie de post donde explicar cómo usar distintas APIs de Google, y hoy vamos a comenzar con la API de Webmaster Too

Seguir leyendo
    gg
  • Lunes 30 de Noviembre del -0001

Publicado el 10 de enero del 2014 by Lino Uruñuela Como ayer comenté, en WMT ha habido algún cambio en cuanto a la exactitud de los datos que nos arroja sobre nuestra web, concretamente sobre las Consu

Seguir leyendo
    gg
  • Jueves 09 de Enero del 2014

Publicado el 9 de enero del 2014 by Lino Uruñuela   Ayer cuando me reconecté después de mi mes sabático una de las cosas que hice fue ir a WMT para comprobar si había ocurrido algo en alguno de los sites. Cuando fui a "Consultas de búsqueda&qu

Seguir leyendo
yy ¿Google disavow link o herramienta para despenalización?
Publicado el 21 de octubre del 2012 ACTUALIZACIÓN: Este experimento ha sido un total fracaso por mi parte ya que tengo un puñetero canonical en la landing page... así que no vale para nada. Volveré a repetirlo en cuanto vuelva de VACACIONES!!!! Esta sema

Seguir leyendo
    gg
  • Lunes 30 de Noviembre del -0001

El otro día Google anunció que el formato de los sitemaps de Google News han cambiado y que tenemos 6 meses para modificarlos. Si aún tienes el formato viejo te salrá un icono de advertencia en webmsater tools, pero según Google hasta dentro de 6 meses seguir&aa

Seguir leyendo
    gg
  • Lunes 17 de Agosto del 2009

Publicado el 17 de agosto del 2009 Google ha realizado otra mejora en Webmaster Tools, se trata del organizador de parámetros y sirve para ignorar determinados paramatros. Está en "Organización -> Organización de parámetros" Por ejemplo si tenemo

Seguir leyendo
    gg
  • Martes 01 de Septiembre del 2009

Publicado el 1 de septiembre del 2009 Últimamente Google le está dando bastante importancia a los microformatos (en cuanto a nombrarlos se dice, porque la verdad nadie hemos sido capaces de hacerlos funcionar) en alguno de sus servicios, como Google Maps, y sólo unas pocas we

Seguir leyendo
    gg
  • Miercoles 14 de Enero del 2009

Publicado el 14 de enero del 2009 Una de las cosas que más dolores de cabeza nos pueden dar las páginas web muy muy grandes es la de creación de sitemaps generales. En páginas web normales es relativamente sencillo crear un sitemaps mediante programación php + M

Seguir leyendo
    gg
  • Sábado 09 de Febrero del 2008

Publicado el viernes 29 de febrero del 2008 Google acaba de crear un gadget para poder ver los datos de la herrmaienta para webmasters Google WebMmaster Tools en la página personalizada de iGoogle. Así podrás ver sin entrar en la página de la herramienta los datos p

Seguir leyendo
    gg
  • Lunes 30 de Noviembre del -0001

Google hoy nos enseña un poco más de cómo indexa las páginas webs de nuestros sitios. Según Google los robots rastrean una página según estos factores: Porque ya conoce la página. Porque otras páginas enlazan con ella. Porqu

Seguir leyendo
    gg
  • Lunes 30 de Noviembre del -0001

Otra vez Google nos da el privilegio de ver más información sobre los enlaces externos hacia nuestra web dentro de Weebmaster Tool.Según dicen, y digo según dicen porque ahora la herramienta está petada y no muestra nada, las mejoras incluyen         &nbs

Seguir leyendo
    gg
  • Lunes 30 de Noviembre del -0001

Desde el Blog oficial de Google nos comunican que han hecho tres mejoras con respecto al sitemaps de Google. La primera es que está disponible en 18 idiomas La segunda y más novedosa es que podemos decir dónde está nuestro sitemap desde el archivo robots.txt añadiendo la siguiente lín

Seguir leyendo
    gg
  • Lunes 30 de Noviembre del -0001

Parece ser que Google se está poniendo muy serio con el webSpam de la red.Hoy mismo a sacado una nota a los webmaster diciendo cosas muy muy importantes de cara al futuro. Para hacer spamreport, hay dos modos uno, anónimo y otro especial para los webmaster que se puede ver desde Google Webma

Seguir leyendo

Últimos posts

Últimos comentarios


javier

Buenas , esto del onclik ha cambiado actuamente en algunas web que tengo las lee y sigue enlaces
Post: ¿Cómo ejecuta, interpreta e indexa Google el contenido cargado mediante javascript?

David Girona

Antes de Nada muchas gracias por la aportación. Estoy probando de poner en marcha este procedimiento y me surgen un par de dudas. En
Post: Cómo añadir el valor del meta Robots a Google Analytics via Google Tag Manager

Javier Espinoza

Gracias por la informacion!! Este tipo de blogs me parecen muy importantes, esto lo estudio en la universidad. gracias por la informacion. h
Post: Atacados por los .cn .cz .pl

juan

Hola Lino Uruñuela, una duda ¿aun funciona? porque no lo logro. Mira, en un index.php tengo este codigo: Camuflados
Post: Ofuscando enlaces para mejorar Link Juice

DUQUEredes

Google pasa del canonical bastante :-(
Post: Comprobando comportamiento de Google con meta canonical

Marinette

Gracias por la información!
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Adolfo

Parece que a todo el mundo le ha gustado este artículo sexista y lleno de situaciones de agresión sexual y violencia de género, ya tendr
Post: Tipos de marketing

FDM

Hola, Lino: Genial el post, como siempre. Es genial contar con personas tan curiosas y que investigan al detalle el funcionamiento de Goo
Post: La segunda ola de indexación y cómo saber qué renderiza Google

Lino Uruñuela

@Cesar saltarse alguna orden del código es un falta de respeto!, que para algo lo hice :D No se les da muy bien esperar, su tiempo es or
Post: La segunda ola de indexación y cómo saber qué renderiza Google

César Aparicio

Hola Lino, Nos conocemos de películas como: Los de Google son muy frikis o Pasodobles y SEO. Mi cuestión es la siguiente: entiendo
Post: La segunda ola de indexación y cómo saber qué renderiza Google

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.