¿Cuál es la mejor manera de desindexar URLs?

Publicado el lunes 10de junio del 2013, By Lino Uruñuela

Hoy debatiendo en una lista de correo me ha hecho pensar en cuál es el mejor método para desindexar una url, y claro todo depende de en cómo definamos lo que es desindexar una página y para que lo estamos usando....



Empezemos por definir que entendemos por desindexar
  • ¿Que no se muestren en los resultados?
  • ¿Que lo marque WMT?
  • ¿Que GoogleBot no entre nunca?

Si entendemos por desindexar que no la muestre en los resultados entonces la mejor opción es la herramienta de WMT donde puedes desindexar hasta directorios, el meta noindex también consigue ese efecto, pero mucho menos rápido ya que ha de rastrear cuando le toque url a url. Lo malo de esta opción es que no puedes crear ningún tipo de regla con expresiones regulares y la mayoría de los casos son miles de urls las que queremos desindexar y no se podría ir una a una. Además no garantizamos que el bot no acceda, sólo que no lo mostrará en sus resultados y su caché.

Si consideramos por desindexar que en WMT descienda la  gráfica debemos tener mucho cuidado en que pensamos, porque realmente creo que estas gráficas pueden representar algo hoy y otra cosa mañana

Google de vez en cuando hará limpia de cosas y antes que sus datos de índices borrará datos de herramientas como esta y pondrá la cuenta a 0.... es muy raro que el número de urls bloquedas de repente descienda de repente si las reglas son las mismas y por lo tanto, sí o sí, el número de urls bloquedas como mínimo será el mismo... nunca menos, pero vemos como NO refleja la realidad.


La 3ª opción, que GoogleBot no acceda y por lo tanto no lea lo que hay. Para esto lo mejor es usar robots.txt ya que nos aseguramos que el Bot no entra ni entrará y no sabrá lo que hay.
En sus índices estará si tiene los suficientes enlaces entrantes, entonces aunque no sepa lo que hay lo mostrará como resultado. Podríamos concluir que sí está indexada porque las guarda en sus índices.

Esta tercera opción para mi es la mejor cuando quieres restringir cosas molestas y riesgos por urls de baja calidad y duplicidad, por qué
  1. Estás completamente seguro que Google no entra, no podrá valorar lo que hay y no lo hará.

  2. Te evitas consumo de máquina inecesario. Si pones un meta noindex el bot hará la petición y luego leerá o no el contenido, pero la petición la hace, no la indexa pero puede valorarla y seguir los enlaces de
      • paginaciones
      • ordenaciones
      • ordenaciones de paginaciones
      • filtros
      • ordenaciones de filtros
      • paginaciones de filtros
      • paginaciones de ordenaciones de filtros
      • etc etc

      esto puede estar ocupando a tu servidor el 80-90% de sus recursos y tiempo, mirar los logs y flipar.

  3. Aunque tarda más en ser representado con el comando site, no quiere decir que no las acabe desindexando, una muestra puede ser la gráfica de arriba, con el tiempo bajan, aunque parece más razonable que como también bajan el número de URLs indexadas sea por una limpia en los datos de la herramienta, quizás hasta de sus índices....

    Pero no se ve tan reflejada en la otra gráfica del post... por lo cual y con casos muy contradictorios lo único que sé es de que no puedo fiarme demasiado de WMT, puede que de síntomas de cosas en muchos casos, pero con lo del número de urls indexadas.... no me fio un pelo de sus datos.

La verdad es que me podría extender y contradecir durante párrafos y párrafos (hay que ser muy simple para ser siempre coherente), pero no sabría a ciencia cierta casi nada, sólo son intuiciones e ideas abstractas que rozan mi cabeza, pero me da que Panda mucho tiene que ver con el número de urls de baja calidad que tienes en tu sitio, entendiendo por "de baja calidad" lo que Google quiera entender....

 

 


 




Posts anteriores en Como evitar contenido duplicado


Space Needle
Publicado el día 1 de junio del 2011, by Lino Uruñuela Ultimamente vivo obsesionado con diferenciar mi contenido del resto, algunas veces se me ocurren cosas ingeniosas y otras tengo que tirar por el medio como los burros, como en este caso... Con la nueva salida de Google Shopp

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 14 de junio del 2010 Muchas veces Google ha comentado que lucha contra el contenido duplicado y que cada vez identifica mejor la fuente original, pero ¿que de cierto hay en esto? Yo comienzo a dudar que Google haga un esfuerzo claro por identificar  cuál es la f

Seguir leyendo

Últimos posts

Últimos comentarios


Lino Uruñuela

@David Es capaz de renderizar e interpretar el JavaScript siempre que no haga falta la interacción del usuario. Me explico, si pones una fu
Post: Ofuscando enlaces para mejorar Link Juice

David

Hablando sobre la ofuscación de enlaces, tras las últimas noticias de Google y su segunda oleada de indexación tras la renderización de
Post: Ofuscando enlaces para mejorar Link Juice

Javier Galán

Este post es una auténtica genialidad. Muy útil.
Post: Medir cuántos usuarios hacen click para ampliar la imagen en Google Imágenes, aunque no entren en nuestra web

Antonio

Hola Lino, Sabes si añadiendo como robot Googlebot ya incluye tanto al robot de desktop como de mobile? O se tendria que añadir Googlebot
Post: Monotorizar GoogleBot con Google Analytics

unoquepasa

Que pasaria si haces varias paginas y cambias el orden de las palabras en los titulos ¿cual se mostrara primero? las que esten mas cerca de
Post: ¿Cuántas palabras valorará Google en el title?

Alex Rodríguez

Muy buenas Lino! Me pasaba por aquí por casualidad a ver si encontraba algo de info de lo que pasó estos días y bueno... Parece que al
Post: Google comienza el año con dos updates

Lino Uruñuela

@Javi sí, sobre que hay mucho cafre por ahí, tienes razón, pero es como el robots.txt es "peligroso" en manos inadecuadas, igual que el n
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Javier Lorente

Gracias Lino! Para "ocultar" errores en plan de andar por casa tiro de robots. Por otro lado, estamos ante una genial actualización que
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.