Decir a Google cuando no debe de pasar

Publicado el 26 de enero del 2010

Una de las cosas que no sabía cómo realizar es decir a Google cuando debe y cuando no debe pasar. Ayer gracias al test que han puesto (supongo que para motivar a los webmaster expertos a participar en el foro para liberarles trabajo, normal) hay una pregunta que me hizo dudar mucho. Bueno más que una hubo un par que me hicieron pensar.


29. Tu servidor dispone de un ancho de banda limitado y te gustaría que Google rastree tu sitio durante la noche. ¿Qué deberías hacer?
  • a) Enviar un correo electrónico a info@google.com
  • b) Añadir "Allow: 11pm-7am" a tu archivo robots.txt
  • c) Hacer que tu servidor responda con un código de estado HTTP 503 para todos los usuarios cuando no esté disponible
  • d) Cambiar dinámicamente el robots.txt para bloquear el rastreo durante el día
Dudé en si abrían actualizado el robots.txt para adoptar esta medida y así poder decir a Google cuando pasar. Pero si leemos la última, tenemos la solución, o eso creo.

Si queremos que Google no pase por nuestra página en una hora determinada del día porque por ejemplo somos una web con los picos de usuarios muy frecuentes a la misma hora y si entra a esa hora Google a rastrear puede poner en peligro el servidor, debemos modificar el robots.txt cuando no queramos que entre.

Parece que no pasa nada si impides el acceso todos los días a Google a una cierta hora en tu web, siempre que no sea demasiado supongo.

Así que haré una prueba con este post, a ver si pasa algo por impedir el paso a Google por medio de robots.txt que variará de 12 de la noche a 3 de la mañana, 3 horas al día. A ver si todo sigue igual.


 


jacasu (@)hace Hace más de 14 años y 320 días

Muy interesante ver que pasa, aunque tal y como se estan poniendo las cosas, a veces hay que dejarlo pasar y casi hacerle una mamada para que indexe rápido.


Un saludo

Errioxa (@)hace Hace más de 14 años y 320 días

@jacasu la verdad es que yo sólo he trabajado un caso como este, en el que es necesario impedir el paso en unas horas debido al pico de usuarios que tiene justo en ese momento.



Pero si no, lo mejor es cambiar de server ;)

Isaac (@)hace Hace más de 14 años y 318 días

También puede ir bien para cambiar el servidor

Errioxa (@)hace Hace más de 14 años y 315 días

Pues igual sí, pero depende de cómo lo hagas. Si ya tienes todo preparado y bien, no haría falta, no?



Lea otros artículos de Links y experimentos

Últimos posts

Últimos comentarios


Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt