Queremos poder decirle a Google cuando NO pasar.

Publicado el 7 de marzo del 2008

El robot de Google pasa por nuestra página cada cierto tiempo dependiendo éste de varios factores como pueden ser los links externos hacia nuestra página (el más importante) la frecuencia de actualización del la página, la frecuencia marcada en el archivo Sitemaps que le enviamos a Google o la frecuencia que le marcamos desde las herramientas de Webmaster Tools.

Pero a veces convendría poder decirle cuándo NO pasar, porque en algunas ocasiones nuestro servidor está al límite en ciertas horas puntas en las que tenemos un pico de usuarios.

Estaría bastante bien que Google nos permitiese esta opción de decirle cuando no debe pasar para no tumbarnos el servidor si coincide con el pico de usuarios en nuestra web.

Por ejemplo si tienes una web de los oscars bien posicionada pues puede ser probable que el día de las nominaciones y los premiso tengamos muchos usuarios a la vez y si nuestro servidor no soporta mucho tráfico como pase el robot de Google y empiece a rastrear páginas como loco (a veces parece un rastreador maniático y compulsivo) nos dejará el servidor relentizado y sin cargar bien las páginas.

 

Ayer me lo preguntaba Dictina y coincidí con ella tanto en su problema como en la solución y la comenté que haría un post pidiéndolo (como si me fuesen a hacer caso). Casualidades de la vida hoy en la parte final de un artículo de Google WemasterCentral dice que en un futuro lo harán, bienvenido sea!!

 


Jep Aribau (@)hace Hace más de 15 años y 317 días

Pues no vas tener publicidad de Adsense, el robot "MediaPartner " de Google también te machaca con escaneos simultáneos a la navegación del usuario.

Creo que se soluciona con "If-Modified-Since" en las cabeceras y quitando el session_start() en páginas dinámicas.

Nota: Errioxa, pq no pones un avisador de comentarios?

Jep Aribau (@)hace Hace más de 15 años y 317 días

Pues no vas tener publicidad de Adsense, el robot \"MediaPartner \" de Google también te machaca con escaneos simultáneos a la navegación del usuario.

Creo que se soluciona con \"If-Modified-Since\" en las cabeceras y quitando el session_start() en páginas dinámicas.

Nota: Errioxa, pq no pones un avisador de comentarios?

Errioxa (@)hace Hace más de 15 años y 316 días

@Jep Aribau ¿por qué dices que no voy a tener publicidad de AdSense? Google puede tumbar una web cuando le pasas el sitemaps no cuando los usuarios navegan por ella porque Google hace muchas peticiones simultaneas.



Lo del avisador de comentarios está dentro de mis planes pero es que ando con el tiempo al límite.

jose (@)hace Hace más de 14 años y 238 días

poque nocompendes las cosas que te decimos eres un a mierda!





Lea otros artículos de Sin clasificar

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II