Peticiones a Google

Publicado el 12 de junio del 2009

Hoy Google ha anunciado que ha hecho algunas mejoras en el tratamiento de los sitemaps, como que podemos tener hasta 50.000 índices de sitemaps (para indicar dónde están nuestros sitemaps).

Pero veo que podría ser mucho más sencillo para nosotros que en vez de aumentar ese número posible del índice de sitemaps que podamos meter más de 50.000 urls en uno sin tener que ir creando otros. Me resulta mucho más sencillo poner 1.000.000 de urls en un fichero que ir teniendo que serpararlas de 50.000 en 50.000 e ir creando varios archivos.

Al tiempo que doy mi punto de vista sobre esto me gustaría hacer una lista de cosas que mejorarías o que crearíais que deberían ponenrnos desde Google.

  • Que se puedan meter más de 50.000 URLs en un sitemaps. Así evitamos dolores de cabeza como los que decía antes

  • Que podamos decir a Google cuándo debe pasar. Hay páginas que tienen un pico de usuarios por ejemplo a la mañana que dejan los servidores al límite, si pasa Google a esas horas los servidores entran en estado crítico y puede llegar a tumbarlos. Por eso estaría bien que le pudiésemos decir a Google sobre que horas pasar a rastrear nuestro site. (Me lo dijo Dictna)

  • Que nos de la opción de ubicar nuestro site no por geolocalización, sino por idioma. Las páginas en castellano destinadas a todos los hispanohablantes tenemos un gran problema con esto. Si tenemos un .com y un hosting en USA y geolocalizamos la web para España nos veremos perjudiacados en Google Argentina, Ecuador, etc. No lo veo lógico y supongo que les ocurrirá lo mismo a los países de habla inglesa.

  • Que nos de opción de excluír determinadas carpetas o subdominios de Google News. Últimamente estoy viendo como foros y algunas carpetas que no deberían están saliendo en Google News. No hay un robot específico para Google News y por eso desde el robots.txt no se puede hacer ya que también dejaría de indexarse para los resultados del buscador web. Esto perjudica tanto a Google News como a la página ya que no tiene credibilidad los hilos de los foros como noticias.

  • Que nos deje borrar el histórico de errores de Webmaster Tools. Veo errores de hace años que ya no están y me distraen de los errores actuales. Estaría bien que pudiéramos "empezar de nuevo" con los errores a 0 y que nos marcará los errores que se vean a partir de ese momento y no antes.

Seguro que hay muchas más cosas que se os ocurren, ¿cuales son vuestras sugerencias?

 


Dictinahace Hace más de 11 años y 33 días

Ay sí, el histórico de errores de la WMT... yo por mi parte un día de estos les escribo al foro (al inglés, claro) para ver si me permiten hacer sculpting con mi sitemap, porque lo de molestarme en darle prioridad a mis URLs si luego no lo usan no tiene sentido.



Lea otros artículos de Otras noticias sobre Google

Últimos posts

Últimos comentarios


Lino

Hola @anna , creo que Fede Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

anna

donde se pone el php i jv para wordpress?
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Anna


Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console

India

Buen día, muy buenas explicaciones! Justo estoy viendo las métricas de una consulta exacta. Cuando miro las páginas y sumo el total de cl
Post: Datos incoherentes y cálculo de la posición media en Search Console

FunnelPunk

@Lino probando mi script del futuro
Post: Errores críticos originados por el robots.txt

Lino

@Xavier que Google no pueda acceder no significa que no pueda indexarla. Lo que no hará es entrar, y por lo tanto, no podrá ver el conteni
Post: Errores críticos originados por el robots.txt

Xavier

Lino estoy haciendo un experimento y tengo una duda, si en una web donde puedes crearte un perfil de usuario capan mediante Robots.txt, pero
Post: Errores críticos originados por el robots.txt

Norek Beat

Realmente.. de verdad buen articulo, gracias. Aparte de la historia del principio,he comprendido por fin la posición media. No es ni la pri
Post: Datos incoherentes y cálculo de la posición media en Search Console

Lino

@seozamp sí se puede, mira por ejemplo el blog de @useo, seguro que tiene unos cua
Post: Informes y gráficas usando la API de Google Search Console