Peticiones a Google

Publicado el 12 de junio del 2009

Hoy Google ha anunciado que ha hecho algunas mejoras en el tratamiento de los sitemaps, como que podemos tener hasta 50.000 índices de sitemaps (para indicar dónde están nuestros sitemaps).

Pero veo que podría ser mucho más sencillo para nosotros que en vez de aumentar ese número posible del índice de sitemaps que podamos meter más de 50.000 urls en uno sin tener que ir creando otros. Me resulta mucho más sencillo poner 1.000.000 de urls en un fichero que ir teniendo que serpararlas de 50.000 en 50.000 e ir creando varios archivos.

Al tiempo que doy mi punto de vista sobre esto me gustaría hacer una lista de cosas que mejorarías o que crearíais que deberían ponenrnos desde Google.

  • Que se puedan meter más de 50.000 URLs en un sitemaps. Así evitamos dolores de cabeza como los que decía antes

  • Que podamos decir a Google cuándo debe pasar. Hay páginas que tienen un pico de usuarios por ejemplo a la mañana que dejan los servidores al límite, si pasa Google a esas horas los servidores entran en estado crítico y puede llegar a tumbarlos. Por eso estaría bien que le pudiésemos decir a Google sobre que horas pasar a rastrear nuestro site. (Me lo dijo Dictna)

  • Que nos de la opción de ubicar nuestro site no por geolocalización, sino por idioma. Las páginas en castellano destinadas a todos los hispanohablantes tenemos un gran problema con esto. Si tenemos un .com y un hosting en USA y geolocalizamos la web para España nos veremos perjudiacados en Google Argentina, Ecuador, etc. No lo veo lógico y supongo que les ocurrirá lo mismo a los países de habla inglesa.

  • Que nos de opción de excluír determinadas carpetas o subdominios de Google News. Últimamente estoy viendo como foros y algunas carpetas que no deberían están saliendo en Google News. No hay un robot específico para Google News y por eso desde el robots.txt no se puede hacer ya que también dejaría de indexarse para los resultados del buscador web. Esto perjudica tanto a Google News como a la página ya que no tiene credibilidad los hilos de los foros como noticias.

  • Que nos deje borrar el histórico de errores de Webmaster Tools. Veo errores de hace años que ya no están y me distraen de los errores actuales. Estaría bien que pudiéramos "empezar de nuevo" con los errores a 0 y que nos marcará los errores que se vean a partir de ese momento y no antes.

Seguro que hay muchas más cosas que se os ocurren, ¿cuales son vuestras sugerencias?

 


Dictina (@)hace Hace más de 13 años y 62 días

Ay sí, el histórico de errores de la WMT... yo por mi parte un día de estos les escribo al foro (al inglés, claro) para ver si me permiten hacer sculpting con mi sitemap, porque lo de molestarme en darle prioridad a mis URLs si luego no lo usan no tiene sentido.



Lea otros artículos de Otras noticias sobre Google

Últimos posts

Últimos comentarios


iara erthal
10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
Post: Representación visual de que es un Googol y Googolplex

cristina
que ha pasado?
Post: Valor del Alt en la imagenes

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II

Lino
@Fernando LEns es por si acaso falla en algo, pero viendo tu feedback y que no he dicho nada de esa hoja, la borraré :)
Post: Clustering de keywords SEO en Google Search Console - Parte II

Fernando LEns
Tremendo. Ya bien testado, funciona muy bien. Incluso con muchos datos tira bien y no tarda mucho . La pestaña de Cluster sin raiz sale v
Post: Clustering de keywords SEO en Google Search Console - Parte II

Quentin
Very good list, thx !
Post: Expresiones regulares para SEO (Google Search Console)