Cómo borrar páginas del índice de Google

En determinados casos ocurre que por deteminadas causas quieres hacer desaparecer una URL del índice de Google, ya sea porque el contenido se ha quedado anticuado, ya sea porque tienes más de una página igual y podrían penalizarte o por protección de datos. Antes había que poner en el archivo robots.txt que no te indexará esa URL, y en la propia página era recomendable una serie de pasos como poner el metatag  content="nocache".

Ahora Google pone al servicio de los webmasters una opción para borrar estas páginas de forma muy detallada diciendole por qué estás borrando esa página, si quieres borrar un directorio o si quieres borrar todo el dominio.

Pone la condición de que la URL que quieras borrar deberá tener una de las siguientes cosas:

Para páginas individuales

  1. La URL debe dar una respuesta de error 404
  2. LA URL debe estar boqueda desde el robots.txt
  3. La URL debe estar con el metatag <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Una vez hecho esto puede enviar la solicitud a Google.

Para directorios enteros

  1. En este caso deberás obligatoriamente remarcarlo en el robots.txt
    User-agent: Googlebot
    Disallow: /miDirectorio

Una vez hecho esto puede enviar la solicitud a Google.

Para dominios enteros

  1. También deberás modificar tu robots.txt
    User-agent: Googlebot
    Disallow: /

Cuando hagas una solicitud, te marcará el estado de ésta, y cuando haya sido aceptada los contenidos elejidos serán borrados del índice de Google así como su caché.

Avisa que para bajas por la publicación de datos personales o confidenciales es mejor escribiles un email desde Google Sitemaps para tratar el caso con la atención que requiera.

La herramienta parece bastante amplia, así que habrá que probarla y sacar conclusiones.

 




Lea otros artículos de Links y experimentos

Últimos posts

Últimos comentarios


iara erthal
10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
Post: Representación visual de que es un Googol y Googolplex

cristina
que ha pasado?
Post: Valor del Alt en la imagenes

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II

Lino
@Fernando LEns es por si acaso falla en algo, pero viendo tu feedback y que no he dicho nada de esa hoja, la borraré :)
Post: Clustering de keywords SEO en Google Search Console - Parte II

Fernando LEns
Tremendo. Ya bien testado, funciona muy bien. Incluso con muchos datos tira bien y no tarda mucho . La pestaña de Cluster sin raiz sale v
Post: Clustering de keywords SEO en Google Search Console - Parte II

Quentin
Very good list, thx !
Post: Expresiones regulares para SEO (Google Search Console)