Cómo borrar páginas del índice de Google

En determinados casos ocurre que por deteminadas causas quieres hacer desaparecer una URL del índice de Google, ya sea porque el contenido se ha quedado anticuado, ya sea porque tienes más de una página igual y podrían penalizarte o por protección de datos. Antes había que poner en el archivo robots.txt que no te indexará esa URL, y en la propia página era recomendable una serie de pasos como poner el metatag  content="nocache".

Ahora Google pone al servicio de los webmasters una opción para borrar estas páginas de forma muy detallada diciendole por qué estás borrando esa página, si quieres borrar un directorio o si quieres borrar todo el dominio.

Pone la condición de que la URL que quieras borrar deberá tener una de las siguientes cosas:

Para páginas individuales

  1. La URL debe dar una respuesta de error 404
  2. LA URL debe estar boqueda desde el robots.txt
  3. La URL debe estar con el metatag <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

Una vez hecho esto puede enviar la solicitud a Google.

Para directorios enteros

  1. En este caso deberás obligatoriamente remarcarlo en el robots.txt
    User-agent: Googlebot
    Disallow: /miDirectorio

Una vez hecho esto puede enviar la solicitud a Google.

Para dominios enteros

  1. También deberás modificar tu robots.txt
    User-agent: Googlebot
    Disallow: /

Cuando hagas una solicitud, te marcará el estado de ésta, y cuando haya sido aceptada los contenidos elejidos serán borrados del índice de Google así como su caché.

Avisa que para bajas por la publicación de datos personales o confidenciales es mejor escribiles un email desde Google Sitemaps para tratar el caso con la atención que requiera.

La herramienta parece bastante amplia, así que habrá que probarla y sacar conclusiones.

 




Lea otros artículos de Links y experimentos

Últimos posts

Últimos comentarios


Lino

Hola @anna , creo que Fede Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

anna

donde se pone el php i jv para wordpress?
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Anna


Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console

India

Buen día, muy buenas explicaciones! Justo estoy viendo las métricas de una consulta exacta. Cuando miro las páginas y sumo el total de cl
Post: Datos incoherentes y cálculo de la posición media en Search Console

FunnelPunk

@Lino probando mi script del futuro
Post: Errores críticos originados por el robots.txt

Lino

@Xavier que Google no pueda acceder no significa que no pueda indexarla. Lo que no hará es entrar, y por lo tanto, no podrá ver el conteni
Post: Errores críticos originados por el robots.txt

Xavier

Lino estoy haciendo un experimento y tengo una duda, si en una web donde puedes crearte un perfil de usuario capan mediante Robots.txt, pero
Post: Errores críticos originados por el robots.txt

Norek Beat

Realmente.. de verdad buen articulo, gracias. Aparte de la historia del principio,he comprendido por fin la posición media. No es ni la pri
Post: Datos incoherentes y cálculo de la posición media en Search Console

Lino

@seozamp sí se puede, mira por ejemplo el blog de @useo, seguro que tiene unos cua
Post: Informes y gráficas usando la API de Google Search Console