Google se salta el noindex nofollow

Publicado el 28 de noviembre del 2008

Google está haciendo caso omiso a la etiqueta <meta name="robots" content="noindex,nofollow" />

Tengo páginas que tienen esa etiqueta pero sí las está mostrando en caché, o sea, que sí las está indexando. Esto en mi caso particular me podría traer muchos problemas ya que tengo muchísimas páginas que por cuestiones técnicas no se puede usar el robots.txt (aunque visto lo visto fíate que no se lo salte también) y entonces usamos esta meta etiqueta para que Google no pille ese contenido ya que es duplicado en un montón de sitios de la web.

¿Qué hacer? esa es ahora mi pregunta, ¿será un fallo de Google y por eso lo está indexando?

Pero creo que mi preocupación es menor, puede que haya gente que no lo haga por peligro al contenido duplicado sino para que los datos de esa página por algún motivo no sean indexados. Podrían ser datos personales, información con nombres y apellidos o cualquier otros motivos.

Está claro que nunca puedes dejar que sea el buscador el que te de nivel de privacidad de los contenidos y que debería ser la propia web la que se asegure que ni Google ni nadie no autorizado pueda ver esa información, pero ya que supuestamente nos da facilidades y normas para que hagamos las cosas como el quiera que por favor lo cumpla.

 




Lea otros artículos de Meta etiqueta noindex

Últimos posts

Últimos comentarios


Nichol
An Easy-To-Follow Guide To Accidents Attorney Near Me accident attorney washington state
Post: Denunciar la venta de link

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console