¿Es necesario comenzar con slash la directiva Disallow?

Publicado el viernes 26 de febrero del 2016 por Lino Uruñuela

El otro día, mi socio Natzir me pasó el tweet de John Muller donde indicaba que la directiva Disallow del robots.txt debía comenzar siempre con un slash "/".

Robots.txt Google SEO 3


Esto ha provocado cierto revuelo entre los SEOs, muchos de nosotros no hemos tenido nunca esta premisa en cuenta a la hora de definir los robots.txt, y se comenta que Google ha cambiado esta directiva sin avisar, o casi sin avisar

Gracias a Javier Lorente, en un hilo de mails enviaba cómo era el robots.txt hace tiempo, concretamente el 6 de septiembre del 2015, podemos comprobar que no han cambiado la definición, es decir, que siempre ha sido así (también vemos cómo era el 6 de mayo del 2012) y que Google no ha cambiado la definición en la documentación actual, sino que nunca la tuvimos en cuenta ya que sin poner al principio el slash también nos ha funcionado.

Así que nos ponemos manos a la obra para ver exactamente cómo trata la directiva con slash al principio y sin slash tanto en la herramienta de probador de robots.txt de Google Search Console como la manera en que lo trata GoogleBot.


Para intentar tener ejemplos de distintos casos vamos a ver si funciona para
  1. URLs en el directorio raíz, ficheroso documentos que recaen sobre el directorio raíz
  2. URls dentro de un directorio, por ejemplo, desindexar un directorio
  3. URLs con parámetros, para saber si podemos aplicarlo independientemente de en que nivel de la url se ecuentre (para otro post)

URLs en el directorio raíz

En este caso vamos a intentar entender de manera que son tratados los documentos que cuelguen del directorio raíz.


Para este ejemplo voy a coger una web donde tengo determinados banners indexados y que son del año catapún, así que a desindexar!!

Robots.txt Google SEO 3

Para probarlo pensamos añadir la siguiente línea al robots.txt y así desindexar este tipo de ficheros


Disallow:*swf


Antes de subir las modificaciones lo comprobamos con la herramienta de probador de robots.txt de Google Search Console y contra todo pronóstico nos da que la url será bloqueada, lo cual era de esperar al añadir la línea, pero lo extraño es que se bloquea por otra línea distinta a la que hemos añadido en el robots.txt, una línea que no contiene, en principio, parte de la url a probar (yb2.swf)

Robots.txt Google SEO error

Esto empieza a inquietar... ¿por qué incluye la url que queremos probar si no contiene ningún caracter común con la regla en el Disallow? (solo coincide en el punto)

Podríamos pensar que es el * en el directorio raíz, así que para asegurarnos eliminamos los asteriscos de esa línea y sorpresa!

Robots.txt Google SEO error 3
Si no ponemos asteriscos esa misma línea también nos restringe el acceso!!

Seguimos probando otras opciones para ver qué da el fallo o qué ocurre, eliminamos el punto de esa línea y tachaaan! ya no coincide y marca otra línea distinta la que restringe el contenido.

Robots.txt Google SEO error 4

La verdad es que mucho sentido no tiene, podría ser que la herramienta "peta" cuando le metemos algún caracter especial que se suelen usar para expresiones regulares.

También comprobamos que si seguimos las directrices tal como comenta John Muller, poniendo siempre el slash al principio todo funciona correctamente aunque tenga caracteres especiales.

Robots.txt Google SEO error 5

Bingo!! ahora nos da como línea que restringe el contenido "Disallow:/*swf" es decir, la correcta.

URLs dentro de un directorio

Para este ejemplo voy a probar con un site el cual no trae ninguna visita orgánica a urls bajo el directorio /ejemplos/ pero que sí vemos que Google tiene indexadas determinadas URLs

Robots.txt Google SEO

Antes de este post el robots.txt no impedía el acceso a este directorio, ahora vamos a añadir esta línea para comprobar si funciona sin poner el slash al comienzo.


Disallow:ejemplos/*

 

La propia herramienta de probador de robots.txt ya nos indica que será bloqueado, eso sin haber iniciado la directiva con un slash.

Robots.txt Google SEO 2


Como en el caso anterior, nos dice que bloqueará cualquier url del dominio aunque no tenga ninguna coincidencia con la url que le damos a probar

Robots.txt Google SEO 6


Así que esperaremos unos días para confirmar si se cumple lo que dice la herramienta de probador de robots.txt y desindexa todo el domnio (creo y espero que no), o si solo desindexa ese directorio como creo que hará y sería otra prueba que demuestra que la herramienta "peta" cuando no comienzas con slash.

Conclusión

Como conclusión en estas pruebas (a espera de resultados de los cambio que acabo de hacer en los respectivos robots.txt), es que en la herramienta de comrpobación de robots.txt de Google Search Console sí es obligatorio poner slash al principio de la directiva Disallow, mientras que para GoogleBot no hace falta, ya que si fuese igual que en la herramienta las urls con swf no deberían indexarse y vemos por el contrario como sí lo hace.


Robots.txt Google SEO 3

Dada la importancia de estos detalles seguiremos haciendo prubas, para comprobar realmente cómo hay que ponerlo y cómo afecta. Desde luego mi recomendació es seguir las directrices que nos dan y comenzar siempre con un slash para evitar posibles errores o confusiones, porque además ¿que cuesta añadir un slash al comienzo? NADA

Actualización

Gracias a Mª José Cachón que ha encontrado en la documentación algo clave que habíamos pasado por alto y que nos dice que de no comenzar por slash (barra inclinada) se asumirá que la raíz está incluída, lo que parece que no se aplica a la herramienta de robots.txt en Google Search Console.


Robots.txt Google SEO 7



 




Posts anteriores en On Page


  • 2017-11-29
Space Needle
Publicado el 29 de Noviembre del 2017 por Lino Uruñuela Índice ¿Qué es el meta noindex? Valores que se pueden usar Casos de uso más frecuentes por muchos SEOs ¿Qué hace y qué no hace el meta noindex? ¿Cuándo S&Ia

Seguir leyendo
Space Needle
Publicado el 26 de enero del 2016, por Lino Uruñuela Desde hace tiempo Google va evangelizando sobre el uso de https en internet, para ello lo hace de la manera más efectiva que conoce, EL MIEDO!. Un gran porcentaje de negocios online a día de hoy son Googledependient

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado por Lino Uruñuela (Errioxa) el 16 de abril del 2014 Ha habido grandes debates en el mundo SEO sobre cómo trata Google los errores 404 y 410 del servidor. Puede parecer que "da un poco igual" el cómo trate Google los errores 404 y 410 y de si hay

Seguir leyendo
Space Needle
Publicado el 19 de marzo del 2014 por Lino Uruñuela (Errioxa) Cuando manejamos un site muy grande en el que tenemos cientos o miles de categorías para clasificar el contenido, como podría ser un e-commerce, puede que haya categorías muy distintas entre si. Por ejemp

Seguir leyendo
Space Needle
Publicado el 14 de febrero del 2014 porLino Uruñuela (Errioxa) Hoy leo en SEOby the Sea que Google incluye en una de sus patentes la velocidad de una página web como factor de relevancia en sus resultados. Esto no es nuevo, desde hace mucho se viene diciendo, casi casi lo mismo q

Seguir leyendo
Space Needle
Publicado el 10 de abril del 2013, by Lino Uruñuela Ayer Google publicó los 5 errores más comunes al usar el meta rel=canonical, de ellos el que más me llama la atención es  "canonical en la primera página de una serie paginada" donde nos d

Seguir leyendo
Space Needle
Publicado el 4 de julio del 2011 Desde la salida del oso de Google cada vez hay más gente que cree que Google ahora le da valor a determinadas experiencias de usuarios en una página web, como puede ser la tasa de rebote o la estancia del usuario en la web. Igual podemos demostrar

Seguir leyendo
  • 0000-00-00 00:00:00

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 5 de febrero del 2010 Hoy quería explicar mi opinión sobre distintas formas de cómo podemos evitar el contenido duplicado, en algunos casos. Pongo un cuadro con algunos métodos que podemos utilizar para solucionar nuestros problemas.   

Seguir leyendo
  • 0000-00-00 00:00:00

Ya lo dijo Telendro en blog como era el Seo Hotlinking así que me puse a probarlo, y fenomenal. La prueba la hice en la página sobre Fernando Alonso, que es dónde hago muchos "experimentos" ya que no creo que merezca dedicarla demasiado esfuerzo, igual me equivoco.

Seguir leyendo
  • 0000-00-00 00:00:00

Aunque yo sea republicano tengo que decir que el contenido es mi rey. Y es que el contenido de nuestra página web es una de las cosas más importantes a la hora de posicionarla en los buscadores. Pero no vale un contenido cualquiera, deberá de ser un contenido original y que le de a

Seguir leyendo
  • 0000-00-00 00:00:00

En los próximos días intentaré exponer aquí cómo se debe hacer una web para que esté al máximo optimizada para posicionarse en los buscadores, desde el diseño HTML hasta cómo deben ser redactados los contenidos. Lo primero que hay que tener muy claro al comenzar un proyecto web, es saber q

Seguir leyendo

Últimos posts

Últimos comentarios


Javier

Bueenas Lino! Gracias por tu respuesta! Efectivamente, cogiendo texto de una página hecha con javascript y poniéndolo en Google entre comi
Post: Meta Robots Noindex

Lino Uruñuela

Hola @Javier repondiendo a tu pregunta "¿significa eso que google no está viendo el contenido en texto y no lo posicionará?" con el mismo
Post: Meta Robots Noindex

Lino Uruñuela

@Alex R , lo primero graciias por a ti por participar :) Sobre tu prebunta ¿Dentro de un mismo artículo o entrada podemos hacer que no s
Post: Meta Robots Noindex

Javier

Buenas Lino Mecagoenlos! (vaya apellido tienes...) Tu artículo me ha dado mucho que pensar... acaban de hacerme una web en una agencia y
Post: Meta Robots Noindex

Alex R

Hola Lino! Te leo desde hace algún tiempo (genial el cambio de look) y casualmente he venido aquí con una duda sobre indexación. Lo
Post: Meta Robots Noindex

Lino Uruñuela

@javier Lorente Aupa Javi, en algún proyecto en el que he aplicado el noindex y que podía analizar los accesos del bot (tenina cierto p
Post: Meta Robots Noindex

Javier Lorente

Kaixo Lino! Habría que ver si baja la frecuencia de rastreo en otras urls que no fuesen la home, muy difícil de medir por cierto. Po
Post: Meta Robots Noindex

pSeo

va como un tiro con el onready!!!
Post: Cómo cargar css y js y no bloquear la carga de contenido

Lino Uruñuela

@Javier Lorente supongo que sí, la verdad nunca me enfrenté a ese monstruo
Post: Monotorizar GoogleBot con Google Analytics

Javier Lorente

Con varnish o CDN esto es inviable claro..
Post: Monotorizar GoogleBot con Google Analytics

Contacta

Lánzate y pregunta!

Nos gustan los robots, pero no tanto
7 + 3