Google dice que no restrinjas ficheros css o javascript mediante robots.txt

Publicado por Lino Uruñuela el 28 de octubre del 2014

Google ha anunciado en su blog que había una actualización de las directrices para Webmasters y hay una novedad muy relevante

WMT directrices



Podemos leer en las nuevas directrices cómo claramente hace referencia al hecho de que no debemos restringir por robots.txt ficheros que se usen para el diseño o funcionamiento del site como por ejemplo los ficheros javascript css ya que no podría entender bien el contenido y bla bla bla.

     ANTES                                
             AHORA
   diferencias diferencias


Pero si nos fijamos bien vemos que no lo hace por mejorar su algoritmo de ordenación, es un esfuerzo más para ser capaz de distinguir los sites que más probablemente satisfagan a sus usuarios, y esto pasa por tener en cuenta el dispositivo desde donde el usuario de Google realiza la búsqueda.


En el anterior post que publicaron, donde dan a entender que si detectan elementos flash o algo que no podrá ser reproducido por los usuarios desde dispositivos móviles, les avisarán desde las serps de que el contenido no es compatible con su dispositivo para que no pierda el tiempo y se frustre.

Google antiflash


El contenido que no se pueda reproducir en el móvil o en la tablet donde acaba de realizar la búsqueda el usuario, es difícil que resuelva la necesidad del mismo y posiblemente sea mejor advertírle antes de que entre en valde desde un dispositivo móvil.

¿Por qué no quiere que restrinjamos esos ficheros?

Yo siempre he sido de la opinión de que cuanto menos sepa Google lo que hago para adecuar las necesidades SEO a los distintos escenarios, y es que muchas veces la usabilidad y funcionalidades visuales que introducimos en algunos elementos del site no son conmpatibles con el SEO, o mejor dicho, no son los idóneos pero seguro que le buscaremos las vueltas para que satisfaga nuestras necesidades.


Pongamos por ejemplo el último artículo escrito en este blog, donde mostraba una manera de optimizar determinados listados con un diseño en contra de los requisitos SEO, recordemos;

  • El problema venía de que el texto de los enlaces hacia las fichas de producto eran inútiles para SEO, ya que el texto de enlace no es nada relevante para búsquedas que hagan los clientes potenciales en Google. Las opciones que teníamos eran o bien le pegábamos una patada a la usabilidad y satisfacción de nuestro usuario si pusiéramos  enlaces con un texto que fuese mediánamente útil para SEO (un link de texto "gana" al alt de la imagen aunque ésta esté enlazada, si hay enlace de texto a esa misma URL y otro enlace de imagen, el alt de la imagen lo ignorará para ese link).

  • Para solucionarlo nos inventamos un método donde "camuflamos" los enlaces de texto al crawler para que tenga en cuenta el alt de las imágenes como texto del enlace, de esta forma sí podemos poner nuestras keywords potenciales en los enlaces sin pegarle una patada al manual de primer curso de usabilidad y que además, los enlaces, sean con el texto que nosotros como SEOs queremos, es decir, KW potenciales.

  • Una de las cosas que dijimos es que era bueno camuflar las URLS para que Google no se ponga a rastrear por si mismo y valore eso como un enlace, sino que fuésemos nosotros quienes lo "guiaramos".

  • El otro punto que comentamos fue el restringir ell fichero que ejecutaba la función de encriptación de url para que Googe no tuviese acceso y no comience a rastrear cosas que no queremos, o mal optimizadas, a parte de que puede volverse loco en mis funciones.

Es verdad que hacemos cosas para despistar a Google en según que cosas, pero creo que por ejemplo el ejemplo que pusimos el otro día no es una técnica black hat SEO, y ni mucho menos agresiva. Lo único que hacemos es darle a Google los enlaces internos lo mejor optimizados posible, y a la vez darle al usuario una experiencia de navegación digna del 2014.... era fácil hacer las dos cosas a la vez.



Pero parece ser que a Google no le gusta esto, y como vemos, ha modificado sus directrices para persuadirnos a que no restinjamos este tipo de ficheros. La verdad es que tiene sentido y no creo que sea un movimiento contra los SEOs. Creo que simplemente  está renderizando cada url para ver cómo se vería por los usuarios.

 

Google no dice que dejará de mostrar esos resultados, tampoco se podría arriesgar a que aunque haya un elemento en flash no haya información muy relevante para el uysuario y es mejor , simplemente, avisarle antes de no mostrarle ese resultado.


Entonces, ¿que hacemos con los ficheros de javascript o css que tenemos restringidos por robots.txt? ¿abrimos su indexación? ¿lo dejamos como lo tenemos?

Mi recomendación es que mientras no sepamos más información y no estemos seguros de si va a repercutir, cuánto y de que manera, hagamos lo que nuestro DiosGoogle nos comenta no vaya a ser que el impacto sea mayor del previsto.


Ahora es tiempo de estrujarse un poco el coco y pensar en maneras de analizar cuánto impacto tiene este tipo de acciones, y con que tipo de contenido. Habrá que darle una vueltita más de tuerca a nuestro código para volver a "camuflar" esos links de una una u otra manera. Creo que en muchos casos realmente hay que hacerlo (poniendo el ejemplo del anterior post) y se ha de conseguir que las fichas de producto (en este caso camsetas) estén enlazadas con un texto potencial, a los diseñadores no les va a hacer ninguna gracia, y es que detallitos como este que hemos comentado para listados con imágenes te pueden hacer subir posiciones por muchas KW, medium tail y long tail. Si una buena parte de los ingresos de un site basado el cual está basado en listados mandará a tomar por saco la usabilidad y hará lo necesario para optmizar su site


¿Hay algo que joda más a un SEO saber cómo optimizar bien el linking interno y ver que no puede hacer sin cargarse la usabilidad, conversión e ingresos del negocio por una noticia así?

Ya tenemos reto, y nos toca pensar en otras alternativas, seguro que pronto nos vienen a la cabeza y comenzamos a testar.


 

 




Posts anteriores en Links internos


  • 0000-00-00 00:00:00

Publicado el 14 de agosto del 2010Debido a cómo trata Google los enlaces ancla y que hacen de éstos una excepción en la regla de que Google sólo cuenta un solo enlace (el primero en el código) desde una URL (A) a una URL (B). Ahora queria comprobar c&oacu

Seguir leyendo
  • 0000-00-00 00:00:00

rePublicado (y republicano) el 2 de agosto del 2010 El otro día Carlos Redondo me comentó que se había percatado que hay determinadas redirecciones 301 que no traspasan ni PR ni anchor text, esto sería una putada. Así que vam

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 11 de mayo del 2010 Hace un tiempo vimos como podemos hacer para que Google tome desde una URL de origen (A) a una URL de destino (B) más de un anchor text. Ahora quería comprobar cómo afectaría hacer esto con términos que ya tenemos posicionados

Seguir leyendo
  • 0000-00-00 00:00:00

Muchas veces tenemos que paginar resultados en nuestra página web y es una muy buena opción para hacer un poco de SEO en esas paginaciones para lograr objetivo poco a poco. Normalmente cuando hacemos paginaciones podemos hacerlo bien mediante variables en la URL, cosa muy mejorable,

Seguir leyendo
  • 0000-00-00 00:00:00

Por distintos motivos a veces nos vemos obligados a tener que cambiar el nombre de nuestras URLs, puede ser porque hemos cambiado el nombre de los archivos en el servidor por una reestructuración del sitio, porque hayamos cambiado de dominio, etc. Lo ideal tanto para el usuario como pa

Seguir leyendo

Últimos posts

Últimos comentarios


Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier Lorente

Siempre sospeché de https://www.seroundtable.com/amp/google-long-term-noindex-follow-24990.html tiene toda la lógica. En alguno de tus exp
Post: Meta Robots Noindex

Javier Lorente

Creo que deberíamos empezar a diferenciar ya de una vez por todas "indexadas" y "en el index server". Personalmente por indexadas entien
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier

Bueenas Lino! Gracias por tu respuesta! Efectivamente, cogiendo texto de una página hecha con javascript y poniéndolo en Google entre comi
Post: Meta Robots Noindex

Lino Uruñuela

Hola @Javier repondiendo a tu pregunta "¿significa eso que google no está viendo el contenido en texto y no lo posicionará?" con el mismo
Post: Meta Robots Noindex

Lino Uruñuela

@Alex R , lo primero graciias por a ti por participar :) Sobre tu prebunta ¿Dentro de un mismo artículo o entrada podemos hacer que no s
Post: Meta Robots Noindex

Javier

Buenas Lino Mecagoenlos! (vaya apellido tienes...) Tu artículo me ha dado mucho que pensar... acaban de hacerme una web en una agencia y
Post: Meta Robots Noindex

Alex R

Hola Lino! Te leo desde hace algún tiempo (genial el cambio de look) y casualmente he venido aquí con una duda sobre indexación. Lo
Post: Meta Robots Noindex

Contacta

Lánzate y pregunta!

Nos gustan los robots, pero no tanto
7 + 3