Borrar el historial del navegador con JavaScript

Publidado el 11 de julio del 2011

El otro día le dije a Sergio Blanco que me estaban convenciendo sus argumentos de por qué Google podría estar valorando la experiencia de usuario y si el comportamiento de los usuarios podría influír en los rankings del buscador.

A simple vista parece que sería lógico que cuanta menoss tasa de rebote tenga una url habrá más usuarios satisfechos que habrán encontrado lo que buscaban. Pero si te pones a pensarlo, como si fueses Google, ¿cómo puedes identificar si un usuario está comparando precios entre distintas webs y por ello luego volverá atrás sin que realmente haya salido insatisfecho?

Está claro que no es una cifra que la tomaría así a la ligera, la compararía con datos de otras webs del mismo sector/temática que consigue debido a todos los cacharros que Google tiene desplegados entre las páginas web (analytics, AdWords, AdSense,etc) y también entre los usuarios (crhome, barra de Google, Google+, etc) pero sobretodo se fijará en lo que los usuarios hacen en la página de resultados de Google. Detectaría por ejemplo cuando un usuario hace atrás en el navegador para volver a la página de Google, y luego pincha en otro resultado o hace una búsqueda muy similar, tendrías un puntito negativo, como en clase.

La idea sería que una búsqueda concreta tuviese asociada una tasa de rebote promedio y esa tasa seria la que se compararía con tu web. Si por ejemplo para la búsqueda "segunda ley de termodinamica" la tasa de rebote es de 43% de media entre los datos que Google dispone, y si tu página tiene una tasa de rebote del 92% será síntoma de que ese resultado no ha sido satisfactorio para los usuarios y por tanto irá rebajándola posiciones.

En cambio para la búsqueda "comprar samsung galaxy s" el comportamiento del usuario será diferente, supongo. Entrará en muchos resultados y muchas veces le dará atrás en el navegador, no porque no le haya gustado, sino para comparar precios. Para está búsqueda quizás la tasa de rebote media sería mucho mayor que la anterior y Google no la tendría en cuenta en su algoritmo a la hora de valorar los resultados a mostrar para esa búsqueda determinada.

Pero creo que esto no es tan fácil como parece, el comportamientos de los usuarios no son tan claros, no se comportan igual por muchísimos motivos, culturales, experiencia en internet por parte del usuario, etc... Eso es lo que siempre me ha hecho pensar que no se puede medir la calidad de un resultado para una búsqueda viendo esa tasa de rebote.

Incluso el comportamiento de un mismo usuario puede varíar! el "¿para que?" buscamos algo puede ser por diversos motivos de variar el comportamiento de un mismo usuario, imagina que lo estás viendo con otra persona interesada sentada  tu lado, eso cambiaría mucho mi comportamiento de usuario, si lo hago mientras trabajo y estoy preocupado de que el jefe no me vea mi comportamiento también será diferente, si lo hago mientras como porque no tengo tiempo para nada pues me comportaré de otra forma, etc. Se me ocurren miles de cosas que hacemos habitualmente y que podría variar mucho mis datos de experiencia de usuario y por eso creo que no deberían ser relevantes.

¿Panda Dance?
Si ahora Google valorara el comportamiento de usuario podría ser uno de los motivos del por qué los grandes cambios en los resultados (Google Panda) sólo se dan cada cierto tiempo (¡como hace tiempo Google Dance!), ya que debería hallar la media para muchísimas busquedas disntitas de muchísimos datos y eso llevaría su tiempo.

También podría ser que el desvío de la tasa de rebote de una página con respecto a la media fuese un factor de alerta a Google. Y si entraras en esa alerta Google te evaluará mediante otro algoritmo para decidir si ese contenido es de calidad o no y apuntarlo, y que para el resto de web que no tieen esa alerta no lo hace.

Buscando patrones
Otras cosas que se están escuchando por ahí es la de que está usando un algoritmo capaz de identificar en las webs los patrones que tienen en común las que son satisfactorias para una búsqueda y las que no. Para ello se rumorea que primero se usan personas humanas con criterio y van identificando si una página es buena o no para determinadas búsquedas. Con muchos datos tan fiables podrían identificar lo que une a las buenas páginas y lo que las diferencia de las que han sido marcadas como malas y luego aplicarlo al resto de webs. Creo que esto está más cerca de la realidad que lo del comportamiento del usuario, aunque el comportamiento del usuario podría acabar siendo relevante si este es uno de los factores que encuentran en común... asi que como siempre habrá que intentar mejorar en lo que se pueda para evitar esas tasas de rebote.
 
De momento Google no da pistas y si las da no debemos creerle demasiado, no podéis olvidar que Google no quiere que los SEOs sepamos cómo lo hace, ya que nuestro principal trabajo es alterar esos resultados "justos" e influir en lo necesario para escalar posiciones, estamos en lucha contra él y nunca nos dirá pistas relevante, por lo menos adrede

Como vereis si navegais por un par de urls de esta web comprobaréis como el navegador se empeña en ir hacia adelante, estoy intentando reducir la tasa de rebote de la web, para después poder hacer algunas pruebas de cómo Google valoraría la tasa de rebote.

El código es fácil,

En la página la que no quires que vuelvan usa
<script language="javascript">
function NoBack(){
history.go(1)
}
</script>

Y al Body le añadimos OnLoad="NoBack();"
<BODY OnLoad="NoBack();">

Lo que hace es que cuando cargue la web, no sólo cuando le da atrás sino también cuando la carga normal, hacemos como si el usuario hiciese click en el botón de aldelante, si el usuario no le ha dado al botón de atrás esto es imposible porque aún no existe en su navegador, si le ha dado atrás pues le volverá a llevar hacia adelante. Esto se podría mejorar, pero vamos a ver si así altero las métricas de tasa de rebote.

Tengo otra manera mejor que la voy a intentar poner ahora, y es que cuando haga atrás, en vez de eso lo que haré será enviarle a Google directamente, con un window.location.href=www.google.es así el usuario volverá a Google y no a la misma página de resultados que le llevo a mi web.

 No sé si a Google le gustará o no, pero a los usuarios seguro que no! Si Google comenzase a valorar la experiencia de usaurio para el posicionamiento los SEOs en vez de engañar a Google aprenderemos a engañar persuadir a los usuarios Wink

 




Posts anteriores en Mejorar la experiencia de usuario



Últimos posts

Últimos comentarios


Javier Galán

Este post es una auténtica genialidad. Muy útil.
Post: Medir cuántos usuarios hacen click para ampliar la imagen en Google Imágenes, aunque no entren en nuestra web

Antonio

Hola Lino, Sabes si añadiendo como robot Googlebot ya incluye tanto al robot de desktop como de mobile? O se tendria que añadir Googlebot
Post: Monotorizar GoogleBot con Google Analytics

unoquepasa

Que pasaria si haces varias paginas y cambias el orden de las palabras en los titulos ¿cual se mostrara primero? las que esten mas cerca de
Post: ¿Cuántas palabras valorará Google en el title?

Alex Rodríguez

Muy buenas Lino! Me pasaba por aquí por casualidad a ver si encontraba algo de info de lo que pasó estos días y bueno... Parece que al
Post: Google comienza el año con dos updates

Lino Uruñuela

@Javi sí, sobre que hay mucho cafre por ahí, tienes razón, pero es como el robots.txt es "peligroso" en manos inadecuadas, igual que el n
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Javier Lorente

Gracias Lino! Para "ocultar" errores en plan de andar por casa tiro de robots. Por otro lado, estamos ante una genial actualización que
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier Lorente

Siempre sospeché de https://www.seroundtable.com/amp/google-long-term-noindex-follow-24990.html tiene toda la lógica. En alguno de tus exp
Post: Meta Robots Noindex

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.