Se confirma la penalización #6

Publicado el viernes 11 de Enero de 2008 

Según se comenta en los foros de WebMasterWorld, están viendo penalizaciones #6.

Este tipo de "penalización" causa la bajada del TOP 1 o TOP 2 de Google al puesto 6. Parecen demasiados casos a la vez como para que sea una coincidencia, y es que hace una semana o dos ya aparecieron algunos casos pero ahora parace ser que hay bastantes más y todos a la vez, que es lo que me inclina a pensar que sí, sí se está produciendo ese tipo de "penalización".

El por qué de esta "penalización" #6 no se sabe, seguiremos pensando y escuchando otras opiniones.

Pongo penalización entre comillas porque no creo que sea una penalización, si fuese una así posiblemente sacarían las webs afectadas de la primera página de los resultados por lo menos y no ocurre. Pensando en otras teorías a mi parecer puede ser que Google esté haciendo pruebas con los primeros resultados para poder ver el comportamiento de los usuarios, o la variación de los ingresos por la publicidad que pone ahí o las dos cosas a la vez que sería lo más probable.

Repito que no sabemos por qué lo está haciendo (yo por lo menos), pero pensemos en los dos casos que pongo y por qué esta´ría tomando estas medidas:


Si estuviese estudiando el cambio de comportamiento de los usuarios según ponga una u otra página para medir el caso de éxito de los resultados del buscador.

Podría utilizarlo para ver el porcentaje de abandonos, las páginas vistas por cada usuario, el tiempo de permanencia y como varían estos datos según ponga una página u otra en la primera posición. Podría sacar conclusiones válidas.
Yo siempre he dicho que no se puede medir el éxito de un resultado por el comportamiento del usuario porque no es lo mismo el tiempo necesario para consultar el horario de un autobús que aprender trigonometría en una web pero bueno quizás me equivoque y se puedan saber el éxito de un resultado por esos datos, pero no creo.

Podría utilizarlo para ver cómo cambia el porcentaje de clicks en los primeros resultados para usarlo con sus servicios, publicidad, etc.

De esta forma podría ver qué páginas le dan más ingresos, o sea para que se me entienda un poco lo que quiero decir ya que tengo una idea bastante abstracta de todo, para ver cómo puede ganar más dinero poniendo uno u otro resultado.

Aquí os dejo el hilo de WebMasterWorld y el abierto en los foros de Dirson a ver si sacamos alguna conclusión....

 


Estrellahace Hace más de 12 años y 292 días

Ale! Ya me he vuelto a reir sin que sepan porqué en la oficina.

Vinagre Asesinohace Hace más de 12 años y 289 días

Amigo no estoy de acuerdo con lo que planteas sobre el comportamiento de los usuarios y el tiempo de permanencia en una página.

Dices que no es lo mismo aprender algo que mirar un horario, correcto, pero supongo que para la búsqueda \"horarios autobuses\" habrá un patrón de permanencia en la página similar para todas y supuestamente corto. La alarma saltará cuando el retorno a la página previa sea instantáneo o muy inferior al patrón de tiempo asociado a esa búsqueda concreta.

Luego cuando se busque \"aprender la regla de tres\" será lógico suponer que los que realicen la búsqueda invertirán más tiempo en leer las página, estableciendo una media para esa búsqueda (patrón) que deberán cumplir la página que respondan a esa búsqueda. Si el tiempo de permanencia desciende drásticamente está claro que no ofrece lo que se busca.

Bastaría entonces con establecer un nuevo valor a cada cadena de búsqueda que midiese los tiempos de permanencias.

Creo que es importante.

Saludos avinagrados.

Errioxahace Hace más de 12 años y 289 días

Sí, también había pensado esa opción pero ¿cómo das un patrón a cada búsqueda?.

No creo que puedas hacerlo por medio de un algoritmo porque ¿el primer patrón de dónde lo sacas? y si tiene que ir un humano haciéndolo... no creo que fuese rentable.


¿Y si el tipo de perfil de la gente que hace una búsqueda determinada también influyese en el tiempo de permanencia?.

Para la búsqueda "viajes inserso" puede haber dos tipos de usuarios, las personas de edad avanzada que quieren irse de viaje o los hijos de éstos que quieren mandarles de viaje. Seguro que si son los hijos tardan menos en darse cuenta que no es una buena página y hacer click hacia atrás que los abuelos que tardarán 2 minutos.


Y dentro de los hijos, los habrá con más y menos experiencia en internet por lo que tardarán más o menos en darse cuenta de que es un mal resultado.



Creo que ejemplos así encontraríamos muchos, pero bueno, también puede que haya un sistema y yo no me lo imagine. No sería tan raro, pero así de primeras no lo veo tan fácil, no?


Pero bueno, pudiera ser y a mi no se me ocurre.

Vinagre Asesinohace Hace más de 12 años y 289 días

Tienes razón, es muy complejo, pero la algoritmia está para eso. Los ejemplos que pones demuestran que no se trataría de una solución trivial, pero creo que es posible. Ahora bien ¿será significativo para Google?. Es curioso ver como en las estadísticas abiertas de blogs con gran tráfico la duración de las visitas no pasa de los 5 segundos superando ampliamente el 70 % del total de las visitas. Y Google les siga mandando gente.

Bueno es otro de los miles de debate que pueden generarse sobre posicionamiento. A mi me gusta hacer pruebas para probar lo que pienso, pero en última instancia me muevo por instinto y algo me dice que el porcentaje de retorno es importante.

Martinhace Hace más de 12 años y 284 días

Creo que soy un afectado por esa posible posición 6ª y he posteado en dirson. Una de las razones que se citan es tiempo de permanencia en la web. Pero si tienes adsense como tengo yo y tienes éxito en los click, resulta que salen de la web y el primer interesado en Google.



Lea otros artículos de Google Updates

Últimos posts

Últimos comentarios


Adrian Coutin

muy bueno Lino, nos indica un elemento, de los tantos, en la optimización de googlebot, no trabajar en vano... ;-) ciao
Post: Google podria no querer el HTML de una URL

Ricardo

Hola, Hay vídeo de la charla de Seonthebeach? saludos,
Post: Logs y Big Data

Lino

@Felipe quizás si puedes añadir javacript podrías añadirla, pero si no creo que no podrás ya que el meta canonical va a nivel de cabec
Post: Consolidación de urls canónicas en Google Search Console

Jordi

Presentarl@ a un amig@ = Redirección.
Post: El SEO para ligar

OSCAR NAVARRO AMADO


Post: Saber cuántos dominios tiene una persona

Felipe

Cada vez que pongo una etiqueta canónica en wordpress, me la desaparece automáticamente, la pongo en html, ya que de otra forma no me per
Post: Consolidación de urls canónicas en Google Search Console

Lino

@pacorapidohace así es, este experimento fue hace 10 años... y sí, he comprobado lo mismo que tú, hace falta estar la palabra en la url
Post: Links de imagen y texto, como los trata Google

pacorapido

Hola @Errioxa todo esto ha cambiado por que creo que tiene que ver que la pagina destino no tiene en su contenido las palabras inventadas,
Post: Links de imagen y texto, como los trata Google

FunnelPunk

Complementando la respuesta (y aprovechando para comprobar mi "avisador" por Twitter), por si Google no pudiese acceder al robots.txt y no s
Post: Errores críticos originados por el robots.txt

Lino

Hola Miriam, crea un robots.txt vacío para probar, también podrías añadir uno básico con las dos siguientes líneas User-agent: * Allo
Post: Errores críticos originados por el robots.txt