Se confirma la penalización #6

Publicado el viernes 11 de Enero de 2008 

Según se comenta en los foros de WebMasterWorld, están viendo penalizaciones #6.

Este tipo de "penalización" causa la bajada del TOP 1 o TOP 2 de Google al puesto 6. Parecen demasiados casos a la vez como para que sea una coincidencia, y es que hace una semana o dos ya aparecieron algunos casos pero ahora parace ser que hay bastantes más y todos a la vez, que es lo que me inclina a pensar que sí, sí se está produciendo ese tipo de "penalización".

El por qué de esta "penalización" #6 no se sabe, seguiremos pensando y escuchando otras opiniones.

Pongo penalización entre comillas porque no creo que sea una penalización, si fuese una así posiblemente sacarían las webs afectadas de la primera página de los resultados por lo menos y no ocurre. Pensando en otras teorías a mi parecer puede ser que Google esté haciendo pruebas con los primeros resultados para poder ver el comportamiento de los usuarios, o la variación de los ingresos por la publicidad que pone ahí o las dos cosas a la vez que sería lo más probable.

Repito que no sabemos por qué lo está haciendo (yo por lo menos), pero pensemos en los dos casos que pongo y por qué esta´ría tomando estas medidas:


Si estuviese estudiando el cambio de comportamiento de los usuarios según ponga una u otra página para medir el caso de éxito de los resultados del buscador.

Podría utilizarlo para ver el porcentaje de abandonos, las páginas vistas por cada usuario, el tiempo de permanencia y como varían estos datos según ponga una página u otra en la primera posición. Podría sacar conclusiones válidas.
Yo siempre he dicho que no se puede medir el éxito de un resultado por el comportamiento del usuario porque no es lo mismo el tiempo necesario para consultar el horario de un autobús que aprender trigonometría en una web pero bueno quizás me equivoque y se puedan saber el éxito de un resultado por esos datos, pero no creo.

Podría utilizarlo para ver cómo cambia el porcentaje de clicks en los primeros resultados para usarlo con sus servicios, publicidad, etc.

De esta forma podría ver qué páginas le dan más ingresos, o sea para que se me entienda un poco lo que quiero decir ya que tengo una idea bastante abstracta de todo, para ver cómo puede ganar más dinero poniendo uno u otro resultado.

Aquí os dejo el hilo de WebMasterWorld y el abierto en los foros de Dirson a ver si sacamos alguna conclusión....

 


Estrellahace Hace más de 12 años y 219 días

Ale! Ya me he vuelto a reir sin que sepan porqué en la oficina.

Vinagre Asesinohace Hace más de 12 años y 216 días

Amigo no estoy de acuerdo con lo que planteas sobre el comportamiento de los usuarios y el tiempo de permanencia en una página.

Dices que no es lo mismo aprender algo que mirar un horario, correcto, pero supongo que para la búsqueda \"horarios autobuses\" habrá un patrón de permanencia en la página similar para todas y supuestamente corto. La alarma saltará cuando el retorno a la página previa sea instantáneo o muy inferior al patrón de tiempo asociado a esa búsqueda concreta.

Luego cuando se busque \"aprender la regla de tres\" será lógico suponer que los que realicen la búsqueda invertirán más tiempo en leer las página, estableciendo una media para esa búsqueda (patrón) que deberán cumplir la página que respondan a esa búsqueda. Si el tiempo de permanencia desciende drásticamente está claro que no ofrece lo que se busca.

Bastaría entonces con establecer un nuevo valor a cada cadena de búsqueda que midiese los tiempos de permanencias.

Creo que es importante.

Saludos avinagrados.

Errioxahace Hace más de 12 años y 216 días

Sí, también había pensado esa opción pero ¿cómo das un patrón a cada búsqueda?.

No creo que puedas hacerlo por medio de un algoritmo porque ¿el primer patrón de dónde lo sacas? y si tiene que ir un humano haciéndolo... no creo que fuese rentable.


¿Y si el tipo de perfil de la gente que hace una búsqueda determinada también influyese en el tiempo de permanencia?.

Para la búsqueda "viajes inserso" puede haber dos tipos de usuarios, las personas de edad avanzada que quieren irse de viaje o los hijos de éstos que quieren mandarles de viaje. Seguro que si son los hijos tardan menos en darse cuenta que no es una buena página y hacer click hacia atrás que los abuelos que tardarán 2 minutos.


Y dentro de los hijos, los habrá con más y menos experiencia en internet por lo que tardarán más o menos en darse cuenta de que es un mal resultado.



Creo que ejemplos así encontraríamos muchos, pero bueno, también puede que haya un sistema y yo no me lo imagine. No sería tan raro, pero así de primeras no lo veo tan fácil, no?


Pero bueno, pudiera ser y a mi no se me ocurre.

Vinagre Asesinohace Hace más de 12 años y 216 días

Tienes razón, es muy complejo, pero la algoritmia está para eso. Los ejemplos que pones demuestran que no se trataría de una solución trivial, pero creo que es posible. Ahora bien ¿será significativo para Google?. Es curioso ver como en las estadísticas abiertas de blogs con gran tráfico la duración de las visitas no pasa de los 5 segundos superando ampliamente el 70 % del total de las visitas. Y Google les siga mandando gente.

Bueno es otro de los miles de debate que pueden generarse sobre posicionamiento. A mi me gusta hacer pruebas para probar lo que pienso, pero en última instancia me muevo por instinto y algo me dice que el porcentaje de retorno es importante.

Martinhace Hace más de 12 años y 211 días

Creo que soy un afectado por esa posible posición 6ª y he posteado en dirson. Una de las razones que se citan es tiempo de permanencia en la web. Pero si tienes adsense como tengo yo y tienes éxito en los click, resulta que salen de la web y el primer interesado en Google.



Lea otros artículos de Google Updates

Últimos posts

Últimos comentarios


Brett

Hi! I just wanted to assk if you ever have any trouble with hackers? My last blog (wordpress) was hackerd and I ended up losing a few month
Post: El valor de los logs para el SEO

Alfonzo

If you would like to get much from this article then you have to apply such strategies to your won web site. Would You Feel free to vis
Post: El valor de los logs para el SEO

Miriam

Buenas Lino, No sé si me podrás echar una mano, estoy intentando comprobar porque Google no puede acceder a mi robots.txt, incluso he
Post: Errores críticos originados por el robots.txt

Natasha

Hello mates, nice paragraph and good arguments commented at this place, I am truly enjoiying by these. Would You Feeel free to surf to
Post: El valor de los logs para el SEO

Luis

Hola amigo, me gustaría saber si mi web www.tuguiapara.com puede recibir backlinks, gracias.
Post: Links desde la misma Ip

Lino

Hola @anna , creo que Fede Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

anna

donde se pone el php i jv para wordpress?
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Anna


Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console

India

Buen día, muy buenas explicaciones! Justo estoy viendo las métricas de una consulta exacta. Cuando miro las páginas y sumo el total de cl
Post: Datos incoherentes y cálculo de la posición media en Search Console