Se confirma la penalización #6

Publicado el viernes 11 de Enero de 2008 

Según se comenta en los foros de WebMasterWorld, están viendo penalizaciones #6.

Este tipo de "penalización" causa la bajada del TOP 1 o TOP 2 de Google al puesto 6. Parecen demasiados casos a la vez como para que sea una coincidencia, y es que hace una semana o dos ya aparecieron algunos casos pero ahora parace ser que hay bastantes más y todos a la vez, que es lo que me inclina a pensar que sí, sí se está produciendo ese tipo de "penalización".

El por qué de esta "penalización" #6 no se sabe, seguiremos pensando y escuchando otras opiniones.

Pongo penalización entre comillas porque no creo que sea una penalización, si fuese una así posiblemente sacarían las webs afectadas de la primera página de los resultados por lo menos y no ocurre. Pensando en otras teorías a mi parecer puede ser que Google esté haciendo pruebas con los primeros resultados para poder ver el comportamiento de los usuarios, o la variación de los ingresos por la publicidad que pone ahí o las dos cosas a la vez que sería lo más probable.

Repito que no sabemos por qué lo está haciendo (yo por lo menos), pero pensemos en los dos casos que pongo y por qué esta´ría tomando estas medidas:


Si estuviese estudiando el cambio de comportamiento de los usuarios según ponga una u otra página para medir el caso de éxito de los resultados del buscador.

Podría utilizarlo para ver el porcentaje de abandonos, las páginas vistas por cada usuario, el tiempo de permanencia y como varían estos datos según ponga una página u otra en la primera posición. Podría sacar conclusiones válidas.
Yo siempre he dicho que no se puede medir el éxito de un resultado por el comportamiento del usuario porque no es lo mismo el tiempo necesario para consultar el horario de un autobús que aprender trigonometría en una web pero bueno quizás me equivoque y se puedan saber el éxito de un resultado por esos datos, pero no creo.

Podría utilizarlo para ver cómo cambia el porcentaje de clicks en los primeros resultados para usarlo con sus servicios, publicidad, etc.

De esta forma podría ver qué páginas le dan más ingresos, o sea para que se me entienda un poco lo que quiero decir ya que tengo una idea bastante abstracta de todo, para ver cómo puede ganar más dinero poniendo uno u otro resultado.

Aquí os dejo el hilo de WebMasterWorld y el abierto en los foros de Dirson a ver si sacamos alguna conclusión....

 


Estrellahace Hace más de 11 años y 160 días

Ale! Ya me he vuelto a reir sin que sepan porqué en la oficina.

Vinagre Asesinohace Hace más de 11 años y 157 días

Amigo no estoy de acuerdo con lo que planteas sobre el comportamiento de los usuarios y el tiempo de permanencia en una página.

Dices que no es lo mismo aprender algo que mirar un horario, correcto, pero supongo que para la búsqueda \"horarios autobuses\" habrá un patrón de permanencia en la página similar para todas y supuestamente corto. La alarma saltará cuando el retorno a la página previa sea instantáneo o muy inferior al patrón de tiempo asociado a esa búsqueda concreta.

Luego cuando se busque \"aprender la regla de tres\" será lógico suponer que los que realicen la búsqueda invertirán más tiempo en leer las página, estableciendo una media para esa búsqueda (patrón) que deberán cumplir la página que respondan a esa búsqueda. Si el tiempo de permanencia desciende drásticamente está claro que no ofrece lo que se busca.

Bastaría entonces con establecer un nuevo valor a cada cadena de búsqueda que midiese los tiempos de permanencias.

Creo que es importante.

Saludos avinagrados.

Errioxahace Hace más de 11 años y 157 días

Sí, también había pensado esa opción pero ¿cómo das un patrón a cada búsqueda?.

No creo que puedas hacerlo por medio de un algoritmo porque ¿el primer patrón de dónde lo sacas? y si tiene que ir un humano haciéndolo... no creo que fuese rentable.


¿Y si el tipo de perfil de la gente que hace una búsqueda determinada también influyese en el tiempo de permanencia?.

Para la búsqueda "viajes inserso" puede haber dos tipos de usuarios, las personas de edad avanzada que quieren irse de viaje o los hijos de éstos que quieren mandarles de viaje. Seguro que si son los hijos tardan menos en darse cuenta que no es una buena página y hacer click hacia atrás que los abuelos que tardarán 2 minutos.


Y dentro de los hijos, los habrá con más y menos experiencia en internet por lo que tardarán más o menos en darse cuenta de que es un mal resultado.



Creo que ejemplos así encontraríamos muchos, pero bueno, también puede que haya un sistema y yo no me lo imagine. No sería tan raro, pero así de primeras no lo veo tan fácil, no?


Pero bueno, pudiera ser y a mi no se me ocurre.

Vinagre Asesinohace Hace más de 11 años y 157 días

Tienes razón, es muy complejo, pero la algoritmia está para eso. Los ejemplos que pones demuestran que no se trataría de una solución trivial, pero creo que es posible. Ahora bien ¿será significativo para Google?. Es curioso ver como en las estadísticas abiertas de blogs con gran tráfico la duración de las visitas no pasa de los 5 segundos superando ampliamente el 70 % del total de las visitas. Y Google les siga mandando gente.

Bueno es otro de los miles de debate que pueden generarse sobre posicionamiento. A mi me gusta hacer pruebas para probar lo que pienso, pero en última instancia me muevo por instinto y algo me dice que el porcentaje de retorno es importante.

Martinhace Hace más de 11 años y 152 días

Creo que soy un afectado por esa posible posición 6ª y he posteado en dirson. Una de las razones que se citan es tiempo de permanencia en la web. Pero si tienes adsense como tengo yo y tienes éxito en los click, resulta que salen de la web y el primer interesado en Google.



Lea otros artículos de Google Updates

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.

Últimos posts

Últimos comentarios


Juan Francisco Gancia

Excelente artículo, gracias! Te encuentro de casualidad por un post de hace 10 años.
Post: Diferencias entre url indexada y url accesible

Lino Urnuela

@Emirodgar gracias! Pero parece que en tema de imágenes las pilla lo hagas cómo lo hagas parece, eso sí, siempre que no tengas un fall
Post: Indexar imágenes en Google usando Lazy Load

Emirodgar

Muy interesante el experimento. Yo estaba probando con los nuevos formatos webp y pero al final, como eran pocas imágenes y usaba Masonry,
Post: Indexar imágenes en Google usando Lazy Load

Lino Uruñuela

Completamente de acuerdo :) Pero en este experimento solo quería comprobar el método usado para hacer lazy load, en este caso con xmlht
Post: Indexar imágenes en Google usando Lazy Load

Francisco Morales

Lino muy interesante las distintas formas de cargar la imagen. Pero no crees que lo realmente interesante de aplicar Lazy Loading es cargar
Post: Indexar imágenes en Google usando Lazy Load

javier

Buenas , esto del onclik ha cambiado actuamente en algunas web que tengo las lee y sigue enlaces
Post: ¿Cómo ejecuta, interpreta e indexa Google el contenido cargado mediante javascript?

David Girona

Antes de Nada muchas gracias por la aportación. Estoy probando de poner en marcha este procedimiento y me surgen un par de dudas. En
Post: Cómo añadir el valor del meta Robots a Google Analytics via Google Tag Manager

Javier Espinoza

Gracias por la informacion!! Este tipo de blogs me parecen muy importantes, esto lo estudio en la universidad. gracias por la informacion. h
Post: Atacados por los .cn .cz .pl

juan

Hola Lino Uruñuela, una duda ¿aun funciona? porque no lo logro. Mira, en un index.php tengo este codigo: Camuflados
Post: Ofuscando enlaces para mejorar Link Juice

DUQUEredes

Google pasa del canonical bastante :-(
Post: Comprobando comportamiento de Google con meta canonical