Se confirma la penalización #6

Publicado el viernes 11 de Enero de 2008 

Según se comenta en los foros de WebMasterWorld, están viendo penalizaciones #6.

Este tipo de "penalización" causa la bajada del TOP 1 o TOP 2 de Google al puesto 6. Parecen demasiados casos a la vez como para que sea una coincidencia, y es que hace una semana o dos ya aparecieron algunos casos pero ahora parace ser que hay bastantes más y todos a la vez, que es lo que me inclina a pensar que sí, sí se está produciendo ese tipo de "penalización".

El por qué de esta "penalización" #6 no se sabe, seguiremos pensando y escuchando otras opiniones.

Pongo penalización entre comillas porque no creo que sea una penalización, si fuese una así posiblemente sacarían las webs afectadas de la primera página de los resultados por lo menos y no ocurre. Pensando en otras teorías a mi parecer puede ser que Google esté haciendo pruebas con los primeros resultados para poder ver el comportamiento de los usuarios, o la variación de los ingresos por la publicidad que pone ahí o las dos cosas a la vez que sería lo más probable.

Repito que no sabemos por qué lo está haciendo (yo por lo menos), pero pensemos en los dos casos que pongo y por qué esta´ría tomando estas medidas:


Si estuviese estudiando el cambio de comportamiento de los usuarios según ponga una u otra página para medir el caso de éxito de los resultados del buscador.

Podría utilizarlo para ver el porcentaje de abandonos, las páginas vistas por cada usuario, el tiempo de permanencia y como varían estos datos según ponga una página u otra en la primera posición. Podría sacar conclusiones válidas.
Yo siempre he dicho que no se puede medir el éxito de un resultado por el comportamiento del usuario porque no es lo mismo el tiempo necesario para consultar el horario de un autobús que aprender trigonometría en una web pero bueno quizás me equivoque y se puedan saber el éxito de un resultado por esos datos, pero no creo.

Podría utilizarlo para ver cómo cambia el porcentaje de clicks en los primeros resultados para usarlo con sus servicios, publicidad, etc.

De esta forma podría ver qué páginas le dan más ingresos, o sea para que se me entienda un poco lo que quiero decir ya que tengo una idea bastante abstracta de todo, para ver cómo puede ganar más dinero poniendo uno u otro resultado.

Aquí os dejo el hilo de WebMasterWorld y el abierto en los foros de Dirson a ver si sacamos alguna conclusión....

 


Estrellahace Hace más de 11 años y 340 días

Ale! Ya me he vuelto a reir sin que sepan porqué en la oficina.

Vinagre Asesinohace Hace más de 11 años y 337 días

Amigo no estoy de acuerdo con lo que planteas sobre el comportamiento de los usuarios y el tiempo de permanencia en una página.

Dices que no es lo mismo aprender algo que mirar un horario, correcto, pero supongo que para la búsqueda \"horarios autobuses\" habrá un patrón de permanencia en la página similar para todas y supuestamente corto. La alarma saltará cuando el retorno a la página previa sea instantáneo o muy inferior al patrón de tiempo asociado a esa búsqueda concreta.

Luego cuando se busque \"aprender la regla de tres\" será lógico suponer que los que realicen la búsqueda invertirán más tiempo en leer las página, estableciendo una media para esa búsqueda (patrón) que deberán cumplir la página que respondan a esa búsqueda. Si el tiempo de permanencia desciende drásticamente está claro que no ofrece lo que se busca.

Bastaría entonces con establecer un nuevo valor a cada cadena de búsqueda que midiese los tiempos de permanencias.

Creo que es importante.

Saludos avinagrados.

Errioxahace Hace más de 11 años y 337 días

Sí, también había pensado esa opción pero ¿cómo das un patrón a cada búsqueda?.

No creo que puedas hacerlo por medio de un algoritmo porque ¿el primer patrón de dónde lo sacas? y si tiene que ir un humano haciéndolo... no creo que fuese rentable.


¿Y si el tipo de perfil de la gente que hace una búsqueda determinada también influyese en el tiempo de permanencia?.

Para la búsqueda "viajes inserso" puede haber dos tipos de usuarios, las personas de edad avanzada que quieren irse de viaje o los hijos de éstos que quieren mandarles de viaje. Seguro que si son los hijos tardan menos en darse cuenta que no es una buena página y hacer click hacia atrás que los abuelos que tardarán 2 minutos.


Y dentro de los hijos, los habrá con más y menos experiencia en internet por lo que tardarán más o menos en darse cuenta de que es un mal resultado.



Creo que ejemplos así encontraríamos muchos, pero bueno, también puede que haya un sistema y yo no me lo imagine. No sería tan raro, pero así de primeras no lo veo tan fácil, no?


Pero bueno, pudiera ser y a mi no se me ocurre.

Vinagre Asesinohace Hace más de 11 años y 337 días

Tienes razón, es muy complejo, pero la algoritmia está para eso. Los ejemplos que pones demuestran que no se trataría de una solución trivial, pero creo que es posible. Ahora bien ¿será significativo para Google?. Es curioso ver como en las estadísticas abiertas de blogs con gran tráfico la duración de las visitas no pasa de los 5 segundos superando ampliamente el 70 % del total de las visitas. Y Google les siga mandando gente.

Bueno es otro de los miles de debate que pueden generarse sobre posicionamiento. A mi me gusta hacer pruebas para probar lo que pienso, pero en última instancia me muevo por instinto y algo me dice que el porcentaje de retorno es importante.

Martinhace Hace más de 11 años y 332 días

Creo que soy un afectado por esa posible posición 6ª y he posteado en dirson. Una de las razones que se citan es tiempo de permanencia en la web. Pero si tienes adsense como tengo yo y tienes éxito en los click, resulta que salen de la web y el primer interesado en Google.



Lea otros artículos de Google Updates

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.

Últimos posts

Últimos comentarios


@funnelpunk

Última prueba de menciones en comentarios del blog.. este para @errioxa desde otra cuenta
Post: Google podria no querer el HTML de una URL

German

Hola amigo, lo cierto es que no me he enterado pajolera idea de lo que cuentas, aunque te felicito por aparecer en el Discovery de Google. M
Post: Google podria no querer el HTML de una URL

Lino

Una manera súper sencilla para comprobarlo: 1- Una URL, mirar un log de Googlrbot de esa UR cuando da 200 2- Comparar con otro log
Post: Google podria no querer el HTML de una URL

Jose Antonio Gil

En primer lugar agradecerte tus palabras, he sido alumno tuyo este año en el Máster de Webpositer en Alicante por lo que algo de culpa ten
Post: Google podria no querer el HTML de una URL

Lino

Uppsss cierto, la culpa es de tantas elecciones consecutiva... hacen remarketing en mi cerebro
Post: Google podria no querer el HTML de una URL

José

Buenas Lino! Sólo comentar que el apellido de Gastón es RIERA (no Rivera). Saludos y gracias por compartir!
Post: Google podria no querer el HTML de una URL

Fran Javietr

Hola Lino como podemos añadir a este código la identificación de la ip del bot, como sabes hay falsos bots y una forma de saber si son l
Post: Monotorizar GoogleBot con Google Analytics

Javier

Buenas Lino, ¿Alguna novedad sobre cómo considera Google los links en PDFs? Se me ocurre que, siguiendo con este experimento, se po
Post: Link building con PDF

Francisco

Flaco. Por lo general, no dejo comentarios pero, en tu caso, voy a hacer una excepción pues, sencillamente... ¡sos un genio!, Gracias.
Post: Cómo cargar css y js y no bloquear la carga de contenido

Juan Francisco Gancia

Excelente artículo, gracias! Te encuentro de casualidad por un post de hace 10 años.
Post: Diferencias entre url indexada y url accesible