¿Pre-panda, Google caffeine o un poquito d ambas?

Pulbicado el 19 de junio del 2011

Ya se están viendo cambios en las estadísticas de muchos sites, ¿será Panda 2.2?

Y es que el otro día Matt Cuts comentó que la actualización a Panda 2.2 llegará en breve, la verdad es que dijo que no era cosa de semanas sino de meses. Y justo unas semanas después comienza a ocurri esto. Una de dos o el tío nos dio una pista sobre que este cambio no era Panda 2.2 o es un cabrón ;)

Se puede ver si vas a Motores de busqueda -> Google organic  y comparamos este miércoles, jueves, viernes con los de las semanas anteriores y veremos si estamos o no afectados.

El cambio que hizo Google con Panda Update tenía como objetivo, o eso decían, las granjas de contenidos que se dedicaban a copiarlos de otras webs o a crearlos de muy baja calidad con el objetivo de salir por términos poco competidos pero muy buscados. estas páginas podían/pueden llegar a tener una grandísima cantidad de tráfico, pero de muy mala calidad, ej taringa.net

También decían que tenía como objetivo detectar y eliminar contenido duplicado de sus resultados. Y es que realmente son muy pocas las descripciones distintas que hay sobre un mismo producto. Hay muchísimas webs que tienen mucho contenido entre si, puede que organizado de distintas maneras pero el usuario que busca en Google un determinado producto, entrará en el primer resultado, y luego le dará atrás para ver otras opciones, y pinche en el segunda resultado, entrará en la web, que será distinta a la primera en cuanto a diseño pero luego en el texto que se refiere al producto y que es lo que realmente quiere ver el usuario es exactamente igual al de la primera página. Volverá a darle atrás y entrará en el tercer resutlado y sería lo mismo, y en el cuarto y en el quinto... Internet está lleno de contenido duplicado!!! y Google está intentando ofrecer mayor variedad de resultados a sus usuarios.

Pero la verdad es que la actualización de estos días no parece hacer nada con ese tipo de webs. Las caídas de tráfico son indiferentes a si es duplicado ese contenido o no. Tengo webs que han descendido un 15%, dentro de la sección que es contenido duplicado baja de igual manera que en las secciones que no lo son.

Tampoco tenemos noticias de sites considerados como granjas de contenidos hayan sido especialmente afectados, parece que es general que el que se ve afectado sea a la baja, muy muy pocos sites han suido.

Otro punto a tener en cuenta es que las webs pequeñitas casi casi no se ven afectadas, y alguna de estas sí se ve un aumento, pero no muy grande.

Interesante son estos puntos para mi:

  • El número de URLs que traen tráfico desde Google haya descendido
  • El número de keywords que traen tráfico hacia una URL  también desciendan
  • Llas palabras principales para cada URL siguen bien posicionadas, las que pierden son las de Long Tail
  • Algunos aseguran que han vuelto a las posiciones anteriores al primer lanzamiento de Panda, así que algo de Panda tiene seguro, supongo!  

No sé si es pre-panda  (test que Google hace oara comprobar la calidad de la actualización que se prepara) o si es algo relacionado al índice de Google y aquello de la cafeina...

Habrá que seguir atentos esta semana para ver qué ocurre ya que puede ser bastante importante el cambio.

 


Pipot83 (@)hace Hace más de 13 años y 141 días

El otro dia Barry en la conferencia SEO de Madrid dijo que una sola sección con baja calidad puede perjudicar el entero site. Igual es por eso que te baja trafico de igual manera en secciones "malas" y secciones buenas.

De todas formas estoy de acuerdo contigo, todavía el Panda no está discriminando bien entre granjas de contenidos y páginas con contenido de calidad.

En algunas webs que controlo hemos notado algo pero no sé cuanto es atribuible a Google.

Gran post como siempre!

gracias

Fabio

kico (@)hace Hace más de 13 años y 140 días

>>Una de dos o el tío nos dio una pista sobre que este cambio no era Panda 2.2 o es un cabrón ;)

Me inclino a pensar que es lo segundo.

Respecto al algoritmo ¿realmente es importante el nombre? XDD

Martin (@)hace Hace más de 13 años y 138 días

En mi caso coincide lo que citas que no se ven afectadas palabras principales pero si mucho el long tail, auqnue tb coincide con la pérdida de un link de alto PR. A saber a que será debido pero pierdo mas del 20% del tráfico y tampoco coincide con las fechas que citan del 16 de junio mas bien ha sido poquito a poco

Sergio Blanco (@)hace Hace más de 13 años y 132 días

Hola Errioxa,

Lo que comentas es perfectamente compatible con el algoritmo para medir la calidad del contenido en función de la experiencia del usuario:

1. El número de URLs que traen tráfico desde Google haya descendido

Obvio, muchos long-tails están vacíos, o son de poca calidad. El usuario entra, pero sale y vuelve a realizar la misma búsqueda.
Ganan "los buenos".

2. El número de keywords que traen tráfico hacia una URL también desciendan

Obvio también, una misma url puede ser buena para una keyword (los usuarios se quedan), y mala para otras keywords (vuelven a buscar otra vez en google).

3. Las palabras principales para cada URL siguen bien posicionadas, las que pierden son las de Long Tail

Todo ok siguiendo el mismo criterio de experiencia de usuario.

Pande (@)hace Hace más de 13 años y 131 días

Te han enlazado esta entrada en el 14... ;-)

Errioxa (@)hace Hace más de 13 años y 130 días

@pande es verdad!! jajaja, nunca lo pensé!!

Javier Lorente Murillo (@javier_lorente)hace Hace más de 9 años y 131 días

Ahora como mides el número de keywords? Ya no se pude en GSC



Lea otros artículos de Google Updates

Últimos posts

Últimos comentarios


Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console