Tratamiento de urls que tienen un tiempo de vida muy corto

Publicado por  (Errioxa) el 16 de abril del 2014

Ha habido grandes debates en el mundo SEO sobre cómo trata Google los errores 404 y 410 del servidor. Puede parecer que "da un poco igual" el cómo trate Google los errores 404 y 410 y de si hay diferencias entre ellos, pero puede ser crucial para algunas webs que son realmente grandes o que tienen urls que sólo son válidas y útiles por un breve espacio de tiempo.

Por ejemplo, si tenemos un portal de ofertas de trabajo (o un ecommerce donde hay productos activos y descatalogados), las urls de las fichas donde se describe la oferta de trabajo (o la ficha de un producto en el ecommerce) serán válidas para los usuarios mientras la oferta esté aun abierta (o el producto esté en stock), pero una vez que la empresa haya cerrado esa oferta de trabajo ya no sirve para nada al usuario.

Estas páginas nos pueden dar grandes alegrías como grandes penas si las dejas vivir mucho tiempo aunque para el usuario no sea útil. Pongamos como ejemplo el antes mencionado, una web sobre ofertas de trabajo, dónde las ofertas de trabajo expiran en un tiempo medio de una semana.

De cara al usuario, si dejamos pervivir esas urls siempre.

  • ¿Es bueno que llegue a una oferta a la que ya no se pueda inscribir?
    Al 99% no le será útil, no quiere ver los trabajos a los que ya no puede aspirar, le hace perder tiempo de navegación.

  • ¿Que podemos ofrecerle si entra en esa oferta?
    Lo normal es que no pueda contactar, ya sea porque se desactiva el botón de aplicar a la oferta, o bien porque no aparece el formulario pertinente para enviar el currículum. Así que si no le ofrecemos nada no le será útil y estará perdiendo el tiempo. Por eso es importante ofrecerle algo útil, por ejemplo otras ofertas de la misma empresa u otras ofertas del mismo perfil que la oferta que busca (misma categoría y provincia por ejemplo)

    De esta manera el usuario no estará perdiendo tanto tiempo, ha llegado a una página "inútil" para él, pero podemos hacer que sea algo útil si al menos desde ahí le ofrecemos una en la que pueda estar interesado y que pueda inscribirse en ella.

De cara a nuestro web/negocio

  • ¿Es bueno para nuestro site/negocio?
    Trae posibles usuarios que llegan desde Google al buscar algo relacionado con esa oferta de trabajo (normalmente long tail) por lo que son clientes potenciales, o sea, es bueno para nuestro negocio. Además quizás así tampoco entre en la competencia si consigue lo que quiere.

  • ¿Será bueno para nuestro negocio dentro de 3 años?
    Cuando llevas mucho tiempo así, y sobretodo si tu web es ya algo conocida, surge un problema, y es que al final comprobarás como el 80% de tu tráfico proveniente de Google llega a estas fichas. Por lo general estas fichas no aportan de por si valor al negocio, sólo servirán para captación, que no es poco.. a parte de eso son un dolor de cabeza para técnicos que ven como sus bases de datos crecen y crecen, como los errores 404 son más probables simplemente por cuestión de proporción,  cuantas más ofertas tengas más urls están en tu sistema y más errores dar.

    Otro daño colateral de que el 80% del tráfico a tu site recaiga sobre este tipo de páginas es que te desvirtua un poco  las estadísticas, muchos usuarios Vs poca pasta ingresada. Las estadísticas y números referentes a tu site se están separando de la realidad. Tendrás que examinar de distinta manera las urls de ofertas activas de las que no lo están, pero este problema es fácilmente asumible.

  • Si fueses Google ¿querrías indexar estas urls?
    Pongámonos en la piel del ingeniero de Google, ¿le interesaría perder el tiempo en rastrear y valorar estas urls? Seguro que no, ya que no satisfacerán lo que el usuario (de Google) ha buscado, casi, pero no ha sido satisfactorio porque ya la oferta de trabajo ha expirado. Google preferiría poder ofrecerle una oferta a la que sí pueda apuntarse (o que pueda comprar un producto si fuese un ecomerce).


Así que tenemos un problema, porque

  • Queremos ese usuario, ya que aunque no se apunte a la oferta porque no puede quizás aporte valor a nuestro site de otra manera. Igual navega por nuestro site y entra en las ofertas abiertas. Un % de los usuarios que llegan desde Google a una página con la oferta desactivada se inscribirán en otras ofertas de nuestro site, por lo que estamos dando algo de valor a las empresas que buscan candidatos para un puesto y que han pagado por estar en nuestro site. O igual hace click en un anuncio de AdSense y son ingresos para el negocio.

  • Puede ser poco escalable, mantener grandes volúmenes de ofertas en la base de datos, soportar el crawleo de millones de urls (no contactables = poco valor para negocio) puede suponer unos cuantos servidores frontales... y cada vez más técnicos....

  • Puede que algún día Google mida mejor el éxito de sus resultados y sea capaz de darse cuenta de que muchos usuarios que lleva a ese site vuelven al buscador porque no han quedado satisfechos y entonces nos devalua nuestro site y se posiciona peor.


¿Cómo podemos solucionarlo de la mejor manera?

Creo que es imposible satisfacer todos los intereses ya que si esas urls nos traen usuarios, muchos usuarios, lo de dejarlas inaccesibles (y dar un 404 o 410) no vale, porque perderíamos mucho dinero....

Las mejores soluciones que de momento he llevado a cabo son

  1. Ofrecer al usuario alternativas
    Mostrar de forma muy visible las ofertas (o artćulos en un ecommerce) más similares y activas a la que ha llegado el usuario.

    Realmente si le ofreces unas ofertas que le interesan y le dejas claro que la que está viendo actualmente no está activa no le importará haber hecho un click de más para llegar a donde quiere. Un alto porcentaje de estos usuarios cumplirán el objetivo como el resto de los usuarios. Si en una oferta activa se inscriben el 30% de los usuarios que llegan desde Google, posiblemente el 15% de los usuarios que llegan a una oferta desactivada harán clicks en las relacionadas que le muestres y se inscribirán en alguna.

    Entonces, con esta solución algo estamos aportando tanto al negocio como al usuario, y por ende a Google. Perdemos algunos usuarios, pero no sé cómo podríamos retenerlos...

  2. Eliminar URLs sin valor
    Comprobar el historial de las ofertas desactivadas y eliminar de nuestro sistema aquellas que desde hace mucho tiempo no haya tenido accesos. Si una oferta de trabajo ha sido cerrada hace 1 año y nunca ha tenido nungún usuario llegado por medio de Google desde entonces, ¿para que mantenerla?

  3. Redirigir automáticamente estas urls a otras con una oferta activa similar
    Esto no es escalable, porque cada vez que una se caduca tendrías que redireccionar todas las que estaban redireccionadas hacia ésta, y sería un caos total....

  4. Redirigir a la categoría de la oferta
    Esto es válido para el usuario, porque al menos los que lleguen a estas urls serán redirigidos a un listado de ofertas que puede que le interesen, pero realmente no nos traspasará al listado de la categoría el posicionamiento que la ficha de la oferta tenía.

Si no podemos ofrecer ofertas relacionadas ¿Cómo eliminamos estas urls?

Y aqui enlazamos el final del post con el principio... y es que he tenido muchos debates sobre que hacer para eliminarlas. Yo opto por dar un error 410 a Google en estas ofertas desactivadas y sin accesos. Matt Cutts ha comentado ayer en un vídeo la diferencia que hace el Bot entre un 404 y un 410.

  • 404
    Google pone en "espera" esa url y vuelve a las 24 horas a ver si hay contenido por si hubiera sido algún problema del servidor y sólo sea temporal

  • 410
    Google no volverá a comprobar si es un error temporal, sabe que será un error permanente y que esa url no volverá a activarse, aun así, dice que puede volver a intentarlo al cabo del tiempo, supongo qu si encuentra links intentará rastrearlo....


Después de ver el vídeo, tengo claro que para estas urls que decidamos eliminar daría un 410, y así el bot de Google no pierde el tiempo en esas urls ni nosotros recursos para mantenerlas.

No creo que Google interprete bien que un site de miles de 404 nuevos cada día, es más es uno de mis mayores temores si se aplicase 404 para eliminar todas esas fichas, Google pensará que está descuidado, u obsoleto, o a saber, pero nada bueno. Pero creo que no tomaría mal miles de 410 ya que son claramente realizados conscientemente por lo que el site no es que desatendido ni obsoleto ni "roto".


¿Se os ocurre alguna otra manera de eliminar estas urls y no por ello perder usuarios?




 




Posts anteriores en On Page


  • 2017-11-29
Space Needle
Publicado el 29 de Noviembre del 2017 por Lino Uruñuela Índice ¿Qué es el meta noindex? Valores que se pueden usar Casos de uso más frecuentes por muchos SEOs ¿Qué hace y qué no hace el meta noindex? ¿Cuándo S&Ia

Seguir leyendo
Space Needle
Publicado el viernes 26 de febrero del 2016 por Lino Uruñuela El otro día, mi socio Natzir me pasó el tweet de John Muller donde indicaba que la directiva Disallow del robots.txt debía comenzar siempre con un slash "/". Esto ha provocado cierto r

Seguir leyendo
Space Needle
Publicado el 26 de enero del 2016, por Lino Uruñuela Desde hace tiempo Google va evangelizando sobre el uso de https en internet, para ello lo hace de la manera más efectiva que conoce, EL MIEDO!. Un gran porcentaje de negocios online a día de hoy son Googledependient

Seguir leyendo
Space Needle
Publicado el 19 de marzo del 2014 por Lino Uruñuela (Errioxa) Cuando manejamos un site muy grande en el que tenemos cientos o miles de categorías para clasificar el contenido, como podría ser un e-commerce, puede que haya categorías muy distintas entre si. Por ejemp

Seguir leyendo
Space Needle
Publicado el 14 de febrero del 2014 porLino Uruñuela (Errioxa) Hoy leo en SEOby the Sea que Google incluye en una de sus patentes la velocidad de una página web como factor de relevancia en sus resultados. Esto no es nuevo, desde hace mucho se viene diciendo, casi casi lo mismo q

Seguir leyendo
Space Needle
Publicado el 10 de abril del 2013, by Lino Uruñuela Ayer Google publicó los 5 errores más comunes al usar el meta rel=canonical, de ellos el que más me llama la atención es  "canonical en la primera página de una serie paginada" donde nos d

Seguir leyendo
Space Needle
Publicado el 4 de julio del 2011 Desde la salida del oso de Google cada vez hay más gente que cree que Google ahora le da valor a determinadas experiencias de usuarios en una página web, como puede ser la tasa de rebote o la estancia del usuario en la web. Igual podemos demostrar

Seguir leyendo
  • 0000-00-00 00:00:00

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 5 de febrero del 2010 Hoy quería explicar mi opinión sobre distintas formas de cómo podemos evitar el contenido duplicado, en algunos casos. Pongo un cuadro con algunos métodos que podemos utilizar para solucionar nuestros problemas.   

Seguir leyendo
  • 0000-00-00 00:00:00

Ya lo dijo Telendro en blog como era el Seo Hotlinking así que me puse a probarlo, y fenomenal. La prueba la hice en la página sobre Fernando Alonso, que es dónde hago muchos "experimentos" ya que no creo que merezca dedicarla demasiado esfuerzo, igual me equivoco.

Seguir leyendo
  • 0000-00-00 00:00:00

Aunque yo sea republicano tengo que decir que el contenido es mi rey. Y es que el contenido de nuestra página web es una de las cosas más importantes a la hora de posicionarla en los buscadores. Pero no vale un contenido cualquiera, deberá de ser un contenido original y que le de a

Seguir leyendo
  • 0000-00-00 00:00:00

En los próximos días intentaré exponer aquí cómo se debe hacer una web para que esté al máximo optimizada para posicionarse en los buscadores, desde el diseño HTML hasta cómo deben ser redactados los contenidos. Lo primero que hay que tener muy claro al comenzar un proyecto web, es saber q

Seguir leyendo

Últimos posts

Últimos comentarios


Javier Galán

Este post es una auténtica genialidad. Muy útil.
Post: Medir cuántos usuarios hacen click para ampliar la imagen en Google Imágenes, aunque no entren en nuestra web

Antonio

Hola Lino, Sabes si añadiendo como robot Googlebot ya incluye tanto al robot de desktop como de mobile? O se tendria que añadir Googlebot
Post: Monotorizar GoogleBot con Google Analytics

unoquepasa

Que pasaria si haces varias paginas y cambias el orden de las palabras en los titulos ¿cual se mostrara primero? las que esten mas cerca de
Post: ¿Cuántas palabras valorará Google en el title?

Alex Rodríguez

Muy buenas Lino! Me pasaba por aquí por casualidad a ver si encontraba algo de info de lo que pasó estos días y bueno... Parece que al
Post: Google comienza el año con dos updates

Lino Uruñuela

@Javi sí, sobre que hay mucho cafre por ahí, tienes razón, pero es como el robots.txt es "peligroso" en manos inadecuadas, igual que el n
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Javier Lorente

Gracias Lino! Para "ocultar" errores en plan de andar por casa tiro de robots. Por otro lado, estamos ante una genial actualización que
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier Lorente

Siempre sospeché de https://www.seroundtable.com/amp/google-long-term-noindex-follow-24990.html tiene toda la lógica. En alguno de tus exp
Post: Meta Robots Noindex

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.