Consejos de Google para las descripciones

El otro día Google publicó en uno de sus blogs, unos cuántos consejos de cómo hacer nuestras descripciones para los buscadores. Pero sus métodos  en algunos casos serían contraproducentes, ya que en vez de traernos más tráfico y clientes potenciales podría ser lo contrario.

Google nos da unos consejos poniendo un ejemplo con un libro de Harry Potter

Está claro que no es la descripción adecuada ni para Google ni para el usuario. Google nos recomienda otra alternativa.

<META NAME="Description" CONTENT="Author: J. K. Rowling, Illustrator: Mary GrandPré, Category: Books, Price: $17.99, Length: 784 pages">

Así el usuario ya sabrá todo sobre ese producto sin entrar en la página. Como no le guste el precio, no entrará y no podrás usar la persuabilidad para convencerlo de por qué comprarlo en tu web. La verdad que que para el usuario final podría ser muy bueno, imagina los resultados de la búsqueda de "hoteles Madrid" y que saliesen en las descripciones tipos de habitacion, precios, teléfono y la dirección. Podrías ver todos en un plis e ir descartando sin perder el tiempo en entrar en su página para ver que cuesta 200 € la noche.

¿Por qué no hacen esto los hoteles? porque no les interesa, es mejor que el usuario entre y por lo menos vea más cosas además del precio, como puede ser fotos, servicios, etc  y así tendrá una visión más completa del hotel y no se fijará sólo en el precio.

Así que haz algo de caso a Google en sus recomendaciones para las descripciones pero no des todos los datos, intenta convencerles de que entren que si no les gusta ya se irán, pero por lo menos intentarlo.

 




Lea otros artículos de Otras noticias sobre Google

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II