Validando masivamente términos potenciales para muchas KWs

Publicado el 19 de marzo del 2014 por Lino Uruñuela (Errioxa)

Cuando manejamos un site muy grande en el que tenemos cientos o miles de categorías para clasificar el contenido, como podría ser un e-commerce, puede que haya categorías muy distintas entre si.

Por ejemplo una web podría vender desde clavos hasta tractores pasando por grúas o balones... lo que llamamos un popurrí de categorías, no todas las categorías comparten las mismas keywords potenciales para cada una.

Seguramente clavos al por mayor, o balones al por mayor son términos potenciales, que son buscados por determinado público y este público son clientes potenciales para nuestro negocio, pero podrían carecer de sentido aplicados a otra categoría como el caso de tractores, nadie busca tractores al por mayor....

¿O quizás sí se busque tractores al por mayor?
En muchos sites vemos cosas incoherentes como es el caso de tractores al por mayor ya que aplican los mismos términos a todas sus categorías o palabras clave y queda bastante mal ante el usuario a parte de que no generará ventas.

Para estos casos en el que tenemos cientos o miles de KWs que podrían tener sentido con unos términos, pero no con otros tenemos dos maneras de optimizarlo correctamente
  • Repasando una a una estas categorías o KWs.
  • Automatizando este proceso para filtrar los casos que no tienen sentido.

Aquí voy a exponer una manera automatizada de cómo podríamos hacerlo, tengo más, pero este es uno de los que mejores resultados me da casi siempre, y es usando el XML de Google suggest.

Cuando abrimos esta url vemos como Google nos devuelve unas sugerencias de términos que contienen esos términos.

KW Research en categorias


Para ser más exactos creo nos devuelve los términos más cercanos entre sí dentro de su matriz de términos relacionados (es mi opinión) y son los resultados que observamos para algunas búsquedas en la parte inferior de las serps, no debmos confundir estos términos con los que salen en el suggest de la caja de búsqueda cuando vamos introduciendo texto, esto será otro post.

Vemos como para el ejemplo de balones al por mayor nos devuelve un xml con frases de búsqueda relacionadas, y vemos como el término que nosotros hemos buscado está presente.

Con esto ya tenemos una primera manera de conseguir saber si un término como "al por mayor" es coherente con la categoría de "balones" y podemos crear un simple script que dadas unas KWs comprobara si tienen sentido con la KW "al por mayor" y hacer que nos reescriba los metas de nuestro site de manera mucho más eficaz que hacerlo a mano. Podemos comprobar como con "tractores al por mayor", el resultado devuelto está vacío, no existe, por lo tanto podríamos decir que no es común por lo que no lo incluiríamos en nuestra sección de tractores.

KW Research en categorias


Antes
en el resultado también te daba un número basado en el volumen de búsqueda, en un campo que se llamaba num_queries pero parece ser que lo han quitado. Si añadimos el parámetro &client=chrome podemos ver que descarga también datos númericos, pero siempre son los mismos para todas las KW así que no es relevante.

Estoy convencido que con algún otro parámetro podríamos conseguir otra vez este dato y así poder comparar dos KWs y saber por cuál de los dos es más buscado. Sigamos con el ejemplo de antes, ¿qué será más buscado "Comprar balones", "Venta de balones", o "balones online"? con el dato que ahora ha desaparecido podríamos haber realizado la comparación, pero ahora no nos lo dan y no podremos comparar el volumen de búsqueda entre ambos términos, de momento hasta que demos con el parámetro que nos ofrezca este número podremos validar si un término es coherente o potencialmente buscado para no tener cosas sin sentido en nuestro site.

También podemos optimizar más profundamente si tenemos varios términos posiblemente potenciales, por ejemplo, Venta de balones, Comprar balones, Comprar balones online, etc con este xml y si existe resultado para "venta de balones" y también para "Comprar balones" y para "Comprar balones online" podríamos alternarlos en las paginaciones como ya comentamos en su día.

Por supuesto estos datos que nos devuelve en base a una keyword nos pueden valer para muchas otras cosas, otra de ellas, de la que hablaré dentro de poco es como usarla para un KW research cuando ya se te hayan acabo las ideas.


 




Posts anteriores en On Page


  • 2017-11-29
Space Needle
Publicado el 29 de Noviembre del 2017 por Lino Uruñuela Índice ¿Qué es el meta noindex? Valores que se pueden usar Casos de uso más frecuentes por muchos SEOs ¿Qué hace y qué no hace el meta noindex? ¿Cuándo S&Ia

Seguir leyendo
Space Needle
Publicado el viernes 26 de febrero del 2016 por Lino Uruñuela El otro día, mi socio Natzir me pasó el tweet de John Muller donde indicaba que la directiva Disallow del robots.txt debía comenzar siempre con un slash "/". Esto ha provocado cierto r

Seguir leyendo
Space Needle
Publicado el 26 de enero del 2016, por Lino Uruñuela Desde hace tiempo Google va evangelizando sobre el uso de https en internet, para ello lo hace de la manera más efectiva que conoce, EL MIEDO!. Un gran porcentaje de negocios online a día de hoy son Googledependient

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado por Lino Uruñuela (Errioxa) el 16 de abril del 2014 Ha habido grandes debates en el mundo SEO sobre cómo trata Google los errores 404 y 410 del servidor. Puede parecer que "da un poco igual" el cómo trate Google los errores 404 y 410 y de si hay

Seguir leyendo
Space Needle
Publicado el 14 de febrero del 2014 porLino Uruñuela (Errioxa) Hoy leo en SEOby the Sea que Google incluye en una de sus patentes la velocidad de una página web como factor de relevancia en sus resultados. Esto no es nuevo, desde hace mucho se viene diciendo, casi casi lo mismo q

Seguir leyendo
Space Needle
Publicado el 10 de abril del 2013, by Lino Uruñuela Ayer Google publicó los 5 errores más comunes al usar el meta rel=canonical, de ellos el que más me llama la atención es  "canonical en la primera página de una serie paginada" donde nos d

Seguir leyendo
Space Needle
Publicado el 4 de julio del 2011 Desde la salida del oso de Google cada vez hay más gente que cree que Google ahora le da valor a determinadas experiencias de usuarios en una página web, como puede ser la tasa de rebote o la estancia del usuario en la web. Igual podemos demostrar

Seguir leyendo
  • 0000-00-00 00:00:00

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado el 5 de febrero del 2010 Hoy quería explicar mi opinión sobre distintas formas de cómo podemos evitar el contenido duplicado, en algunos casos. Pongo un cuadro con algunos métodos que podemos utilizar para solucionar nuestros problemas.   

Seguir leyendo
  • 0000-00-00 00:00:00

Ya lo dijo Telendro en blog como era el Seo Hotlinking así que me puse a probarlo, y fenomenal. La prueba la hice en la página sobre Fernando Alonso, que es dónde hago muchos "experimentos" ya que no creo que merezca dedicarla demasiado esfuerzo, igual me equivoco.

Seguir leyendo
  • 0000-00-00 00:00:00

Aunque yo sea republicano tengo que decir que el contenido es mi rey. Y es que el contenido de nuestra página web es una de las cosas más importantes a la hora de posicionarla en los buscadores. Pero no vale un contenido cualquiera, deberá de ser un contenido original y que le de a

Seguir leyendo
  • 0000-00-00 00:00:00

En los próximos días intentaré exponer aquí cómo se debe hacer una web para que esté al máximo optimizada para posicionarse en los buscadores, desde el diseño HTML hasta cómo deben ser redactados los contenidos. Lo primero que hay que tener muy claro al comenzar un proyecto web, es saber q

Seguir leyendo

Últimos posts

Últimos comentarios


Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier Lorente

Siempre sospeché de https://www.seroundtable.com/amp/google-long-term-noindex-follow-24990.html tiene toda la lógica. En alguno de tus exp
Post: Meta Robots Noindex

Javier Lorente

Creo que deberíamos empezar a diferenciar ya de una vez por todas "indexadas" y "en el index server". Personalmente por indexadas entien
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Javier

Bueenas Lino! Gracias por tu respuesta! Efectivamente, cogiendo texto de una página hecha con javascript y poniéndolo en Google entre comi
Post: Meta Robots Noindex

Lino Uruñuela

Hola @Javier repondiendo a tu pregunta "¿significa eso que google no está viendo el contenido en texto y no lo posicionará?" con el mismo
Post: Meta Robots Noindex

Lino Uruñuela

@Alex R , lo primero graciias por a ti por participar :) Sobre tu prebunta ¿Dentro de un mismo artículo o entrada podemos hacer que no s
Post: Meta Robots Noindex

Javier

Buenas Lino Mecagoenlos! (vaya apellido tienes...) Tu artículo me ha dado mucho que pensar... acaban de hacerme una web en una agencia y
Post: Meta Robots Noindex

Alex R

Hola Lino! Te leo desde hace algún tiempo (genial el cambio de look) y casualmente he venido aquí con una duda sobre indexación. Lo
Post: Meta Robots Noindex

Contacta

Lánzate y pregunta!

Nos gustan los robots, pero no tanto
7 + 3