Cutre tags dobles

Publicado el 23 de enero del 2010

El otro día miré las páginas indexadas de mi dominio y eran más de 2.000 cuando yo sólo he escrito unos 200 artículos como mucho.

Esto es debido a los cutre-tags que tengo debajo de cada artículo. Hacen una búsqueda por esas palabras dentro de mi web y los llamo cutres porque son cutres de cara a la relevancia de los resultados para los usuarios, pero lo más interesante es que es un listado de resultados con links creados en JavaScript.

De esta manera al usuario le doy la posibilidad de buscar por esas palabras y a Google le hago creer que son páginas de contenido en vez de páginas de listados o links.

Creo que entre estos dos tipos de páginas, listados Vs contenidos, hay una gran diferencia, y cada vez supongo que la habrá más.

A google no le interesa enviar al usuario a una página con links, como podría ser este caso, sino que le interesa enviar al usuario directamente a donde este picharía y creo que eso es un punto negativo para este tipo de páginas de cara a Google, creo que las valora menos. De ahí el hecho de intentar engañar a Google con los enlaces en JavaScript.

Casi el 100% de los usuarios que llegan a esas páginas lo hacen a través de Google. Y cada vez llegan más! Pero claro, esto no es una técnica recomendable para muchas webs, por lo menos no de esta manera tan descarada, ya que es creado casi únicamente para el posicionamiento en buscadores y esto a Google no le gusta nada.

Debemos saber usarlo de forma moderada y en directorios concretos. Ya que si te banean es probable que sólo lo hagan para ese directrio donde metes todos los términos y no para el resto de la web, pero fíate. Creo que es un recurso a la desesperada, pero que de momento puede funcionar.

Estoy probando alguna cosa algo más complicada, pero que debería funcionar mucho mejor, sobretodo si tenemos una buena masa de usuarios. Ya os comentaré de que se trata, seguro que os gusta ;)


A partir de ahora voy a linkar en vez de cada término, los dos primeros juntos, y los demás por separado. Por ejemplo para un artículo que lo titule "Como encontrar directoros dofollow" los cutre tags serían (como encontrar) (directorios) (dofollow) y aunque sólo buscaré por la primera palabra del cutre-tag compuesto en el title saldrá entero, ya que sino la mayoría devolverían cero resultados. Además voy a cambiar el title de esas páginas añadiendo la palabra marketing.

Quiero comprobar si funciona con cosas un poco competidas y si es mejor con una o dos palabras. Luego supongo que lo quitaré porque como sabéis no gano ni ganaré nada de dinero con este blog, simplemente son pruebas.


 


Dianahace Hace más de 10 años y 176 días

¿pero para que vale exactamente esto? como lo tenias antes te daba muchas paginas indexadas pero haciendolos dobles que ganas?

Errioxahace Hace más de 10 años y 176 días

@Diana esto sirve para conseguir más entradas por long tail. Al hacerlo con una sola palabra creo que podría ser más difícil conseguir posicionarte, pero al hacerlo de dos en dos cuando el usuario busque esas dos palabras en Google puede que sí salga la web.



Lea otros artículos de SEO Black Hat

Últimos posts

Últimos comentarios


Lino

Hola @anna , creo que Fede Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

anna

donde se pone el php i jv para wordpress?
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Anna


Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console

India

Buen día, muy buenas explicaciones! Justo estoy viendo las métricas de una consulta exacta. Cuando miro las páginas y sumo el total de cl
Post: Datos incoherentes y cálculo de la posición media en Search Console

FunnelPunk

@Lino probando mi script del futuro
Post: Errores críticos originados por el robots.txt

Lino

@Xavier que Google no pueda acceder no significa que no pueda indexarla. Lo que no hará es entrar, y por lo tanto, no podrá ver el conteni
Post: Errores críticos originados por el robots.txt

Xavier

Lino estoy haciendo un experimento y tengo una duda, si en una web donde puedes crearte un perfil de usuario capan mediante Robots.txt, pero
Post: Errores críticos originados por el robots.txt

Norek Beat

Realmente.. de verdad buen articulo, gracias. Aparte de la historia del principio,he comprendido por fin la posición media. No es ni la pri
Post: Datos incoherentes y cálculo de la posición media en Search Console

Lino

@seozamp sí se puede, mira por ejemplo el blog de @useo, seguro que tiene unos cua
Post: Informes y gráficas usando la API de Google Search Console