Como evitar contenido duplicado

Publicado el 5 de febrero del 2010

Hoy quería explicar mi opinión sobre distintas formas de cómo podemos evitar el contenido duplicado, en algunos casos.

Pongo un cuadro con algunos métodos que podemos utilizar para solucionar nuestros problemas. 
 
 Meta/propiedad  Es rastreado
 Es mostrado en las serps  Pasa Page Rank
 Evita duplicados
NoIndex
   No    
El problema de usar este es que estás traspasando link jiuce (valor del link).

Si no quieres que una página sea mostrada en los resultados de Google pero que sí cuenten los links que hay dentro de ella, esta podría ser una buena solución. Habrá que hacer una prueba para comprobar si cuenta los links dentro de una página con el meta puesto.

Yo no la usaría para páginas como contacto, aviso legal y otras páginas que para nosotros son inútiles porque no nos interesa posicionar. Para hacer esto yo creo que hay mejores soluciones (con javascript) y así no desperdiciar nada de Link juice.


 
NoFollow      No, no sigue los links
 No
Este es un meta al que se le puede sacar provecho de distintas maneras.

Lo puedes usar para incambiar links con gente inerpexta. Google, en teoría, no seguirá ni valorará esos link, con lo cual, tu recibes uno a cambio de nada.

También puedes hacer de esta página un gran acumulador de PR, ya que recibirá links pero no dará ninguno (como ocurre con la wikipedia). Luego no sé si quizás se podría usar ese poder acumulado por ejemplo quitar la meta, cambiar contenido y poner cuatro links contados a donde tú quieras. O simplemente posicionar esta url, aunque será más difíl que si tuviese un mínimo de contenido.


Aunque no creo que ninguna buena estrategia se base en esto. Sólo es por probar, por intentar comprender un poco más el por qué salen unos u otros...


 
 Canonical  Sí, pero no sé hasta que punto
 A veces salen...
 ??  Sí, Google la creó para ello.
Esta nos puede valer si tenemos mucho contenido duplicado porque la navegación permite múltiples vías de entrada a un mismo producto. Suele ocurrir a menudo en las webs de clasificados, o las páginsa de tiendas online. A menudo no podemos controlar la cantidad de URLs que se pueden duplicar. Creo que lo mejor es definir las urls principales y las demśa URLs variables de esa ponerla la cannonical.

En este caso no queremos redireccionar, ya que es por usabilidad el que tenga tantas rutas. Y mejor usar esto ya que no sé hasta que punto le dirá a Google cual es la buena, pero seguro que se lo dice mejor que si lo bloqueamos con el robots.txt aunque hay casos en los que no hay más remedio.

Debermos hacer algún experimento con esto, a ver si valora los links que hay dentro.

Si tomamos hacemos esto también deberíamos darle un sitemaps a Google sólo con las URL válidas.


 
Link nofollow
Si la apunta otra sin nofollow sí Sí. La página a la que apunta si tiene más links desde otras.  No No
Estos links creo que puden ser lo peor.
Google hace con ellos lo que quiere, valorar no los valora, pero a saber lo que hace mañana.

Yo los pongo por si acaso, pero no confío nada en ellos.


 
Enlaces JavaScript
No, si no se le enlaza desde orto sitio, cosa que suele pasar
Igual que los links con nofollow,  No
No

En estos momentos  son mis favoritos para evitar una fuga en el link juice hacia donde no quiero. Hay que camuflarlos un poco ya que los haces, no vale con poner <a href="javscriptwindow.location.href"> lo primero no debemos ponerlo con una etiqueta <a porque posiblemente por eso pueda contarlo también, mucho mejor con un <span

Con este método nos podemos asegurar donde no queremos traspar nada de posicionamiento a esas páginas que no tienes interés en que salgan y así puedes distribuir el LinkJuice a otros links que sí te interesan.

Como claro ejemplo están la página de contacto, la página de aviso legal, el comenta este artículo, y muchas más que se te irán ocurriendo que no quieres traspasarlas nada, y si esas páginas en vez de cuatro haces 1 con todo el contenido, mejor.
 
 
 Robots.txt  No  Sí, si recibe los links suficientes  No, se lo queda todo para ella
 Sí
Hay veces que trabajas con aplicaciones que no pueden identificar esa duplicidad de contenidos para insertar o no insertar el meta, entonces podemos usar el robots.txt .Lo malo, que estamos desperdiciando links que apuntan  a esas páginas restringidas, y con ello malgastamos votos que hubieramos podido distribuir a los demás links.

Cuando la cantidad de contenido duplicado es muy grande, un buen método es acabar de raíz con el problema, y aunque estemos despilfarrando algo de link juice y de tráfico puede ser mucho mejor que ser penalizados por ello.
Pero bueno, casi siempre hay soluciones menos drásticas.

Si antes de hacer la estructura de una web lo pensamos bien, no deberíamos usar casi nunca estos métodos. Seguro que se os ocurren más, supongo que cada uno habrá tenido que lidiar con su propio problema e igual ha encontrado una solución distinta. Cada web es cada web y hay que conocerla bien para poder tomar la mejor decisión.


¿Que más añadiríais?


 



Space Needle
Publicado el lunes 10de junio del 2013, By Lino Uruñuela Hoy debatiendo en una lista de correo me ha hecho pensar en cuál es el mejor método para desindexar una url, y claro todo depende de en cómo definamos lo que es desindexar una página y para que lo estamo

Seguir leyendo

Space Needle
Publicado el día 1 de junio del 2011, by Lino Uruñuela Ultimamente vivo obsesionado con diferenciar mi contenido del resto, algunas veces se me ocurren cosas ingeniosas y otras tengo que tirar por el medio como los burros, como en este caso... Con la nueva salida de Google Shopp

Seguir leyendo

  • 0000-00-00 00:00:00

Publicado el 14 de junio del 2010 Muchas veces Google ha comentado que lucha contra el contenido duplicado y que cada vez identifica mejor la fuente original, pero ¿que de cierto hay en esto? Yo comienzo a dudar que Google haga un esfuerzo claro por identificar  cuál es la f

Seguir leyendo


Posts anteriores en On Page


  • 2017-11-29
Space Needle
Publicado el 29 de Noviembre del 2017 por Lino Uruñuela Índice ¿Qué es el meta noindex? Valores que se pueden usar Casos de uso más frecuentes por muchos SEOs ¿Qué hace y qué no hace el meta noindex? ¿Cuándo S&Ia

Seguir leyendo
Space Needle
Publicado el viernes 26 de febrero del 2016 por Lino Uruñuela El otro día, mi socio Natzir me pasó el tweet de John Muller donde indicaba que la directiva Disallow del robots.txt debía comenzar siempre con un slash "/". Esto ha provocado cierto r

Seguir leyendo
Space Needle
Publicado el 26 de enero del 2016, por Lino Uruñuela Desde hace tiempo Google va evangelizando sobre el uso de https en internet, para ello lo hace de la manera más efectiva que conoce, EL MIEDO!. Un gran porcentaje de negocios online a día de hoy son Googledependient

Seguir leyendo
  • 0000-00-00 00:00:00

Publicado por Lino Uruñuela (Errioxa) el 16 de abril del 2014 Ha habido grandes debates en el mundo SEO sobre cómo trata Google los errores 404 y 410 del servidor. Puede parecer que "da un poco igual" el cómo trate Google los errores 404 y 410 y de si hay

Seguir leyendo
Space Needle
Publicado el 19 de marzo del 2014 por Lino Uruñuela (Errioxa) Cuando manejamos un site muy grande en el que tenemos cientos o miles de categorías para clasificar el contenido, como podría ser un e-commerce, puede que haya categorías muy distintas entre si. Por ejemp

Seguir leyendo
Space Needle
Publicado el 14 de febrero del 2014 porLino Uruñuela (Errioxa) Hoy leo en SEOby the Sea que Google incluye en una de sus patentes la velocidad de una página web como factor de relevancia en sus resultados. Esto no es nuevo, desde hace mucho se viene diciendo, casi casi lo mismo q

Seguir leyendo
Space Needle
Publicado el 10 de abril del 2013, by Lino Uruñuela Ayer Google publicó los 5 errores más comunes al usar el meta rel=canonical, de ellos el que más me llama la atención es  "canonical en la primera página de una serie paginada" donde nos d

Seguir leyendo
Space Needle
Publicado el 4 de julio del 2011 Desde la salida del oso de Google cada vez hay más gente que cree que Google ahora le da valor a determinadas experiencias de usuarios en una página web, como puede ser la tasa de rebote o la estancia del usuario en la web. Igual podemos demostrar

Seguir leyendo
  • 0000-00-00 00:00:00

Seguir leyendo
  • 0000-00-00 00:00:00

Ya lo dijo Telendro en blog como era el Seo Hotlinking así que me puse a probarlo, y fenomenal. La prueba la hice en la página sobre Fernando Alonso, que es dónde hago muchos "experimentos" ya que no creo que merezca dedicarla demasiado esfuerzo, igual me equivoco.

Seguir leyendo
  • 0000-00-00 00:00:00

Aunque yo sea republicano tengo que decir que el contenido es mi rey. Y es que el contenido de nuestra página web es una de las cosas más importantes a la hora de posicionarla en los buscadores. Pero no vale un contenido cualquiera, deberá de ser un contenido original y que le de a

Seguir leyendo
  • 0000-00-00 00:00:00

En los próximos días intentaré exponer aquí cómo se debe hacer una web para que esté al máximo optimizada para posicionarse en los buscadores, desde el diseño HTML hasta cómo deben ser redactados los contenidos. Lo primero que hay que tener muy claro al comenzar un proyecto web, es saber q

Seguir leyendo

Últimos posts

Últimos comentarios


David

Hablando sobre la ofuscación de enlaces, tras las últimas noticias de Google y su segunda oleada de indexación tras la renderización de
Post: Ofuscando enlaces para mejorar Link Juice

Javier Galán

Este post es una auténtica genialidad. Muy útil.
Post: Medir cuántos usuarios hacen click para ampliar la imagen en Google Imágenes, aunque no entren en nuestra web

Antonio

Hola Lino, Sabes si añadiendo como robot Googlebot ya incluye tanto al robot de desktop como de mobile? O se tendria que añadir Googlebot
Post: Monotorizar GoogleBot con Google Analytics

unoquepasa

Que pasaria si haces varias paginas y cambias el orden de las palabras en los titulos ¿cual se mostrara primero? las que esten mas cerca de
Post: ¿Cuántas palabras valorará Google en el title?

Alex Rodríguez

Muy buenas Lino! Me pasaba por aquí por casualidad a ver si encontraba algo de info de lo que pasó estos días y bueno... Parece que al
Post: Google comienza el año con dos updates

Lino Uruñuela

@Javi sí, sobre que hay mucho cafre por ahí, tienes razón, pero es como el robots.txt es "peligroso" en manos inadecuadas, igual que el n
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Javier Lorente

Gracias Lino! Para "ocultar" errores en plan de andar por casa tiro de robots. Por otro lado, estamos ante una genial actualización que
Post: Nuevo Google Search Console ¿qué información nos ofrecerá?

Lino Uruñuela

Hola Ana! Si esas urls no tenían tráfico orgánico, o este es despreciable yo usaría un 410. Si no hay más enlaces hacia estas urls p
Post: Ofuscando enlaces para mejorar Link Juice

Ana

Muy interesante el artículo, pero tengo una cuestión. ¿Qué se haría con todos esos enlaces que desaparecen si ya han sido indexados por
Post: Ofuscando enlaces para mejorar Link Juice

Lino Uruñuela

@Javier Lorente mañana te contesto poco a poco, de momento la sugerencia de "Pon algo para enterarnos de las respuestas de los comentarios
Post: Cuando restringes por robots.txt puedes aumentar el número de URLs indexadas

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.