Evita Contenido Duplicado

Se ve que Google no deja de cuidar su buscador, y es normal ya que como dice Dirson es la joya de la corona Google.
Ayer os hablábamos del nuevo formulario puesto por Google en la zona de sitemaps para que los webmasters podamos denunciar los links que se venden o se compran para alterar los resultados del buscador, hoy, nos podemos leer cómo Google hace por resolver una preocupación de muchos webmasters, el contenido duplicado.

Hoy Google ha publicado un nuevo artículo en su blog sobre el contenido duplicado, las maneras de evitarlo y las soluciones que está escuchando desde diversas fuentes. Por lo que leo y lo que entiendo, está dando algunos consejos a los webmasters para que no tengan contenido duplicado creados por ellos mismos, pero no llega a tener una solución para evitar el contenido duplicado por otros webmasters que se aprovechan de otras páginas, copiando y pegando.

Os resumo un poco los puntos del artículo, estos son las aclaraciones de Google sobre el contenido duplicado:
  • Google quiere servir resultados únicos y hace un buen trabajo al escoger una versión de su contenido, cuando hay más de uno igual en un mismo dominio. Si usted no quiere preocuparse de revisar la duplicación sobre su sitio, Google lo hará por ti.

  • El contenido duplicado no hace que su sitio sea castigado. Si páginas dobles son descubiertas, una versión será mostrada en los resultados. Dice que no es lo más óptimo para el posicionamiento ya que lo que ocurre es que el PageRank se dispersa en lugar de concentrarse en una sola página

  • El contenido duplicado no hace que su sitio sea colocado en el índice suplemental. La duplicación sí puede influir indirectamente en esto sin embargo, si se vincula a sus páginas son hendidos entre varias versiones, causando PageRank más abajo por página.
Y también nos dice cómo evitar este contenido duplicado:
  • Especificando la versión preferida de una URL en el archivo Sitemap del sitio. Una cosa de la que hablamos era la posibilidad de especificar la versión preferida de un URL en un archivo Sitemap, con la sugerencia que si encontráramos múltiple URLS que indica el mismo contenido.

  • Usando el robots.txt. Proporcionando un método para indicar los parámetros que deberían ser quitados de un URL dinámica  desde ael archivo robots.txt. Por ejemplo, si un URL contiene sesiones IDs, el administrador del sitio web podría indicar la variable para la sesión ID en el archivo robots.txt para que no fuesen indexadas las páginas con este parámetro.

  • Proporcionando un modo de autenticar la propiedad de contenido por ejemplo usar la página con la fecha más temprana, pero las fechas de creación son no siempre fiables. Alguien también aconsejó permitir a dueños de sitio registrar el contenido, esto se lo propuse yo a Mutt Cutts, en los comentarios de uno de sus posts y fue borrado al cabo de unos días pero parece que lo escucharon, también lo describí aquí. La pega que le ponen a esto es que muchos no sabrían que habría que hacer esto y otros webmasters se podrían aprovechar de ellos, autentificando los contenidos antes que los originales. Yo creo que esto se podría dar, pero sólo al comienza de este sistema, luego todos lo haríamos cada vez que escribiésemos algo.
    Según Google actualmente confían en varios factores como la autoridad del sitio y el número de links que vinculan a la página. Si el contenido es sindicado, no ssugieren que usted pregunte los sitios que usan su contenido para bloquear su versión con un archivo robots.txt .

  • Hacer un duplicate content report, o sea que pusieran un formulario para denunciar el contenido duplicado por los propietarios de ese contenido.

  • Hablar con los creadores de software para la creación de blogs, para llegar a un acuerdo de cómo identificar este contenido, por ejemplo en WordPress.
También intentan aclararnos unas cuantas cuestiones:
  • ¿Si pongo muchos links con rel="nofollow" podría ser penalizado?
    Según Google, no. Pero dice que no es la mejor manera de hacerlo y nos dice de nuevo que la mejor manera es usar el robots.txt para evitar esa indexación, haciendo por ejemplo una página intermedia en nuestro dominio que esté "capada" en el robots.txt, así el buscador nunca llegará a esas pñaginas y por lo tanto tampoco a la de destino.

  • ¿Siguen los motores de búsqueda la alianza Sitemaps?
    Supuestamente dicen que sí, y que han hecho avances como por ejemplo poder poner en el archivo robots.txt la localización de nuestro sitemaps.

  • ¿Cómohacer en páginas que muestran imágenes o gráficos sin texto que identifiquen el contenido?
    Pues como era de preveer, nos insta a crear en estás páginas, que los metas títle y description sean únicos, al igual que el alt de las imágenes.

  • Tengo sindicado mi contenido a muchos afiliados y ahora algunos de aquellos sitios están para este contenido más bien que mi sitio. ¿Qué puedo hacer?
    No dice que si usted libremente ha distribuido su contenido, usted debe tener que realzar y ampliar el contenido sobre su sitio para hacerlo único.

  • Como un investigador, quiero ver duplicados en resultados de búsqueda. ¿Puede usted añadir esto como una opción?
    Y nos dicen, hemos encontrado que la mayor parte de investigadores prefieren no tener resultados dobles. Un miembro de audiencia en particular comentó que ella no quiere conseguir la información de un solo sitio y le gustarían otras opciones, pero para este caso, otros sitios probablemente no tengan la información idéntica y por lo tanto se mostrarán en los resultados. Tenga en cuenta que usted puede añadir el parámetro "*filter=0" al final de una búsqueda Google de web URL para ver los resultados adicionales que podrían ser similares.
Está muy bien que Google se moje un poco en este tema, pero creo que el problema principal no está subsanado, ya que realmente nuestro problema con el contenido duplicado no suele ser el contenido duplicado de nuestras propias páginas sino que otros nos copian el contenido y son ellos los que salen en los resultados de Google con nuestras redacciones. Para ello sigo pensando que una solución podría ser el autentificar los contenidos directamente contra el buscador cada vez que creemos algún artíuculo como explique hace un tiempo.

 


angelhace Hace más de 12 años y 8 días

A los puntos que indicas yo añadiria algunos más y que afectan a aquellos que mantienen sitios tipo portal con canales temáticos o verticales.

Resulta que una misma noticia o reportaje puede ser publicada en uno o más canales debido a la existencia de un publico determinado que acude solamente a ese canal y no al conjunto del site.

¿Como solucionamos ese problema?

Errioxahace Hace más de 12 años y 8 días

Lo primero en cada sitio que publiques la noticia que lleve un título, descripción y keys distintas.

Lo segundo si se puede, que el html de la web no sean iguales.

Lo tercero modificar algunas cosas en el código para que no sea completamente igual, por ejemplo en vez de separar párrafos con un tag "p" lo hacemos con tr, haciendo una nueva fila por parráfo, cosas así. Esto claro, si es que sea todo automático si no pues cambiar las palabras a mano para contar lo mismo :(

Pablohace Hace más de 11 años y 91 días

Gracias por tu aclaración sobre el contenido duplicado, pero creo que Google no entrega todas las herramientas para solucionar la distintas aristas de este tema.
Actualmenten estoy trabajando para una empresa presente en varios países y que obviamente posee contenido duplicado bajo el mismo dominio.
Podrías darme algunas directrices sobre cómo resolver el posicionamiento en estos casos. Al parecer, lo mejos es crear subdominos que incluyan los TLD de los países o dominios, aunque la duplicación de contendos obviamente no queda resuelta.
SAludos

errioxahace Hace más de 11 años y 90 días

@pablo supongo que será en distintos idiomas ¿o es en el mismo idioma horientado a distintos países?



Lo mejor sería un dominio tld para cada país pero esto requiere más esfuerzo, se pueden usar carpetas también

Rayhace Hace más de 9 años y 261 días

Hola, me gusto lo que lei, anque no puedo escribe muy bien en español, pero queria preguntar si savias a donde puedo encuentrar a alguien que escriba informacion en español(Content writing) para una pagina que tengo, Gracias.

-Ray

Jordihace Hace más de 8 años y 282 días

Como puedo notificar a google una empresa que tiene dos tiendas con dos dominios diferentes pero con el mismo contenido,misma direccion, mismo telefono, etc etc etc, ya que esto es pura codicia, porque teniendo una super bien posicionada, con la otra lo unico que hara es fastidiar a los demas, esto es ni comer ni dejar comer, creo que se deberian de parar estas situaciones, salvo que con la segunda tienda se lo curre con contenidos que no sean duplicados asi al menos tendra merito el posicionar la segunda tienda, de lo contrario todo el tema de posicionamento google toda la filosofia, criterios etc etc se van a desvanecer.
Saludos
Jordi

David Herrerahace Hace más de 8 años y 2 días

Muy buenas... No hace mucho que sigo esta web... Pero me parece muy interesante... En concreto, sobre este post, me gustaría saber si podemos usar las meta "Title, Description, Alt..." como keywords, o por el contrario esto se tacharía de spam y sería penalizado...

Por ejemplo, si la web es de cereales... En keywords incluyo "cereales, nombre de la marca, ...,", y en una imagen incluyo un title="cereales, nombre de la marca, ...,"

Gracias, espero haberme explicado bien.

Errioxahace Hace más de 8 años y 1 días

@David yo lo veo bien, eso si, si tienes 10 imágenes no le pongas a todas el mismo alt, variálo un poco para que sean únicos ;)

Carolinahace Hace más de 7 años y 17 días

Hola! estoy desarrollando una plataforma para portales .travel, tenemos alrededor de 800. lo que hicimos fue una herramienta que permite configurar que contenidos carga cada portal, y cuando un entra a uno de los portales ej. a.travel, b.travel el portal se genera segun los contenidos configurados. teniendo esto en cuenta, van a haber varios portales iguales o muy similares, esto me podria penzalizar en google?

cachohace Hace más de 6 años y 182 días

esmerate mas en los articulos que traduces al castellano

tonihace Hace más de 5 años y 96 días

Hola, tengo una gran duda referente a este tema.

¿Como hacen entonces los blog que postean peliculas para descarga, si la descripcion de la pelicula es la misma, los textos y titulos? y sin embargo uno encuentra blogs de peliculas encabezando los primeros lugares en los resultados de busqueda.

¿Por qué ellos no nos penalizados? ¿qué tiene en cuenta google para ubicarlos en los primeros resultados de busqueda?



Lea otros artículos de Otras noticias sobre Google

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.

Últimos posts

Últimos comentarios


Javier

Buenas Lino, ¿Alguna novedad sobre cómo considera Google los links en PDFs? Se me ocurre que, siguiendo con este experimento, se po
Post: Link building con PDF

Francisco

Flaco. Por lo general, no dejo comentarios pero, en tu caso, voy a hacer una excepción pues, sencillamente... ¡sos un genio!, Gracias.
Post: Cómo cargar css y js y no bloquear la carga de contenido

Juan Francisco Gancia

Excelente artículo, gracias! Te encuentro de casualidad por un post de hace 10 años.
Post: Diferencias entre url indexada y url accesible

Lino Urnuela

@Emirodgar gracias! Pero parece que en tema de imágenes las pilla lo hagas cómo lo hagas parece, eso sí, siempre que no tengas un fall
Post: Indexar imágenes en Google usando Lazy Load

Emirodgar

Muy interesante el experimento. Yo estaba probando con los nuevos formatos webp y pero al final, como eran pocas imágenes y usaba Masonry,
Post: Indexar imágenes en Google usando Lazy Load

Lino Uruñuela

Completamente de acuerdo :) Pero en este experimento solo quería comprobar el método usado para hacer lazy load, en este caso con xmlht
Post: Indexar imágenes en Google usando Lazy Load

Francisco Morales

Lino muy interesante las distintas formas de cargar la imagen. Pero no crees que lo realmente interesante de aplicar Lazy Loading es cargar
Post: Indexar imágenes en Google usando Lazy Load

javier

Buenas , esto del onclik ha cambiado actuamente en algunas web que tengo las lee y sigue enlaces
Post: ¿Cómo ejecuta, interpreta e indexa Google el contenido cargado mediante javascript?

David Girona

Antes de Nada muchas gracias por la aportación. Estoy probando de poner en marcha este procedimiento y me surgen un par de dudas. En
Post: Cómo añadir el valor del meta Robots a Google Analytics via Google Tag Manager

Javier Espinoza

Gracias por la informacion!! Este tipo de blogs me parecen muy importantes, esto lo estudio en la universidad. gracias por la informacion. h
Post: Atacados por los .cn .cz .pl