Evita Contenido Duplicado

Se ve que Google no deja de cuidar su buscador, y es normal ya que como dice Dirson es la joya de la corona Google.
Ayer os hablábamos del nuevo formulario puesto por Google en la zona de sitemaps para que los webmasters podamos denunciar los links que se venden o se compran para alterar los resultados del buscador, hoy, nos podemos leer cómo Google hace por resolver una preocupación de muchos webmasters, el contenido duplicado.

Hoy Google ha publicado un nuevo artículo en su blog sobre el contenido duplicado, las maneras de evitarlo y las soluciones que está escuchando desde diversas fuentes. Por lo que leo y lo que entiendo, está dando algunos consejos a los webmasters para que no tengan contenido duplicado creados por ellos mismos, pero no llega a tener una solución para evitar el contenido duplicado por otros webmasters que se aprovechan de otras páginas, copiando y pegando.

Os resumo un poco los puntos del artículo, estos son las aclaraciones de Google sobre el contenido duplicado:
  • Google quiere servir resultados únicos y hace un buen trabajo al escoger una versión de su contenido, cuando hay más de uno igual en un mismo dominio. Si usted no quiere preocuparse de revisar la duplicación sobre su sitio, Google lo hará por ti.

  • El contenido duplicado no hace que su sitio sea castigado. Si páginas dobles son descubiertas, una versión será mostrada en los resultados. Dice que no es lo más óptimo para el posicionamiento ya que lo que ocurre es que el PageRank se dispersa en lugar de concentrarse en una sola página

  • El contenido duplicado no hace que su sitio sea colocado en el índice suplemental. La duplicación sí puede influir indirectamente en esto sin embargo, si se vincula a sus páginas son hendidos entre varias versiones, causando PageRank más abajo por página.
Y también nos dice cómo evitar este contenido duplicado:
  • Especificando la versión preferida de una URL en el archivo Sitemap del sitio. Una cosa de la que hablamos era la posibilidad de especificar la versión preferida de un URL en un archivo Sitemap, con la sugerencia que si encontráramos múltiple URLS que indica el mismo contenido.

  • Usando el robots.txt. Proporcionando un método para indicar los parámetros que deberían ser quitados de un URL dinámica  desde ael archivo robots.txt. Por ejemplo, si un URL contiene sesiones IDs, el administrador del sitio web podría indicar la variable para la sesión ID en el archivo robots.txt para que no fuesen indexadas las páginas con este parámetro.

  • Proporcionando un modo de autenticar la propiedad de contenido por ejemplo usar la página con la fecha más temprana, pero las fechas de creación son no siempre fiables. Alguien también aconsejó permitir a dueños de sitio registrar el contenido, esto se lo propuse yo a Mutt Cutts, en los comentarios de uno de sus posts y fue borrado al cabo de unos días pero parece que lo escucharon, también lo describí aquí. La pega que le ponen a esto es que muchos no sabrían que habría que hacer esto y otros webmasters se podrían aprovechar de ellos, autentificando los contenidos antes que los originales. Yo creo que esto se podría dar, pero sólo al comienza de este sistema, luego todos lo haríamos cada vez que escribiésemos algo.
    Según Google actualmente confían en varios factores como la autoridad del sitio y el número de links que vinculan a la página. Si el contenido es sindicado, no ssugieren que usted pregunte los sitios que usan su contenido para bloquear su versión con un archivo robots.txt .

  • Hacer un duplicate content report, o sea que pusieran un formulario para denunciar el contenido duplicado por los propietarios de ese contenido.

  • Hablar con los creadores de software para la creación de blogs, para llegar a un acuerdo de cómo identificar este contenido, por ejemplo en WordPress.
También intentan aclararnos unas cuantas cuestiones:
  • ¿Si pongo muchos links con rel="nofollow" podría ser penalizado?
    Según Google, no. Pero dice que no es la mejor manera de hacerlo y nos dice de nuevo que la mejor manera es usar el robots.txt para evitar esa indexación, haciendo por ejemplo una página intermedia en nuestro dominio que esté "capada" en el robots.txt, así el buscador nunca llegará a esas pñaginas y por lo tanto tampoco a la de destino.

  • ¿Siguen los motores de búsqueda la alianza Sitemaps?
    Supuestamente dicen que sí, y que han hecho avances como por ejemplo poder poner en el archivo robots.txt la localización de nuestro sitemaps.

  • ¿Cómohacer en páginas que muestran imágenes o gráficos sin texto que identifiquen el contenido?
    Pues como era de preveer, nos insta a crear en estás páginas, que los metas títle y description sean únicos, al igual que el alt de las imágenes.

  • Tengo sindicado mi contenido a muchos afiliados y ahora algunos de aquellos sitios están para este contenido más bien que mi sitio. ¿Qué puedo hacer?
    No dice que si usted libremente ha distribuido su contenido, usted debe tener que realzar y ampliar el contenido sobre su sitio para hacerlo único.

  • Como un investigador, quiero ver duplicados en resultados de búsqueda. ¿Puede usted añadir esto como una opción?
    Y nos dicen, hemos encontrado que la mayor parte de investigadores prefieren no tener resultados dobles. Un miembro de audiencia en particular comentó que ella no quiere conseguir la información de un solo sitio y le gustarían otras opciones, pero para este caso, otros sitios probablemente no tengan la información idéntica y por lo tanto se mostrarán en los resultados. Tenga en cuenta que usted puede añadir el parámetro "*filter=0" al final de una búsqueda Google de web URL para ver los resultados adicionales que podrían ser similares.
Está muy bien que Google se moje un poco en este tema, pero creo que el problema principal no está subsanado, ya que realmente nuestro problema con el contenido duplicado no suele ser el contenido duplicado de nuestras propias páginas sino que otros nos copian el contenido y son ellos los que salen en los resultados de Google con nuestras redacciones. Para ello sigo pensando que una solución podría ser el autentificar los contenidos directamente contra el buscador cada vez que creemos algún artíuculo como explique hace un tiempo.

 


angel (@)hace Hace más de 16 años y 256 días

A los puntos que indicas yo añadiria algunos más y que afectan a aquellos que mantienen sitios tipo portal con canales temáticos o verticales.

Resulta que una misma noticia o reportaje puede ser publicada en uno o más canales debido a la existencia de un publico determinado que acude solamente a ese canal y no al conjunto del site.

¿Como solucionamos ese problema?

Errioxa (@)hace Hace más de 16 años y 256 días

Lo primero en cada sitio que publiques la noticia que lleve un título, descripción y keys distintas.

Lo segundo si se puede, que el html de la web no sean iguales.

Lo tercero modificar algunas cosas en el código para que no sea completamente igual, por ejemplo en vez de separar párrafos con un tag "p" lo hacemos con tr, haciendo una nueva fila por parráfo, cosas así. Esto claro, si es que sea todo automático si no pues cambiar las palabras a mano para contar lo mismo :(

Pablo (@)hace Hace más de 15 años y 339 días

Gracias por tu aclaración sobre el contenido duplicado, pero creo que Google no entrega todas las herramientas para solucionar la distintas aristas de este tema.
Actualmenten estoy trabajando para una empresa presente en varios países y que obviamente posee contenido duplicado bajo el mismo dominio.
Podrías darme algunas directrices sobre cómo resolver el posicionamiento en estos casos. Al parecer, lo mejos es crear subdominos que incluyan los TLD de los países o dominios, aunque la duplicación de contendos obviamente no queda resuelta.
SAludos

errioxa (@)hace Hace más de 15 años y 338 días

@pablo supongo que será en distintos idiomas ¿o es en el mismo idioma horientado a distintos países?



Lo mejor sería un dominio tld para cada país pero esto requiere más esfuerzo, se pueden usar carpetas también

Ray (@)hace Hace más de 14 años y 144 días

Hola, me gusto lo que lei, anque no puedo escribe muy bien en español, pero queria preguntar si savias a donde puedo encuentrar a alguien que escriba informacion en español(Content writing) para una pagina que tengo, Gracias.

-Ray

Jordi (@)hace Hace más de 13 años y 165 días

Como puedo notificar a google una empresa que tiene dos tiendas con dos dominios diferentes pero con el mismo contenido,misma direccion, mismo telefono, etc etc etc, ya que esto es pura codicia, porque teniendo una super bien posicionada, con la otra lo unico que hara es fastidiar a los demas, esto es ni comer ni dejar comer, creo que se deberian de parar estas situaciones, salvo que con la segunda tienda se lo curre con contenidos que no sean duplicados asi al menos tendra merito el posicionar la segunda tienda, de lo contrario todo el tema de posicionamento google toda la filosofia, criterios etc etc se van a desvanecer.
Saludos
Jordi

David Herrera (@)hace Hace más de 12 años y 250 días

Muy buenas... No hace mucho que sigo esta web... Pero me parece muy interesante... En concreto, sobre este post, me gustaría saber si podemos usar las meta "Title, Description, Alt..." como keywords, o por el contrario esto se tacharía de spam y sería penalizado...

Por ejemplo, si la web es de cereales... En keywords incluyo "cereales, nombre de la marca, ...,", y en una imagen incluyo un title="cereales, nombre de la marca, ...,"

Gracias, espero haberme explicado bien.

Errioxa (@)hace Hace más de 12 años y 249 días

@David yo lo veo bien, eso si, si tienes 10 imágenes no le pongas a todas el mismo alt, variálo un poco para que sean únicos ;)

Carolina (@)hace Hace más de 11 años y 265 días

Hola! estoy desarrollando una plataforma para portales .travel, tenemos alrededor de 800. lo que hicimos fue una herramienta que permite configurar que contenidos carga cada portal, y cuando un entra a uno de los portales ej. a.travel, b.travel el portal se genera segun los contenidos configurados. teniendo esto en cuenta, van a haber varios portales iguales o muy similares, esto me podria penzalizar en google?

cacho (@)hace Hace más de 11 años y 65 días

esmerate mas en los articulos que traduces al castellano

toni (@)hace Hace más de 9 años y 344 días

Hola, tengo una gran duda referente a este tema.

¿Como hacen entonces los blog que postean peliculas para descarga, si la descripcion de la pelicula es la misma, los textos y titulos? y sin embargo uno encuentra blogs de peliculas encabezando los primeros lugares en los resultados de busqueda.

¿Por qué ellos no nos penalizados? ¿qué tiene en cuenta google para ubicarlos en los primeros resultados de busqueda?



Lea otros artículos de Otras noticias sobre Google

Últimos posts

Últimos comentarios


Nichol
An Easy-To-Follow Guide To Accidents Attorney Near Me accident attorney washington state
Post: Denunciar la venta de link

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console