Evitar Contenido Duplicado

Muchos webmaster tienen la práctica de copiar contenido editado por otras páginas web y pegarlo directamente en la suya tal cual. Éste es un método para hacer una web sin esforzarse demasiado y poder obtener beneficios cuando haya copiado lo suficiente.

En principio desde un punto de vista informativo no está mal ya que es otra fuente más dando una noticia a la que alguien quiere acceder. El problema viene cuando copias información con claro ánimo de lucro y gana más el que copia que el que da la noticia.

Está claro que los buscadores cada vez saben detectar mejor que páginas son la fuente de la noticia y cuándo algún texto está copiado de otra página web, posicionando la primera en sus resultados. Pero hay muchos casos en lo que esto no es así y creadores de contenidos originales se ven desplazados por otras páginas que han copiado su noticia, artículo, etc.

Para eliminar este problema desde aquí me gustaría dar alguna idea a los buscadores como puede ser un sistema de autentificación de los contenidos. Este sistema podría ser un mecanismo de comunicación entre el webmaster y los buscadores ya sea en los sitemaps, haciendo un ping o simplemente pasárselo por medio de la URL, voy a poner un ejemplo:

Tengo una nueva noticia sobre los buscadores, y ya la redacté y se encuentra en la dirección
mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php
Pues podría ser algo como poner en la URL
google.com/?urlaut=https://www.mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php

Los buscadores en esa dirección deberían guardar la fecha y así ante la duda de que página mostrar en los resultados cuando se ha identificado contenido duplicado sabrían cuando fueron redactadas ambas noticias y cual es copia de cual.

Creo que esto sería un buen método para identificar el contenido duplicado y a ver si alguien es capaz de hacer que nos escuchen para que tomen medidas.

¿Se os ocurren más maneras de hacerlo?

 


karramarro (@)hace Hace más de 16 años y 355 días

A mi me pasa mucho.
Tengo un blog sobre recursos online, que nunca ha llegado a funcionar bien en google, y me desespera ver gente que copia y pega mis artículos, aparece en google mucho antes que yo.

En cuanto al tema de la fecha de los posts, creo que se debería hacer mediante los sitemaps de google. En los dos blogs que tengo, según escribo el post, lo primero que hago es reconstruir el sitemap y hacer un link a google sitemaps. Esta información debería servir a google para saber rápidamente qué contenido es el original y cual el copiado.

saludos!

errioxa (@)hace Hace más de 16 años y 354 días

Ese puede ser el único método hoy en día, pero si cada vez que pubicas algo tienes que crear sitemaps y luego actualizarlo el tiempo que tardes tabién dependerá de la velocidad de Google cuando pase por tu web. De la otra manera sólo sería informarle mediante la URL y ya estaría, Google apuntaría la página, fecha y texto para cuando tenga dudas de qué contenido es el original.

Alstoin (@)hace Hace más de 16 años y 314 días

es muy buena idea, ya me ha pasado ver como me copian toda mi web y la mia desaparece del mapa.
algo deberian de hacer al respecto

Miguel Latorre (@)hace Hace más de 10 años y 252 días

Hola
una vez crees la noticia compártelo en tantas redes sociales como puedas a si como también en marcadores e indexa la pagina con la herramienta de webmaster de google, google sabrá que es tuyo y eres el autor, aparte de todo esto te dará posicionamiento y visitas
saludos



Lea otros artículos de Sin clasificar

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II