Evitar Contenido Duplicado

Muchos webmaster tienen la práctica de copiar contenido editado por otras páginas web y pegarlo directamente en la suya tal cual. Éste es un método para hacer una web sin esforzarse demasiado y poder obtener beneficios cuando haya copiado lo suficiente.

En principio desde un punto de vista informativo no está mal ya que es otra fuente más dando una noticia a la que alguien quiere acceder. El problema viene cuando copias información con claro ánimo de lucro y gana más el que copia que el que da la noticia.

Está claro que los buscadores cada vez saben detectar mejor que páginas son la fuente de la noticia y cuándo algún texto está copiado de otra página web, posicionando la primera en sus resultados. Pero hay muchos casos en lo que esto no es así y creadores de contenidos originales se ven desplazados por otras páginas que han copiado su noticia, artículo, etc.

Para eliminar este problema desde aquí me gustaría dar alguna idea a los buscadores como puede ser un sistema de autentificación de los contenidos. Este sistema podría ser un mecanismo de comunicación entre el webmaster y los buscadores ya sea en los sitemaps, haciendo un ping o simplemente pasárselo por medio de la URL, voy a poner un ejemplo:

Tengo una nueva noticia sobre los buscadores, y ya la redacté y se encuentra en la dirección
mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php
Pues podría ser algo como poner en la URL
google.com/?urlaut=https://www.mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php

Los buscadores en esa dirección deberían guardar la fecha y así ante la duda de que página mostrar en los resultados cuando se ha identificado contenido duplicado sabrían cuando fueron redactadas ambas noticias y cual es copia de cual.

Creo que esto sería un buen método para identificar el contenido duplicado y a ver si alguien es capaz de hacer que nos escuchen para que tomen medidas.

¿Se os ocurren más maneras de hacerlo?

 


karramarro (@)hace Hace más de 15 años y 214 días

A mi me pasa mucho.
Tengo un blog sobre recursos online, que nunca ha llegado a funcionar bien en google, y me desespera ver gente que copia y pega mis artículos, aparece en google mucho antes que yo.

En cuanto al tema de la fecha de los posts, creo que se debería hacer mediante los sitemaps de google. En los dos blogs que tengo, según escribo el post, lo primero que hago es reconstruir el sitemap y hacer un link a google sitemaps. Esta información debería servir a google para saber rápidamente qué contenido es el original y cual el copiado.

saludos!

errioxa (@)hace Hace más de 15 años y 213 días

Ese puede ser el único método hoy en día, pero si cada vez que pubicas algo tienes que crear sitemaps y luego actualizarlo el tiempo que tardes tabién dependerá de la velocidad de Google cuando pase por tu web. De la otra manera sólo sería informarle mediante la URL y ya estaría, Google apuntaría la página, fecha y texto para cuando tenga dudas de qué contenido es el original.

Alstoin (@)hace Hace más de 15 años y 173 días

es muy buena idea, ya me ha pasado ver como me copian toda mi web y la mia desaparece del mapa.
algo deberian de hacer al respecto

Miguel Latorre (@)hace Hace más de 9 años y 111 días

Hola
una vez crees la noticia compártelo en tantas redes sociales como puedas a si como también en marcadores e indexa la pagina con la herramienta de webmaster de google, google sabrá que es tuyo y eres el autor, aparte de todo esto te dará posicionamiento y visitas
saludos



Lea otros artículos de Sin clasificar

Últimos posts

Últimos comentarios


Elvira Griffis
Hello
Post: Cambio de trabajo

Ray Strong
Hello!
Post: Cambio de trabajo

Lenore Gagner
Hi!
Post: Cambio de trabajo

Lane Oglesby
Where are you?
Post: Cambio de trabajo

Max Loper
Hello!
Post: Cambio de trabajo

Odette Clement
Where are you?
Post: Cambio de trabajo

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console