Evitar Contenido Duplicado

Muchos webmaster tienen la práctica de copiar contenido editado por otras páginas web y pegarlo directamente en la suya tal cual. Éste es un método para hacer una web sin esforzarse demasiado y poder obtener beneficios cuando haya copiado lo suficiente.

En principio desde un punto de vista informativo no está mal ya que es otra fuente más dando una noticia a la que alguien quiere acceder. El problema viene cuando copias información con claro ánimo de lucro y gana más el que copia que el que da la noticia.

Está claro que los buscadores cada vez saben detectar mejor que páginas son la fuente de la noticia y cuándo algún texto está copiado de otra página web, posicionando la primera en sus resultados. Pero hay muchos casos en lo que esto no es así y creadores de contenidos originales se ven desplazados por otras páginas que han copiado su noticia, artículo, etc.

Para eliminar este problema desde aquí me gustaría dar alguna idea a los buscadores como puede ser un sistema de autentificación de los contenidos. Este sistema podría ser un mecanismo de comunicación entre el webmaster y los buscadores ya sea en los sitemaps, haciendo un ping o simplemente pasárselo por medio de la URL, voy a poner un ejemplo:

Tengo una nueva noticia sobre los buscadores, y ya la redacté y se encuentra en la dirección
mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php
Pues podría ser algo como poner en la URL
google.com/?urlaut=https://www.mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php

Los buscadores en esa dirección deberían guardar la fecha y así ante la duda de que página mostrar en los resultados cuando se ha identificado contenido duplicado sabrían cuando fueron redactadas ambas noticias y cual es copia de cual.

Creo que esto sería un buen método para identificar el contenido duplicado y a ver si alguien es capaz de hacer que nos escuchen para que tomen medidas.

¿Se os ocurren más maneras de hacerlo?

 


karramarrohace Hace más de 13 años y 141 días

A mi me pasa mucho.
Tengo un blog sobre recursos online, que nunca ha llegado a funcionar bien en google, y me desespera ver gente que copia y pega mis artículos, aparece en google mucho antes que yo.

En cuanto al tema de la fecha de los posts, creo que se debería hacer mediante los sitemaps de google. En los dos blogs que tengo, según escribo el post, lo primero que hago es reconstruir el sitemap y hacer un link a google sitemaps. Esta información debería servir a google para saber rápidamente qué contenido es el original y cual el copiado.

saludos!

errioxahace Hace más de 13 años y 140 días

Ese puede ser el único método hoy en día, pero si cada vez que pubicas algo tienes que crear sitemaps y luego actualizarlo el tiempo que tardes tabién dependerá de la velocidad de Google cuando pase por tu web. De la otra manera sólo sería informarle mediante la URL y ya estaría, Google apuntaría la página, fecha y texto para cuando tenga dudas de qué contenido es el original.

Alstoinhace Hace más de 13 años y 100 días

es muy buena idea, ya me ha pasado ver como me copian toda mi web y la mia desaparece del mapa.
algo deberian de hacer al respecto

Miguel Latorrehace Hace más de 7 años y 38 días

Hola
una vez crees la noticia compártelo en tantas redes sociales como puedas a si como también en marcadores e indexa la pagina con la herramienta de webmaster de google, google sabrá que es tuyo y eres el autor, aparte de todo esto te dará posicionamiento y visitas
saludos



Lea otros artículos de Sin clasificar

Últimos posts

Últimos comentarios


Lino

@pacorapidohace así es, este experimento fue hace 10 años... y sí, he comprobado lo mismo que tú, hace falta estar la palabra en la url
Post: Links de imagen y texto, como los trata Google

pacorapido

Hola @Errioxa todo esto ha cambiado por que creo que tiene que ver que la pagina destino no tiene en su contenido las palabras inventadas,
Post: Links de imagen y texto, como los trata Google

FunnelPunk

Complementando la respuesta (y aprovechando para comprobar mi "avisador" por Twitter), por si Google no pudiese acceder al robots.txt y no s
Post: Errores críticos originados por el robots.txt

Lino

Hola Miriam, crea un robots.txt vacío para probar, también podrías añadir uno básico con las dos siguientes líneas User-agent: * Allo
Post: Errores críticos originados por el robots.txt

Miriam

Buenas Lino, No sé si me podrás echar una mano, estoy intentando comprobar porque Google no puede acceder a mi robots.txt, incluso he
Post: Errores críticos originados por el robots.txt

Luis

Hola amigo, me gustaría saber si mi web www.tuguiapara.com puede recibir backlinks, gracias.
Post: Links desde la misma Ip

Lino

Hola @anna , creo que Fede Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

anna

donde se pone el php i jv para wordpress?
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Anna


Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console