Evitar Contenido Duplicado

Muchos webmaster tienen la práctica de copiar contenido editado por otras páginas web y pegarlo directamente en la suya tal cual. Éste es un método para hacer una web sin esforzarse demasiado y poder obtener beneficios cuando haya copiado lo suficiente.

En principio desde un punto de vista informativo no está mal ya que es otra fuente más dando una noticia a la que alguien quiere acceder. El problema viene cuando copias información con claro ánimo de lucro y gana más el que copia que el que da la noticia.

Está claro que los buscadores cada vez saben detectar mejor que páginas son la fuente de la noticia y cuándo algún texto está copiado de otra página web, posicionando la primera en sus resultados. Pero hay muchos casos en lo que esto no es así y creadores de contenidos originales se ven desplazados por otras páginas que han copiado su noticia, artículo, etc.

Para eliminar este problema desde aquí me gustaría dar alguna idea a los buscadores como puede ser un sistema de autentificación de los contenidos. Este sistema podría ser un mecanismo de comunicación entre el webmaster y los buscadores ya sea en los sitemaps, haciendo un ping o simplemente pasárselo por medio de la URL, voy a poner un ejemplo:

Tengo una nueva noticia sobre los buscadores, y ya la redacté y se encuentra en la dirección
mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php
Pues podría ser algo como poner en la URL
google.com/?urlaut=https://www.mecagoenlos.com/Posicionamiento/elcontenido-esel-rey.php

Los buscadores en esa dirección deberían guardar la fecha y así ante la duda de que página mostrar en los resultados cuando se ha identificado contenido duplicado sabrían cuando fueron redactadas ambas noticias y cual es copia de cual.

Creo que esto sería un buen método para identificar el contenido duplicado y a ver si alguien es capaz de hacer que nos escuchen para que tomen medidas.

¿Se os ocurren más maneras de hacerlo?

 


karramarrohace Hace más de 13 años y 67 días

A mi me pasa mucho.
Tengo un blog sobre recursos online, que nunca ha llegado a funcionar bien en google, y me desespera ver gente que copia y pega mis artículos, aparece en google mucho antes que yo.

En cuanto al tema de la fecha de los posts, creo que se debería hacer mediante los sitemaps de google. En los dos blogs que tengo, según escribo el post, lo primero que hago es reconstruir el sitemap y hacer un link a google sitemaps. Esta información debería servir a google para saber rápidamente qué contenido es el original y cual el copiado.

saludos!

errioxahace Hace más de 13 años y 66 días

Ese puede ser el único método hoy en día, pero si cada vez que pubicas algo tienes que crear sitemaps y luego actualizarlo el tiempo que tardes tabién dependerá de la velocidad de Google cuando pase por tu web. De la otra manera sólo sería informarle mediante la URL y ya estaría, Google apuntaría la página, fecha y texto para cuando tenga dudas de qué contenido es el original.

Alstoinhace Hace más de 13 años y 26 días

es muy buena idea, ya me ha pasado ver como me copian toda mi web y la mia desaparece del mapa.
algo deberian de hacer al respecto

Miguel Latorrehace Hace más de 6 años y 329 días

Hola
una vez crees la noticia compártelo en tantas redes sociales como puedas a si como también en marcadores e indexa la pagina con la herramienta de webmaster de google, google sabrá que es tuyo y eres el autor, aparte de todo esto te dará posicionamiento y visitas
saludos



Lea otros artículos de Sin clasificar

Últimos posts

Últimos comentarios


Lino

Hola @anna , creo que Fede Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

anna

donde se pone el php i jv para wordpress?
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Anna


Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

Lino

@India eso es debido a que si no solicitas la dimensión de página siempre hace los cálculos por propiedad, que solo tiene en cuenta el pr
Post: Datos incoherentes y cálculo de la posición media en Search Console

India

Buen día, muy buenas explicaciones! Justo estoy viendo las métricas de una consulta exacta. Cuando miro las páginas y sumo el total de cl
Post: Datos incoherentes y cálculo de la posición media en Search Console

FunnelPunk

@Lino probando mi script del futuro
Post: Errores críticos originados por el robots.txt

Lino

@Xavier que Google no pueda acceder no significa que no pueda indexarla. Lo que no hará es entrar, y por lo tanto, no podrá ver el conteni
Post: Errores críticos originados por el robots.txt

Xavier

Lino estoy haciendo un experimento y tengo una duda, si en una web donde puedes crearte un perfil de usuario capan mediante Robots.txt, pero
Post: Errores críticos originados por el robots.txt

Norek Beat

Realmente.. de verdad buen articulo, gracias. Aparte de la historia del principio,he comprendido por fin la posición media. No es ni la pri
Post: Datos incoherentes y cálculo de la posición media en Search Console

Lino

@seozamp sí se puede, mira por ejemplo el blog de @useo, seguro que tiene unos cua
Post: Informes y gráficas usando la API de Google Search Console