Cómo agrupar URLs para evitar contenido duplicado

Publicado el 4 de julio del 2022 por Lino Uruñuela

 

El otro día pariticipé en el evento SEO más familiar organizado por Sico de Andrés, el Seonthebeach, al que ya tenía ganas de volver tras dos años de espera a causa de la pandemia.

La ponencia trata sobre un caso real en el que debido a la indexación de búsquedas internas el site tenía cientos de millones de URLs y desde hace años venía cayendo update tras update.

Como veréis también utilizo la agrupación que vimos en los anteriores posts de este blog que trataban sobre agrupación / clusterizaciónde keywords, con la diferencia de que esta vez en vez de utilizar y agrupar keywords lo hago con URLs, para agrupar posible contenido duplicado y determinar qué URL redirige a qué URL en base a datos.

Además, también comparo la misma tarea pero con diferentes tecnologías, concretamente Python Vs SQL, y haciendo un poco de spoiler os adelanto que gana SQL por muchos órdenes de magnitud... ¿estará Python sobrevalorado?

 

Vídeo SEO sobre cómo resolver problemas de contenido duplicado agrupando URLs

Así que sin más dilación aquí os dejo el vídeo (link, tarda unos segundos en comenzar) que he subido a mi canal SEO, el cuál espero comenzar a nutrir de vídeos con ejemplos SEO, avanzados y reales.

 

Presentación SEO en el SOB22

También la presentación SEO que realicé este año en el Seonthebeach, espero que os sea útil :)

 




Lea otros artículos de Como evitar contenido duplicado

Últimos posts

Últimos comentarios


iara erthal
10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
Post: Representación visual de que es un Googol y Googolplex

cristina
que ha pasado?
Post: Valor del Alt en la imagenes

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II

Lino
@Fernando LEns es por si acaso falla en algo, pero viendo tu feedback y que no he dicho nada de esa hoja, la borraré :)
Post: Clustering de keywords SEO en Google Search Console - Parte II

Fernando LEns
Tremendo. Ya bien testado, funciona muy bien. Incluso con muchos datos tira bien y no tarda mucho . La pestaña de Cluster sin raiz sale v
Post: Clustering de keywords SEO en Google Search Console - Parte II

Quentin
Very good list, thx !
Post: Expresiones regulares para SEO (Google Search Console)