¿Cómo podría identificar Google las webs SEO?

Publicado el 20 de marzo del 2012

El otro día Matt Cutts comentó que en estas próximas semanas/meses habrá una actualización del algoritmo para identificar las páginas sobreoptimizadas en el aspecto SEO. Se ha comentado en varios sitios como WMT SER o SEL

Los puntos que comenta la verdad que no son nada nuevo keyword density, intercambio de links, etc

What about the people optimizing really hard and doing a lot of SEO. We don't normally pre-announce changes but there is something we are working in the last few months and hope to release it in the next months or few weeks. We are trying to level the playing field a bit. All those people doing, for lack of a better word, over optimization or overly SEO - versus those making great content and great site. We are trying to make GoogleBot smarter, make our relevance better, and we are also looking for those who abuse it, like too many keywords on a page, or exchange way too many links or go well beyond what you normally expect. We have several engineers on my team working on this right now.

Realmente no veo nada nuevo, esto lleva intentando identificarlo desde hace más de 6 años... y no sé si es que habrán dado con una fórmula más efectiva o simplemente está intentando meter miedo a la comunidad  SEO para que seamos menos agresivos en estas prácticas que realmente funcionan.

Personalmente creo que algo de verdad tienen sus palabras y pronto veremos una nueva actualización con sus respectivos bailes de posiciones. Pero en lo que discrepo es en los puntos que identifican una web SEO, recordar que Matt no nos dará pistas sobre cuales son estos puntos porque si lo hiciese la efectividad del cambio sería nula porque todos los corregiríamos.

Pensando un poco cómo Google podría identificar las webs SEO se me ocurren varias opciones, OJO!! ni mucho menos quiero decir que lo vaya a usar, sólo los que a mi como SEO se me ocurren como mejores para identificar una web SEO

  • Uso de muchos nofollow internos.
    Siempre he dicho que si se puede evitar el uso de nofollows mejor, ya que es una clara banderita para decir "Oye!! esta página tienen un SEO y hace PR sclupting mkediante nofollows"
    Aunque igual es demasiado común hoy en día y no sólo las webs basadas en SEO lo hagan. Y recordar que hay otras maneras de hacer PR Sculpting y otra ;) 

  • Meta noidex,follow
    Creo que esta meta es bastante SEO, y además se suelen usar en webs que usan mucho las búsquedas internas o listados artificiales creados para SEO.


  • Links en BlogRoll
    Creo que hoy en día no le será muy difícil identificar estos intercambios de links, lo raro es que no le haya metido ya el hachazo a estas páginas que se posicionan simplemente haciendo intercambio de links con diestro y  siniestro. Si te enalzan 100 webs todas ellas desde el blog roll para mi es una clara marca de que estás haciendo link building.
    Pero aquí hay algo que me chirría y es que si haces intercambios triangulares Google no sabrá si esos links los has intercambiado y si aplicase alguna penalización sólo porque te enlazaran muchos desde el blog roll ¿se podría tumbar a la competencia consiguiendo muchos enlaces a ella desde blog roll? por eso no me convence esto.

  • Muchísimos links en marcadores sociales
    ¿Es normal que una mierdilla de web (o una web normal) tenga el 95% de los links sólo desde marcadores sociales? ¿podrá identificar Google los marcadores sociales?
    Creo que las webs que no hacen link building conseguirán enlaces desde marcadores sociales, pero muy muy pocos. Poca gente los usa excepto los SEOs. Punto a tener muy en cuenta! Pero lo mismo que antes si sólo fuese esto podríamos tumbar a la competencia.

  • Links desde directorios
    Lo mismo que los marcadores sociales, pocas webs que no hagan SEO están en cientos de directorios de dudosa autoridad.

  • Nombre del dominio (Actualización)
    Gracias a Aleyda que ha comentado también

    "Lo de dominios optimizados con palabras clave (sobre todo los muy obvios que son utilizados para afiliados y con frases enteras con varios guiones medios)... si que lo veo venir y lo ha dicho varias veces y tiene su lógica... es un factor que además puede "aislar" más fácilmente :)
    "

También se me ocurre otra cosa, ¿y si mirase en linkedin las empresas que tienen en su plantilla 4 o 5 personas que hacen SEO??? por supuesto esto es una cosa que dudo mucho que haga, pero se me ha ocurrido como una muy buena manera de saber que empresas tienen seos contratados jejeje. Tranquilos, esto nunca lo hará supongo, pero quién me niega que no sería una buena manera de identificar estas webs que tienen SEO.

Yo creo que ninguno de estos puntos por si solo es el que identifique estas webs, creo que será el que cumpla unos cuantos al que pueden ponerle una banderita.

¿Se os ocurren otras cosas?


 


Natzir (@)hace Hace más de 12 años y 2 días

Si haces demasiado relevante una página para una única keyword o keyfrase. Ej:

Title: key
url: key
H1: key
H2: key
H3: key
strong: key
i: key
ul li: key
anchors: key
alts y tiles: key
etc...

¿Es una clara señal no? xD

Errioxa (@)hace Hace más de 12 años y 2 días

Podría serlo, pero eso se supone que ya lo hacía desde hace mucho tiempo.

y además, muchos CMS ya vienen así de optimizados, por eso creo que los tiros irían por otro lado, pero por supuesto esto que comentas habría que vigilarlo :)

Natzir (@)hace Hace más de 12 años y 2 días

Si! todo esto "en teoría" lleva tiempo haciéndolo...

Y ahora también se debería de vigilar más la distribución de anchors en una campaña de linkbuilding y empezar a tirar más por los anchors naturales (clica aquí, más info, "nombre de la marca"...).
Con esto, hasta la más descarada campaña de linkbuilding sale victoriosa actualmente.

Igualmente no entiendo como Google todavía depende tanto de los enlaces para posicionar páginas...la evolución lógica es que el SEO se vuelva menos manipulable y más natural (social, UX, semántico...). Creo que en este aspecto ha sido muy interesante el reciente cambio hecho en el algoritmo de resultados relacionados de YouTube, premiando la duración de las visualizaciones y no el vídeo CTR. Con lo que, al final, la calidad de un resultado te la dan los propios usuarios.

Roc Reguant (@)hace Hace más de 12 años y 2 días

Hola,
Personalmente creo q google ya no da mucho valor a los Enlaces en el blog roll.
Además eso de penalizar webs con seos me parece mal, no tine mucho sentido ya que un buen seo ayda a los bualscadores además de hacer spam reports.
Saludos

Errioxa (@)hace Hace más de 12 años y 2 días

Roc discrepo, el SEO lo que hace es alterar los resultados artificialmente y Google es precisamente lo que intenta evitar. Un buen SEO no es bueno para Google.

Lo del blogroll sigo viendo cientos de páginas que se posicionan unicamente con ellos así que del todo no le tienen pillado el truco a estos enlaces.

jlmora (@)hace Hace más de 12 años y 2 días

Sobre los nofollow no lo creo muchos CMS ponen nofollow en los comentarios y otras partes.

Sobreoptimización de SEO onpage ya la detecta e imagino que este algoritmo lo mejorará.

Enlaces en marcadores, en principio duelen ser nofollow y básicamente sirven para facilitar la indexación y reavivar un poco el sitio.

Sobre enlaces follow externos, algún día tendrán que limpiar un poco eso...

Y se me ocurre una cosa: Enlaces desde perfiles sociales con poca o nula actividad social (incluyo los que solo publican sus contenidos)

Saludos.

Errioxa (@)hace Hace más de 12 años y 2 días

@jimora "Sobre los nofollow no lo creo muchos CMS ponen nofollow en los comentarios y otras partes."

Pero casi siempre a enlaces externos, pocos CMS vienen por defectgo poniendo enlaces nofollow internos a parte del típico link de login

Aleyda (@)hace Hace más de 12 años y 2 días

Otros factores adicionales (no On Page sino Off Page):

Las menciones, referencias de la marca o enlaces que vienen de redes sociales, la existencia de Likes, Google +1\'s o hasta una página en Google Plus... es decir, señales que hagan referencia a autoridad de la marca o producto... lo que no es normal es que un sitio tenga miles de enlaces desde directorios, bookmarkings, foros, etc. y no tenga ni una mención de su marca en las redes sociales o likes en sus páginas ... y puede ser una señal clara de manipulación :) ..

También la tendencia de crecimiento de enlaces o decrecimiento: No es normal que te comiencen a enlazar un dia como loco si el contenido de tu página no se ha actualizado para nada... o que pases de 1,000 enlaces que te ha tomado 5 años conseguir a 10,000 en una semana... otra señal más de manipulación :)


Creo que G tiene muuuucho trabajo en relación a la manipulación de enlaces más allá de On Page hoy por hoy... aunque la \"limpia\" que ha hecho con el Panda ha dejado aun que desear...

Errioxa (@)hace Hace más de 12 años y 2 días

@Aleyda gracias por todas tus aportaciones! creo que son las más factibles, en serio.

La de redes sociales me gustan especialmente, pero le veo una pega y es que entonces cada vez habría más distancia entre las que tienen señales sociales y las que no y entonces las webs sin señales sociales no saldría en las serps tanto como las otras y como consecuencia no tendría marcadores sociales porque la gente no la conoce, la pescadilla que se muerde la cola.

No sé si me explico... pero podría hacerlo por ejemplo si esta web tiene 100 enlaces externos y 30 menciones en medios sociales es buena pero si tiene 500 enlaces externos y ninguna mención en redes sociales algo de raro hay. Y claro menciones en redes sociales es muy fácil de crear así que tendría que tener en cuenta la autoridad de ese usuario en esa red social.

Aleyda (@)hace Hace más de 12 años y 2 días

Si... para las señales sociales, no puede tomarse el "volumen" o actividad en "bruto" sin más porque también puede ser manipulable... (puedes comprar likes, poner a bots a realizar menciones en twitter, etc.) sino debería de estar además relacionado a la "relevancia" de los votos o menciones (como el "trustrank", quienes los hacen, si son usuarios que tienen un historial e interaccion anterior con la marca y está dentro del "circulo" social de la misma o es un voto aislado sin mas hecho por una cuenta que no tiene historial o el historial es "spammy"... que seguramente es una de las tantas razones que tiene G de crear Google +: Tener un "control" más directo de toda esa interacción social... y poder verificar más fácilmente la veracidad y relevancia de la misma :)

Ani Lopez (@)hace Hace más de 12 años y 2 días

No les hace falta ir a linkedin a mirar datos, solo con ver con quien compartes tus cuentas de analytics y webmaster tools ya los tienes a todos :D

PabloGV (@)hace Hace más de 12 años y 2 días

Buen post, aunque estoy más de acuerdo con el planteamiento general que con las cosas puntuales que comentas. Me refiero a que si en algo tiene que avanzar es a detectar de una forma precisa la sobreoptimización, cosa que no hace bien ni de lejos en muchíiisimos casos (imo).

Desde luego no espero maravillas viendo que si buscas "seo freelance alicante" te encuentras la web del colega de la vega, con flash y los titles/noscripts son para mear y no echar gota.

También estoy con Roc en que Google no va a tratar de penalizar a los buenos seos, aunque tampoco los premie directamente. Les beneficia, les guste o no...aunque visto lo del not provided, está claro que se la repanpinfla todo lo que no sean clics de publi >_<

Lo que comenta Aleyda de usar las rrss como punto de equilibrio está muy bien, pero pueden ser muy spammy también...o no se ven webs de la "Floristeria Pepa" con 150 +1 y luego llegas a portales grandes y no llegan a la mitad, teniendo estos cientos de tweets/shares?

A ver si mañana alguno consigue colarle una pregunta sobre esto a Rand en el OMexpo :DDDD




Lea otros artículos de Google Updates

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II