Futuro Buscador

Hoy quiero plantearme el futuro de los buscadores.
Hoy en día tenemos bastantes técnicas para el posicionamiento en buscadores, contra todas ellas están los buscadores que van a remolque de los SEOs.

Antes de que se "inventara" el PageRank la estrategia para posicionar una web era la densidad de palabras clave en una página y a la altura que estas estaban, no es lo mismo que saliese al principio que al final de documento. Entonces llegó Google y su algoritmo denominado PageRank el cual se basa en la gran estructura de links como un indicador del valor de una página en concreto. Google interpreta un enlace de una página A a una página B como un voto, de la página A, para la página B. Pero Google mira más allá del número de votos, o links que una página recibe, también examina la página que emite el voto. Los votos emitidos por las páginas consideradas "con autoridad" valen más, y ayudan a hacer a otras páginas "con auntoridad".

Con el tiempo los SEOs hemos intentado crearnos enlaces ya sean con el intercambio de links, de lo que hablaré en el próximo artículo, o creándolos nostros mismos. Y Google reaccionó aplicando una serie de filtros, por así decirlo, para detectar cuando una página estaba siendo valorizada artificialmente. Estas medidas que tomó son por ejemplo:

  • Los votos desde páginas con la misma Ip valen menos.
  • Los links desde Ip con la misma clase C valen menos .
  • Links recíprocos valen menos.
  • Poner muchos enlaces con el mismo anchor text hacia la misma página en muy corto espacio de tiempo te mete en SandBox para determinadas búsquedas
  • Páginas con el mismo contenido son penalizadas

Y así muchas medidas más, la intención de Google es muy clara, identificar aquellas webs que están alterando su PageRank inicial, y es por ello por lo que pone estos filtros.
Aún así esto no es muy difícil de superar siempre y cuando tengas dinero o muchas ganas de trabajar, y puedes diseñar estrategias para conseguirlo a medio plazo. Por descgracia como en casi todo el dinero manda, y aquí pasa lo mismo. Hay páginas que están muy bien posicionadas para determindas búsquedas de su sector. Estas páginas seguirán invirtinedo en alterar esa forma de ordenar los resultados y si lo hacen bien no habrá Dios que las quite de ahí.

Dentro de un tiempo X, no sé cuánto será, las primeras posiciones estarán muy bien consolidadas por estas empresas que ahora lo están haciendo bien y cada vez más frases de búsqueda serán imposibles de posicionar por páginas nuevas o páginas que no han sido tan optimizadas anteriormente. Creo que esto llegará al punto en que siempre que realicemos la misma búsqueda nos saldrán los mismos resultados muriendo así el buscador porque la gente no quiere ver siempre las mismas páginas para distintas búsquedas.

Si por ejemplo busco hoteles (término cada vez más difícil para posicionar), dentero de un tiempo y según mi teoría saldrán las mismas web siempre porque seguirán invirtiendo en posicionarse ahí y si no lo hacen mal será imposible moverlos. Poco a poco las webs que salgan en las primeras posiciones dominarán más y más al resto, por aquello del voto con autoridad ya que ellos mismos serán la autoridad, y dentro de unos años veremos como cada frase de búsqueda tendrá su rey o reyes y será imposible destronarlos.

Para mi si esto se cumple, es el fin del PageRank como método para ordenar los resultados. No sé como será la mejor manera, pero ésta en unos años caerá por las razones que antes dije.

Si no estás de acuerdo, escribe tus comentarios e intentaremos debatir esta cuestión.  


 


angelhace Hace más de 10 años y 270 días

Hummmm.Difícil cuestión.
A ver. Yo busco hotel en Barcelona. No se, pon dos veces al año. No me importa que entre los diez primeros me salgan los mismos resultados(hoteles), lo que me mosquearía es que saliera algo que no tuviera nada que ver con lo que busco.
Imagino que los usuarios pocas veces utilizan los mismo términos de búsqueda. Incluso pienso, o a mi a veces me pasa, que al hacer una búsqueda encuentro una web que me interesa, si por una de esas me he olvidado de ponerla en favoritos o en mis marcadores, cuando quiero recordarla, lo que hago es poner la misma o parecida búsqueda, y cruzo los dedos para volver a encontrar la misma web en los resultados.

Resumiendo, en mi modesta opinión, no creo que ese sea el final de los buscadores.
Si que es molesto por ejemplo, que para algun tipo de busquedas siempre te salgan los mismos resultados, es decir, wikipedia,emagister,etc....
Seguimos debatiendo???

Saludos, y buen sitio el tuyo.

Estelahace Hace más de 6 años y 206 días

La definición de SEO es el método utilizado para aumentar el rango o frecuencia de un sitio web en los resultados devueltos por un motor de búsqueda, es un esfuerzo para maximizar el tráfico de usuarios cualificados a nuestro sitio, indudablemente que conseguir enlaces externos es un aspectos básico para un buen posicionamiento.

Muy interesante tu reflexión "Creo que esto llegará al punto en que siempre que realicemos la misma búsqueda nos saldrán los mismos resultados muriendo así el buscador porque la gente no quiere ver siempre las mismas páginas para distintas búsquedas", imagino que los ingenieros de Google tendrán previsto ese caso que propones.

Me permito dejar un enlace a mi blog

posicionamiento en buscadores



Lea otros artículos de Google Updates

Contacta

Lánzate y pregunta!


He leído y acepto la política de privacidad

Mecagoenlos.com te informa que los datos de carácter personal que nos proporciones rellenando el presente formulario serán tratados por Lino Uruñuela. como responsable de esta web.

La finalidad de la recogida y tratamiento de los datos personales que te solicitamos es para enviar un correo con los datos que introduzcas, sin guardarse en ninguna base de datos.

Legitimación: Al marcar la casilla de aceptación, estás dando tu legítimo consentimiento para que tus datos sean tratados conforme a las finalidades de este formulario descritas en la política de privacidad.

Como usuario e interesado te informamos que los datos que nos facilitas estarán ubicados en los servidores de Linode.com (proveedor de hosting de Mecagoenlos.com) cumpliendo la ley de protección de datos. Ver política de privacidad de Linode.com.

Podrás ejercer tus derechos de acceso, rectificación, limitación y suprimir los datos en info@mecagoenlos.com, así como el derecho a presentar una reclamación ante una autoridad de control. Más información aquí.

Últimos posts

Últimos comentarios


Fran Javietr

Hola Lino como podemos añadir a este código la identificación de la ip del bot, como sabes hay falsos bots y una forma de saber si son l
Post: Monotorizar GoogleBot con Google Analytics

Javier

Buenas Lino, ¿Alguna novedad sobre cómo considera Google los links en PDFs? Se me ocurre que, siguiendo con este experimento, se po
Post: Link building con PDF

Francisco

Flaco. Por lo general, no dejo comentarios pero, en tu caso, voy a hacer una excepción pues, sencillamente... ¡sos un genio!, Gracias.
Post: Cómo cargar css y js y no bloquear la carga de contenido

Juan Francisco Gancia

Excelente artículo, gracias! Te encuentro de casualidad por un post de hace 10 años.
Post: Diferencias entre url indexada y url accesible

Lino Urnuela

@Emirodgar gracias! Pero parece que en tema de imágenes las pilla lo hagas cómo lo hagas parece, eso sí, siempre que no tengas un fall
Post: Indexar imágenes en Google usando Lazy Load

Emirodgar

Muy interesante el experimento. Yo estaba probando con los nuevos formatos webp y pero al final, como eran pocas imágenes y usaba Masonry,
Post: Indexar imágenes en Google usando Lazy Load

Lino Uruñuela

Completamente de acuerdo :) Pero en este experimento solo quería comprobar el método usado para hacer lazy load, en este caso con xmlht
Post: Indexar imágenes en Google usando Lazy Load

Francisco Morales

Lino muy interesante las distintas formas de cargar la imagen. Pero no crees que lo realmente interesante de aplicar Lazy Loading es cargar
Post: Indexar imágenes en Google usando Lazy Load

javier

Buenas , esto del onclik ha cambiado actuamente en algunas web que tengo las lee y sigue enlaces
Post: ¿Cómo ejecuta, interpreta e indexa Google el contenido cargado mediante javascript?

David Girona

Antes de Nada muchas gracias por la aportación. Estoy probando de poner en marcha este procedimiento y me surgen un par de dudas. En
Post: Cómo añadir el valor del meta Robots a Google Analytics via Google Tag Manager