Google no interpreta Ajax

Publicado el 7 de noviembre del 2011

El otro día Google anunciaba que era capaz de interpretar las llamdas XMLHttpRequest, básicas para ejecutar Ajax, y siento decir que no. Creo que Google sólo es capaz de "leer" URLs en el código (cosa que ya hacía desde mucho tiempo) y ver qué hay ahí.

El experimento era sencillo, una llamada XMLHttpRequest en un elemento de la web a prueba-ajax.php
Si el usuario hacía click en es elemento de la web le devolvía una cadena inventada, pero si simplemente poníamos la URL sin hacer click previamente en el elemento te devolvía otra distinta. Pues bien Google sólo devuelve resultados para esta opción, o sea, no es capaz de emular el click de un usuario.

Así que los contenidos que indexará Google cuando hagas una llamada ajax serán los que muestres cuando pongas en la barra de direcciones del navegador la URL de la página que recibe la llamada XMLHttpRequest

Veamos el ejemplo que hice

  • Si el usuario hace click en el elemento, hacemos una llamada XMLHttpRequest por método post a www.mecagoenlos.com/prueba-ajax.php pero nos devuelve un texto que no quiero reproducir aquí por no fastidiar el experimento, llamamosle Texto(A)

  • Si pones directamente en el navegador www.mecagoenlos.com/prueba-ajax.php veremos otro texto distinto, Texto(B)

Pues bien, sólo indexa el Texto(B), o sea, que no ejecuta el javascript necesario para ver el Texto(A) por lo cual seguirá siendo invisble para Google. Además, Google no lo asocia a la URL donde se ejecuta el javascript, sino que lo muestra como una URL suelta. Creí que aquí afinaría más y mostraría la URL del experimento para esa palabra, pero ni eso.

Esto debemos tenerlo en cuenta siempre que ejecutemos ajax y el contenido que haya ahí querramos indexarlo, debemos hacerlo de tal manera que al poner la URL en el nevegador se muestre el contenido que nosotros deseamos que indexe.

Vamos a aprovechar este post para hacer otro pequeño experimento
, voy a meter en el código fuente otra URL, dentro de de los tags de <script></script> pero sin ninguna función, esa URL devuelve una cadena de texto inventada, a ver si la ve y la rastrea, supongo que sí, además pondremos un link dentro de esta página para ver si valora esos enlaces, que supongo que también.

A ver qué ocurre...



 


jonathan - recetas de cocina (@)hace Hace más de 12 años y 95 días

No puedo creer que Google enganhe de esta manera.

jonathan (@)hace Hace más de 12 años y 95 días

por favor explíquenme como Google puede hacer esto.
jonathan - recetas de cocina


Últimos posts

Últimos comentarios


Nichol
An Easy-To-Follow Guide To Accidents Attorney Near Me accident attorney washington state
Post: Denunciar la venta de link

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console