Publicado por Lino Uruñuela. actualizado el
Query fan-out es una técnica que utilizan los buscadores basados en IA (por ejemplo el Modo AI de Google) que descompone una consulta compleja en múltiples subconsultas más específicas.
Query fan-out es especialmente útil para búsquedas ambiguas o complejas ya que al hacer multiples consultas cubre las diferentes intenciones y muestra resultados que no hubiera obtenido si solamente utiliza la consulta orignal. Esta diversidad aumenta la probabilidad de obtener resultados relevantes y veraces que reducem el el riesgo de alucinaciones
Por ejemplo, imagina que un usuario pregunta: "¿Cómo planificar un viaje a Japón en primavera?". Un buscador que aplique query fan-out descompone la consulta en varias subconsultas que cubren distintas facetas de la intención:
Al ejecutar todas estas subconsultas en paralelo, el motor recoge información diversa (clima, eventos, costes, requisitos, rutas) y genera una respuesta más completa y fiable, reduciendo el riesgo de omitir aspectos importantes para el viaje.
La técnica Query fan out es muy útil en el contexto de las búsquedas con lenguaje natural, donde la consulta original puede ser ambigua o compleja. Al obtener resultados de múltiples subconsultas con distintos términos relevantes, aumenta la probabilidad de ofrecer una respuesta más pertinente que con una sola consulta.
En las últimas semanas ha crecido el interés por el término Query Fan Out. Aunque es relevante, quizá no sea tan determinante como su actual «hype». Los SEOs lo han incorporado a raíz de las respuestas generativas en Google para entender mejor el buscador y optimizar su visibilidad en el nuevo contexto de los grandes modelos de lenguaje.
Hoy en día la búsqueda de Google (y cualquier buscador avanzado) va mucho más allá de la simple coincidencia de palabras clave. Sistemas con IA proporcionan resultados más relevantes, búsquedas personalizadas y respuestas generativas basadas en los datos recuperados.
También es cierto que cuando se comprende cómo los buscadores emplean esta técnica, los SEOs pueden refinar sus metodologías para lograr mejores resultados y aumentar la visibilidad. Por ejemplo, al examinar variaciones de una consulta, se pueden identificar palabras clave relevantes y usarlas para mejorar la calidad del contenido.
Quizá a más de uno le sorprenda escuchar estas palabras de Gary Illyes; simplemente no les habíamos prestado tanta atención.
Para comprender mejor cómo funciona la búsqueda de Google, una de las mejores fuentes es la propia documentación de Google Cloud, concretamente la de Vertex AI Search.
La información más relevante sobre el funcionamiento actual de Google se encuentra en las especificaciones de configuración de Vertex AI Search para crear un buscador personalizado basado en tus datos (web o documentos internos).
La documentación describe varias opciones para tratar las consultas de los usuarios. En los Controles lingüísticos encontramos:
Estas configuraciones permiten generar múltiples queries en paralelo. En Vertex debes definir manualmente los sinónimos, mientras que Google lo hace automáticamente con un LLM especializado.
Además, la documentación detalla los tipos de respuestas generativas y cómo se obtienen.
Textos breves extraídos de cada documento resultado. Incluyen resaltado de hits en etiquetas <strong>
y se muestran como vista previa para ayudar al usuario a decidir si hace clic.
Secciones de texto copiadas literalmente de un documento. Pueden ser párrafos, tablas o listas con viñetas y suelen ser más breves que los segmentos extractivos.
Secciones textuales más extensas que las respuestas extractivas; pueden incluir varios párrafos, tablas o listas. Se usan a menudo como entrada para LLM propios.
Conociendo estas categorías, podemos definir mejor las características del contenido idóneo para que Google lo seleccione como fuente en sus respuestas generativas.
En próximas publicaciones analizaré cómo ponderar las diferentes señales de relevancia (documento, sitio y datos históricos de usuarios) al ordenar los resultados.