El fichero Robots.txt para SEO

Escrito el miércoles 25 de Julio de 2007

Aquí mostramos los últimos artículos que tratan aspectos técnicos acerca del SEO y el robots.txt

 



\"Errores

 

Publicado el 13 de abril del 2020 por Lino Uruñuela
Índice de contenido

¿Qué es el robots.txt?
¿Para qué sirve el robots.txt?
¿Comprueba Google el robots.txt para cada URL que rastrea?
Errores cr&

Seguir leyendo

¿Es necesario comenzar con slash la directiva Disallow?

 

Publicado el viernes 26 de febrero del 2016 por Lino Uruñuela

El otro día, mi socio Natzir me pasó el tweet de John Muller donde indicaba que la directiva Disallow del robots.txt debía comenzar siempre con un slash "/".




Seguir leyendo

\"Cuando

 

Publicado el 3 de diciembre del 2012, by Lino Uruñuela
Llevo unos cuantos meses observando un comportamiento algo contradictorio al restringir URLs desde el robots.txt. Supuestamente en el robots.txt puedes re

Seguir leyendo

  • Domingo 28 de Febrero del 2010

Publicado el 28 de febrero del 2010 Ya vimos como hacer PR sculpting usando JavaScript, así, independientemente de  cómo Google quiera valorar los enlaces nofollow (a veces nos dice que valen para pr sculpting y otras nos dice que no) nos aseguramos que el peso de una url lo tr

Seguir leyendo

  • Jueves 04 de Junio del 2009

Publicado el 4 de junio del 2009 Se está montando un pequeño revuelo en el mundo SEO a costa de unas declaraciones de Matt Cutts en el SMX advance (no, el de Madrid no) acerca de la nueva manera en que Google trata los enlaces con nofollow. Antes Hasta ahora si tenías 10

Seguir leyendo


Lea otros artículos de On Page

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II