SEO White Hat

Actualizado el 9 de octubre del 2017

SEO White Hat
SEO White Hat son las técnicas utilizadas para optimizar una página web y que cumplen las directrices para webmasters descritas por Google.

 

Google marca unas normas (directrices para webmasters) dentro de las cuales la optimización de una página web es consideradad como una optimización legítima sin intenciones de alterar el normal funcionamiento del buscador de Google, es decir, las técnicas de optimización aceptadas por Google porque no intentan alterar el algoritmo de Google por el cual se ordenan los resultados para un término de búsqueda.

Normalmente la mayoría de acciones onPage que se realizan en un site, suelen ser técnicas para la mejor indexación de la página web o para el correcto marcado semántico de los distintos contenidos que en ella hay. Dentro de las acciones onPage más comunes se encuentran

  • Optimización de títulos
  • Optimización de los distintos marcados semánticos
  • Mejoras en la Arquitectura de contenido y experiencia de usuario
  • Optimización de los links internos
  • Optimización del crawl budget
  • Optimización de Imágenes
  • Diseño Móvil y Responsive design
  • Otras mejoras en torno al código fuente y disposición visual de los elementos

 

 


Luis Toscano (@)hace Hace más de 15 años y 320 días

Excelente Articulo muy interesante yo que pensaba q era un solo SEO

nrallan (@)hace Hace más de 15 años y 129 días

quisiera tener mi correo electronico

David (@)hace Hace más de 14 años y 299 días

Muy Interesante a mi esta realizando el posicionamiento natural la empresa SITPYMES y utiliza esta tecnica, y esto muy satisfecho con los resultados obtenidos.

M.C. Trueta (@)hace Hace más de 13 años y 361 días

El SEO correcto (sombrerito blanco) aunque necesita tiempo de dedicación, creo que es el único con futuro.

jovi (@)hace Hace más de 13 años y 118 días

callense ustedes quiren dominar el mundo manga de p#t@s


  • Lunes 30 de Noviembre del -0001

Puiblicado el 27 de abril del 2009 Google mejora día a día sus resultados y se va adaptando a las necesidades de sus usuarios y de los avances tecnológicos que van apareciendo. Desde hace un par de años, Google intenta dar resultados más cercanos a sus usuari

Seguir leyendo


Lea otros artículos de Ponte tu sombrero

Últimos posts

Últimos comentarios


Joakim Hov Johnsen

Post: Experimento para comprobar la teoría del primer enlace

Dana

Post: Experimento para comprobar la teoría del primer enlace

JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt