¿Penalizará Google las empresas que traten mal a sus empleados?

Publicado el 2 de diciembre del 2010

Hoy he leído una noticia en la que dice que Google penalizará las páginas webs de las empresas que traten mal a sus clientes descendiéndolas en los rankings de resultados del buscador, también lo comentó Pablogeo en su blog hace unos días.

Vale, no veo mal la medida, la cual supongo que será hecha a mano (muy difícil hacerlo algorítmicamente sin que pueda ser manipulado) en los casos que son muy claros como el que denuncia el New York Times, pero yo le propongo a Google algo mejor y más justo para todo el mundo, que penalice a las empresas que tratan mal a sus empleados.

Está claro que no lo hará, pero ya podría usar su posición dominante en internet para hacer  un mundo mejor, algo de lo que siempre alardea, seguro que miles de niños explotados en China y otros países por grandes marcas se lo agradecerían, además también de muchos otros obreros en el mundo que se ven explotados por obligación ya que no pueden permitirse el lujo de no tener ingresos en sus casas y deben aceptar condiciones de exclavitud en sus puestos de trabajo.

Así que desde aquí y desde dónde pueda yo le pido a Google que si quiere hacer un mundo mejor penalice a las empresas que traten mal a sus empleados.


 


Sergio Blanco (@)hace Hace más de 13 años y 73 días

Apoyo la moción :) Ahora bien, tocará definir "qué es tratar mal a un empleado" - porque evidentemente aquí hay muchos aspectos subjetivos.

Errioxa (@)hace Hace más de 13 años y 66 días

Yo me refiero sobretodo a las grandes multinacionales que explotan a la gente en asia y es demostrado.



Lea otros artículos de Analista Web && Consultor SEO

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II