Atacados por los .cn .cz .pl

Publicado el 13 de Octubre de 2007

Se venía viendo desde hace un mes como dominios .cn (también otros como .pl .cz) iban ascendiendo en los resultados de Google para términos no muy competidos. No sólo es que usaran técnicas ilícitas como copia de contenido automáticamente, red de páginas con enlaces a sitios .edu y sitios de referencia para enmascarar los suyos propios, además de todo esto te meten malware en el ordenador, sobre todo si usas IE7.

Por ejemplo en la búsquedas que llevan "pokemon ruby gamesharks" and "blue book." comillas. ATENCIÓN tener cuidado si entrais en los resultados de esas búsquedas, no sé si las limpiaron ya pero me da que alguna es de las que decimos que lleva malware. Si veis caracteres chinas ni se os curra. Si no, cuidado.

Ahora Matt Cutts hasta lo afirma, diciendo que ya tienen cambios preparados para arreglar el problema. No ha dicho cómo, claro está, pero se supone que será reducir sus sitios de confianza, siendo sólo unos pocos los que den autoridad en los links como. Si hiciese esto un link en un sitio de autoridad como pueden ser los .Edu (aunque a saber, porque también hay mucho spam en ellos), sitios como el New York Times, .gov, etc, eran de muchísimo más valor que ahora. Pero habrá que esperar a ver qué medidas toma.

Mucha más información en este hilo de WMW

 


Javier Espinoza (@)hace Hace más de 5 años y 163 días

Gracias por la informacion!! Este tipo de blogs me parecen muy importantes, esto lo estudio en la universidad. gracias por la informacion. https://uautonoma.cl



Lea otros artículos de Google Updates

Últimos posts

Últimos comentarios


JaviLazaro
Ya me has dado la necesidad de crear un comaando en bash para hacer estas cosas. Gracias Lino por estos tips
Post: Obtener KWs de varias fuentes usando la línea de comandos

Señor Muñoz
Lino, el 11% más de clicks y el 47% más de impresiones diarias ¿es algo constante o depende de cada sitio web?
Post: Diferencias entre la exportación de datos de Search Console usando BigQuery o usando la API

Carlos
Hola En mi blog tengo artículos atemporales (es decir, no caducan nunca, de manera que sirve para quien lo lea hoy o lo lea dentro de 5
Post: Tratamiento de urls que tienen un tiempo de vida muy corto

Profe Ray
Veo que hay comentarios de hace 5 años y de hace 3 años. ¿Habrá algun post actualizado sobre este tema o sigue funcionando? Lo cierto es
Post: Cómo cargar css y js y no bloquear la carga de contenido

Pepe
Muchas gracias por el articulo!! Muy buena información.
Post: Qué es ofuscar enlaces y cómo mejora el enlazado interno

María
Sí, he buscado el archivo robots.txt y todo está correcto. La última versión vista con error fue el 08/11/2021 y la última vez que el
Post: Errores críticos originados por el robots.txt

Lino
@María un placer verte por aquí :) Lo primero, a veces, con el robots.txt no se puede "forzar" a que lo rastree, si tu site no es muy p
Post: Errores críticos originados por el robots.txt

María
Hola Lino, tengo el mismo problema. El probador de robots de google me indica: "Error al obtener el archivo robots.txt Tienes un archivo ro
Post: Errores críticos originados por el robots.txt

Mario
Estoy tratando de vincular los datos en Google Data Studio y he combinado los datos de la tabla "Impresión del sitio" con "Impresión de UR
Post: Datos incoherentes y cálculo de la posición media en Search Console

José B. Moreno Suárez
Yo hace tiempo que agrupaba con stemmers. Ahora, además, comparo con un proceso las keywords que aportan impresiones a una URL determinada
Post: Clustering de keywords SEO en Google Search Console - Parte II