Poco a poco las webs van dedicando parte de sus esfuerzos a la
eliminación del contenido
duplicado
(y
2),
siendo la forma más habitual el uso de un fichero robots.txt
.
Pero a SEOBook se le ha ido la mano al usar comodines y las consecuencias no se han hecho esperar, aunque corrigió el error inmediatamente Google ha sido más rápido que él y ha añadido a su lista de resultados suplementarios varias páginas reduciendo mucho su tráfico y haciéndole perder 10.000$.
Creo que estamos ante uno de los ficheros robots.txt más caro de la historia, al menos de la conocida y es que no muchos reconocen sus errores :-P.
Comentarios