Al conocer Visitors he conocido una gran alternativa en analizadores de logs para Apache (o "estadísticas") tales como Webalizer o AWStats.
Mi historia con las estadísticas va de largo: Google Analytics se me hace empalagoso, Mint es de pago y aunque compensaría pagarlo no me apetece tener tropecientos megabytes de información en MySQL para un sistema de estadísticas y Webalizer sigue siendo para mí la mejor opción pero se está quedando desactualizado (no en vano no se actualiza).
Visitors funciona igual que webalizer: no se instala, lo ejecutas por consola pasándole como argumento el fichero access.log y te genera unas estadísticas/reporte en HTML/texto.
Tampoco se queda corto en rendimiento: según la web puede procesar 150.000 líneas de entradas en el registro (log) por segundo en ordenadores rápidos (20MB/s, a mí me va un poco más lento pero no es poco: 17MB en 1.5 segundos).
La única "pega" es que no contiene imágenes o CSS pero al ser un fichero HTML con todo dentro (como lo llaman ellos: "autocontenido") puedes enviar el HTML por email sin problemas.
Por supuesto: es GPL e incluso el autor propone en la web hacer a los usuarios una versión "personalizada" (por un módico precio faltaría más).
Mirad el reporte de ejemplo y veréis que en su simplicidad tiene prácticamente todo lo necesario, primero os comento lo más o menos básico/normal y luego un par de virguerias que pueden ser muy útiles:
Lo básico
-
Visitas únicas por día y por mes (múltiples hits con la misma IP, user agent y día son considerados como una sola visita).
-
Visitas originadas por Google con una barra roja que equivale al % de visitas originadas por Google en comparación al total.
-
Un mapa de calor con el día que más y menos visitas has tenido.
-
Páginas vistas por usuario (sin contar imágenes) y ordenadas por hits.
-
Imágenes y CSS ordenados por hits.
-
Referidos ordenados por visitas (sin contar Google).
-
Referidos por novedad. Es decir los "nuevos" (que no habían salido antes). Perfecto para descubrir gente que te enlaza por primera vez.
-
Robots y webspiders que te piden el robots.txt
-
Agentes de usuario: aquí hecho de menos cierta "agrupación".
-
Sistemas operativos.
-
Navegadores: esto soluciona lo de los agentes de usuario.
-
Dominios ordenados por visitas.
-
Resolución de pantalla y profundidad de color más usados: requiere un javascript en la página a revisar (como todos).
-
Distribución de "hits" por día/hora: con este dato a mano ya sabes a qué hora hacer la parada de mantenimiento.
Lo excepcional
-
Páginas que devuelven Error 404.
-
Googled Pages: las páginas que ha "visto" el bot de Google y la fecha de su última visita.
-
Adsensed Pages: lo mismo que el anterior pero con el bot de Adsense.
-
Google Keyphrases: palabras clave que más visitas han traído, enlazadas a la búsqueda en google y entre paréntesis la página en la que estabas. También tiene una opción para mostrar las búsquedas que devuelven una visita por primera vez.
-
Google Human Language: el "hl" usado en la búsqueda de Google por lo que podemos saber si el usuario estaba con la página en español (es), inglés (en), etcétera.
-
Web trails: las acciones más comunes al navegar y explicado de forma escrita por ejemplo "External link ⇒ /" significa "viene desde un enlace externo y entra en la raíz del sitio" o "/ ⇒ /downloads.html" "entra en la página raíz y luego en la página de descargas". Sirve para ver los hábitos de navegación que más se repiten.
Nada mal, puede que pase a convivir una temporada con Webalizer y según cómo funcione incluso puede convertirse en su asesino.
Comentarios