La recency non è altro che la fedeltà di un visitatore nel ritornare sul nostro sito internet. Questa metrica di valutazione è importante per chi cura un sito o ne è il proprietario per capire se il suo sito web suscita interesse dopo una prima visita generata da parte di un determinato utente.
Fare WEB Analytics ci aiuta a capire tutto questo, dove tool specializzati come quello gratuito di Google Analytics riesce a mostrarci dati importanti su questo fattore più o meno importante in base al sito in questione…
Fatta un po di introduzione nei post precedenti..iniziamo pure ad addentrarci nell’argomento della Web Analytics con l’argomento di Come analizzare le visite generate dal nostro sito internet….
Le visite generate dai nostri siti web come in teoria tutti dovrebbero sapere sono lo specchio per valutare se il nostro sito sta fruttando e rispondendo alle nostre prospettive, ma non sempre un sito che genera tante visite è sinonimo di qualità o utile per i nostri servizi che vogliamo lanciare nel WEB.
Bene ora che ho spiegato alcuni concetti base che potranno aiutarci nei prossimi post dedicati esclusivamente alla Web Analytics, non ci resta che installare il nostro programma di Analytics e iniziare a:
Raccogliere i dati: dopo aver installato il codice di monitoraggio del programma da voi scelto di Analytics si potrà iniziare a raccogliere i dati che genera il nostro sito. (da ricordare che il codice di monitoraggio deve essere presente in tutte le vostre pagine del sito.)
Per una corretta tracciatura dei dati, i programmi di WEB Analytics usano i Cookie (biscottino). Biscottino perchè quando un browser si collega a un sito riceve questo regalo che è il Cookie per individuare uno specifico utente, in modo che al prossimo accesso, l’utente in questione venga riconosciuto. A differenza di un indirizzo IP, il Cookie ti permette di avere un ID utente, e una combinazioni di IP e Cookie ci permetterà di riconoscere diversi utenti che navigano su uno stesso sito dallo stesso computer.
Un po si storia…
I file Robots sono dei comuni file di testo con determinate istruzioni e vengono spesso utilizzati per isolare alcuni contenuti del nostro sito che non vogliamo far indicizzare allo spider.
Questo metodo potrebbe essere utile per contenuti che vogliamo che rimangano privati e per non mischiare le statistiche delle visite degli utenti con quelle degli spider. Ma si va incontro a un altro problema: quello che se diamo istruzioni allo spider di non indicizzare una certa pagina, quella pagina non apparirà nelle SERP dei motori di ricerca.
La normale sintassi di un file robots è la seguente:
Bene questa è una domanda che spesso capita, quando si vuole iniziare a fare WEB Analytics o anche durante il corso della nostra esperienza.
In genere per gli utenti alle prime armi, la scelta ricadrà su un programma di Web Analytics gratuito, ma col passare del tempo, forse la scelta potrà ricadere in un software di Analytics a Pagamento, se le nostre esigenze nell’analisi del traffico del nostro sito sarà maggiore.
Prima di addentrarci nel caldo tema della Web Analytics, voglio creare qualche post per mettere un po di basi che potrebbero servire in futuro….
Ecco alcuni termini che dobbiamo sapere per fare Web Analytics:
Hit(Richiesta): è la richiesta di un file a un web server. Spesso erroneamente questo parametro presente nei file di Log viene preso in considerazione per calcolare la popolarità del sito. Erroneamente perchè durante l’apertura di una pagina vengono richiamate tante hits quanti saranno gli elementi presenti, indicando la complessità di un sito e non la popolarità.
Di seguito riporto la tabella con il significato dei vari codici di stato che possiamo riscontrare nei fil di log e nei web server:
Codice stato | Descrizione |
505
|
Il protocollo http non è supportato dal server |
503
|
Il server al momento non è disponibile per motivi di sovraccarico o manutenzione |
500
|
Il server a riscotrato un errore inaspettato e non può terminare la richiesta |
414
|
La richiesta non viene terminata perchè la Url è troppo lunga |
408
|
Il client non ha effettuato la richiesta nei tempi stabiliti del server |
405
|
Il metodo della richiesta non è accettato dalla Url che ci interessa |
404
|
La Url non è disponibile o non è stata trovata |
403
|
La richiesta non può essere eseguita per motivi di autorizzazioni |
401
|
Per effettuare la richiesta è necessario effettuare una autenticazione utente |
400
|
Errore di sintassi |
307
|
Redirect temporaneo |
305
|
La risorsa interessata è disponibile solo tramite un proxy |
304
|
La richiesta è andata a buon fine con istruzione GET, ma il documento non appare modificato |
301
|
La pagina richiesta è stata spostata in modo permanente in una nuova URL |
205
|
Richiesta eseguita, ma per visualizzare il documento si deve aggiornarlo |
202
|
Richiesta accettata, ma ancora da eseguire. |
201
|
Richiesta andata a buon fine, e il risultato è stato salvato in una nuova risorsa |
200
|
Tramite istruzioni GET, HEAD, POST, TRACE la richiesta è andata a buon fine |
I page Tag sono un altro strumento per monitorare le statistiche delle visite di un sito. Le aziende per le loro esigenze hanno dovuto adottare un altro metodo diverso dai file di log e crearsi dei codici javascript da mettere nel codice sorgente della pagina interessata prima del tag <body>.
Quando una pagina viene visualizzata dal browser e arriva al codice di monitoraggio javascript, si innesca
Come primo post, pensavo che fosse interessante capire un attimo come la nostra navigazione nel Web viene tracciata. Per fare questo i Web Server tengono traccia delle nostre visite tramite i file di Log.
I file di Log tengono traccia della nostra visita in un sito internet anche se rimaniamo 1 secondo, e riescono a dare informazioni utili per poi poter effettuare con programmi di analytics una analisi corretta sulle visite dei nostri siti come i tempi di rimamenza (Bounce rate), le visite nuove, gli utenti fedeli, etc. ma per queste cose approfondiremo sicuramente più avanti!