Il downtime di un hosting può influenzare il numero di vendite di un sito e-commerce?

Il downtime di un hosting può influenzare il numero di vendite di un sito e-commerce?

È stato pubblicato un articolo sul blog di DynDNS che riferisce l’importanza di un elevato uptime, evidenziando come un tempi di downtime elevato possa influire, per un sito di ecommerce, sui profitti in modo spesso sostanziale. Ma le cose stanno veramente così?

Premettiamo che l’uptime è il tempo in cui, solitamente in un anno e in media, un servizio generico rimane attivo e funzionante: in modo complementare il downtime è il tempo di disservizio annuale. Per rimanere in tema, faremo riferimento alla responsività di un server di hosting che, nello specifico, ospiti un sito di e-commerce: in prima istanza vedremo di capire cosa non va nel modello proposto dall’articolo di riferimento, e poi proporremo un possibile modello valido alternativo.

L’idea di base è che un basso uptime (se preferite, un elevato downtime) influisca negativamente sul ROI (Return Of Investment) di un gruppo di e-commerce indipendenti: il problema è comprendere in che misura ciò possa avvenire. In breve, i dati dell’articolo di DynDNS sono “falsati” da qualche ordine di grandezza di troppo, anche se l’assunto di fondo rimane obiettivamente corretto.

Partiamo dall’inizio: per sostenere la propria tesi Ryan O’Hara utilizza un modello statistico (implicito) che, pur partendo da un assunto corretto, soffre di una grave “falla” di fondo. L’autore dell’articolo sostiene che il downtime di un campione di siti di e-commerce influenzi in negativo il numero di vendite: assunto certamente corretto, almeno se presentato in questa veste, dato che se non posso accedere al sito entro tot secondi rinuncerò a farlo, ed il sito avrà smarrito un cliente potenziale. Si tratta evidentemente di un’enormità, sottolineata dal fatto che il post fa riferimento ad una vera e propria “prova” (proof). E invece…

A supporto della sua tesi O’Hara riporta le seguenti statistiche su un campione di siti di e-commerce (su 500 totali), osservando che:

  1. ben 412 hanno rilevato una mediana di downtime di 840 minuti (presumibilmente annuali).
  2. In media, ognuno di questi siti ha sofferta un downtime medio di 3291 minuti nel 2010.
  3. Il downtime totale che è stato rilevato ammonta a 1,343,643 minuti totali, ovvero ben 2 anni e mezzo di downtime.

Ok, ma qualcosa non quadra, ho subito pensato dopo aver letto l’articolo (su suggerimento di kuroazan, che ringrazio): nel punto tre, tanto per cominciare, si considera il downtime come una quantità omogenea, e quindi si ritiene lecito effettuare una semplice somma. Fin dalle elementari sappiamo che è impossibile sommare banane, kiwi e mele, quindi il punto tre semplicemente non ha senso. Inoltre la statistica insegna che, avendo a che fare con eventi indipendenti come il numero di visitatori casuali (random surfer) di N siti, è lecito semmai moltiplicare le rispettive probabilità che essi capitino nel sito. Questo perchè il discorso, che riguarda sia la statistica che il calcolo delle probabilità, sottende che esiste un modello probabilistico di fondo, che ci dica: “mediamente un certo numero di visitatori mondiali arriva effettivamente nel sito X”. La questione viene invece clamorosamente dribblata da O’Hara, che sembra assumere una probabilità costante (addirittura pari ad uno, ovvero certezza assoluta!) che tutti i visitatori potenziali del sito acquistino (peraltro il medesimo prodotto!). Come se non bastasse, si sta semplicisticamente ignorando il discorso legato alle scarse prestazioni del CTR, che insegna come solitamente solo l’1% dei visitatori tenda ad effettuare degli acquisti dopo aver visto un banner o una landing page. Nella migliore delle ipotesi, quindi, la perdita stimata – per fare un esempio pratico anche se approssimata – da $800,099 si riduce a 8,000$ di perdite medie. Cifra anch’essa considerevole, chiaramente, visto che il tempo di uptime basso non va certo sottovalutato, ma di tre ordini di grandezza inferiore alla precedente!

Quindi l’intero articolo è fallato da un grave errore di fondo, che vanifica l’intero ragionamento: a questo punto, quindi, il fatto che i dati siano statisticamente inconsistenti (senza fonte), come notato da alcuni commenti all’articolo, diventa un problema addirittura secondario. Ma allora l’intero approccio è da buttare? Secondo me no, e proverò a spiegare come rielaborarlo in modo più realistico nel prossimo articolo.


Ti piace questo articolo?

0 voti

Su Trovalost.it puntiamo sulla qualità dei contenuti da quando siamo nati: la tua sincera valutazione può aiutarci a migliorare ogni giorno.

Ti potrebbero interessare (News):

Cerca altro nel sito

Clicca sul box, e scegli la sezione per vederne i contenuti.