Ieri pomeriggio riceviamo una chiamata da un cliente. “Ciao, stamattina ho acceso il notebook e non parte. Rimane lo schermo nero e il cursore lampeggiante”. Risposta del supporto tecnico: ”Mandiamo qualcuno a vedere cosa succede, ciao”.
Il tecnico incaricato si reca presso il cliente ed esegue alcune verifiche. La macchina non riparte e non c’è nulla da fare. Va formattata e reinstallata da zero.
Questa mattina sentiamo il cliente per capire cosa contenga la macchina in questione, per sapere se e cosa salvare prima di formattare. Ovviamente la risposta è: “Eh beh, ci sono dentro tutti i dati aziendali!”.
La cosa simpatica è che il cliente in questione ha un server, sul quale sono presenti delle procedure di salvataggio dati automatiche e continuative. Quindi viene da chiedersi: perché i dati aziendali vitali sono sul notebook e non sul server? Poniamo la domanda al cliente.
”Beh li tengo sul portatile perché ci lavoro continuamente, è più comodo, non mi fido a tenerli sul server dove magari potrebbero andare persi…”. Insomma, una serie di baggianate. Ma continua dicendo: “Comunque non preoccuparti perché ho installato un programma di backup (Uranium Backup) che salva tutti i giorni i dati dal portatile al server. Formatta pure tranquillamente, al massimo perdo qualche dato personale, ma nulla di importante”.
Ovviamente dal supporto tecnico non si fidano, e quindi chiedono: “Fai una cosa, controlla bene e verifica di avere tutti i dati. Attendiamo una tua chiamata prima di formattare”.
La chiamata del cliente arriva dopo pochi minuti. “Eh, la situazione è grave… Ho visto che il backup del portatile è fermo al 2013…”
Questa storia realmente accaduta è in realtà una vicenda ricorrente. L’utente, come al solito, non si rende conto dell’importanza dei dati che tiene sul proprio computer fino al momento in cui questi diventano inaccessibili. La sicurezza viene trascurata e, ammesso che la metodologia di salvataggio sia efficace, non pensa mai a controllare che le copie siano accessibili e aggiornate. Qualche tempo fa ho scritto un articolo che parlava degli script di backup notturni. Se installato e gestito da “amatori”, il programma di backup professionale presenta gli stessi rischi dello script fatto “da mio cugino che capisce di computer”. Infatti è molto probabile che appena installato il software funzioni regolarmente, ma è ancor più probabile che dopo un mese abbia smesso di funzionare per qualche ragione.
L’utilizzo e la conservazione dei dati aziendali devono essere assoggettati a procedure, anche mentali, molto rigide. Tutti i dati devono risiedere in una posizione centrale e backuppati con una frequenza tale da ridurre l’RPO e in modo tale da minimizzare l’RTO. Se un PC è critico e contiene dei dati che non possono essere archiviati su server, esso deve essere protetto con le stesse metodologie applicate al server in quanto rappresenta lo stesso livello di criticità.
Per ottenere maggiori informazioni in merito alle strategie di protezione dei dati, RPO, RTO e molto altro, richiedi gratuitamente il mio ebook “Guida alla realizzazione di un Disaster Recovery Plan” iscrivendoti alla newsletter e continua a seguire il blog.
Ultimi post di Andrea Monguzzi (vedi tutti)
- La vittima conosceva l’assassino - 1 gennaio 1970
- Ripartire dopo un danno? Il backup non sempre basta. - 1 gennaio 1970
- Perché l’Italia è senza speranza? - 1 gennaio 1970