L’importanza dell’IPV6 nell’Internet Of Things



A cura di Alessio Sciuto, il


L’importanza dell’IPV6 nell’Internet Of Things

La creazione dell’IPv6 e la sua lenta sostituzione con l’IPv4 costituisce un’innovazione fondamentale per il futuro delle comunicazioni Internet.

La funzione principale dell’IPv6 è quella di aumentare la quantità disponibile di indirizzi basati su protocollo TCP/IP considerato che attualmente sono stati utilizzati 4,3 miliardi di indirizzi IPv4. IPv6 espande il numero di bit degli indirizzi di rete da 32 bit (in IPv4) a 128 che consentono di fornire un numero più che sufficiente di IP univoci a livello globale per tutti i dispositivi connessi alla rete nel pianeta. Questo è uno dei motivi principali per cui IPv6 costituisce una novità così importante per L’Internet of Things (IoT). I dispositivi che sfruttano una connessione ad internet stanno diventando sempre più popolari e mentre gli indirizzi IPv4 non soddisfano la domanda di tali dispositivi, IPv6 fornisce una piattaforma su cui operare per molto tempo a venire.

Esistono decine di motivi per cui IPv6 sia migliore dell’IPv4. Esaminiamone i principali.

Sicurezza

Con miliardi di nuovi prodotti smart creati ogni giorno, la sicurezza è considerata un fattore chiave dagli ingegneri IoT in fase di progettazione. Le organizzazioni e gli individui hanno appreso dal passato, anche a caro prezzo, le minacce che possono rappresentare gli hacker. La buona notizia è che IPv6 offre soluzioni di sicurezza migliori rispetto al suo predecessore.

Innanzitutto IPv6 può eseguire crittografia end-to-end. Anche se questa tecnologia è stata utilizzata con l’IPv4, non è sempre stata attuata. Invece in IPv6 costituisce uno standard adottato per tutte le connessioni e supportato da tutti i sistemi e dispositivi compatibili.

IPv6 supporta anche una risoluzione dei nomi più sicura. Il protocollo Secure Neighbor Discovery (SEND) è in grado di accertare l’identità di un host rendendo più difficili gli attacchi ARP Poisoning. Con IPv4 è abbastanza semplice per un utente malintenzionato reindirizzare il traffico tra due host legittimi e manipolare o vedere in chiaro la conversazione, cosa resa più difficile da IPv6.

Scalabilità

Secondo un rapporto emesso da Gartner si stima che entro il 2020 saranno circa 25 miliardi i dispositivi connessi a Internet. Si tratta di una stima abbastanza incredibile, considerato che lo stesso rapporto evidenziava 4,9 miliardi di dispositivi connessi nel 2015. Questo presunto aumento del 400% in soli cinque anni ci fa capire quanto sia esponenziale la crescita di tali dispositivi e di cosa ci si può aspettare di vedere nei prossimi 10, 20 o 50 anni. Alla luce di questi numeri è facile capire perché IPv6 (ed i suoi miliardi di miliardi di nuovi indirizzi) sono importanti per i dispositivi IoT. I creatori dei prodotti IoT che sono connessi mediante protocollo TCP/IP possono stare certi che il nuovo standard garantirà un identificatore univoco disponibile per i loro dispositivi per molto, molto tempo.

Connettività

Considerati i miliardi di dispositivi IoT che ogni anno vengono introdotti nel mercato, il concetto di connettività è di vitale importanza.

Con IPv4 vi sono stati un po’ di problemi nel permettere ad i dispositivi IoT di poter comunicare tra di loro. Network Address Translation (NAT) ha posto uno di questi grandi problemi. IPv6 permette ad i prodotti IoT di essere identificati univocamente senza dover risolvere tutti i tradizionali problemi di firewall e NAT. I dispositivi host più grandi ed avanzati dispongono di tutti i tipi di tool che consentono di lavorare più agevolmente con firewall e router NAT, ma i piccoli endpoint IoT non lo consentono. Utilizzando IPv6 molte di queste problematiche diventerebbero più semplici da gestire da parte dei dispositivi.

Conclusioni

Le organizzazioni che oggigiorno scelgono di reagire per affrontare l’esaurimento inesorabile degli indirizzi IPv4 riscontrano difficoltà da parte dei clienti. Il passaggio all’innovazione sarà piuttosto complesso e saranno necessarie molte risorse per sostenere gli investimenti. Si rende pertanto necessario avere un piano. In tal senso Cisco fornisce delle linee guida che possano essere d’aiuto alle imprese e fornitori di servizi. L’approccio utilizzato da Cisco si basa su 3 concetti: “Preserve”, “Prepare” e “Prosper”.

  • Preserve: Risparmiare le risorse attuali da investire su IPv4 per valutare le proprie esigenze e disponibilità nel transitare a IPv4.
  • Prepare: Predisporsi ad una nuova crescita con progetti basati su soluzioni certificate IPv6-ready. Creare progetti che non danneggino l’infrastruttura di rete esistente basata su IPv4.
  • Prosper: Cisco aiuta l’impresa nel mantenere la business continuity durante la crescita dell’innovazione. IPv6 permette una crescita continua anche in quei settori un tempo inaccessibili come micro-prestiti effettuati da dispositivi mobili per le piccole imprese nei Paesi nel terzo mondo oppure le organizzazioni di formazione in grado di raggiungere gli studenti sparsi nei vari continenti.

 

Continua a leggere





Information Security e Dintorni



A cura di Giorgio Benvegna, il


Information Security e Dintorni

Tratto da: Cesare Gallotti - “Sicurezza delle informazioni - Valutazione del rischio – I sistemi di Gestione – La norma ISO/IEC 27001:2013 “

Da sempre l’uomo ha sentito la necessità di avere le proprie informazioni al sicuro. In particolare, desideriamo che i dati personali (per esempio, il nostro stato di salute e il nostro estratto conto) siano accessibili solo a poche fidate persone e siano accurati e corretti, che non vengano utilizzati impropriamente per telefonarci a casa o diffamarci pubblicamente sui social network e che siano velocemente disponibili, soprattutto su Internet. Quanto detto riguarda la percezione individuale di cosa si intende per “sicurezza delle informazioni”. Anche un’impresa o un qualsiasi ente ha una percezione di cosa si intende per “sicurezza delle informazioni”, tutto ciò che riguarda la segretezza dei progetti innovativi e dei propri clienti, l’accuratezza di tutti i dati economici e di produzione, la disponibilità dei sistemi informatici.

Il termine sicurezza, però, cela in sé una contraddizione. Sicurezza, infatti, fa venire in mente qualcosa di assoluto e incontrovertibile, cioè qualcosa di impossibile nella realtà.

Spesso si dice che Fort Knox, dove si trovano le riserve monetarie degli USA, è uno dei luoghi più sicuri al mondo: sofisticati sensori, barriere perimetrali e allarmi sono tutti ai massimi livelli. Come se tutto ciò non bastasse, è sede di un comando di Marines pronti a intervenire per qualsiasi problema. Fort Knox è riconosciuto come sinonimo di luogo sicuro. Ma come reagirebbe la struttura a un impatto con un meteorite di un chilometro di diametro?

Come si può vedere da questo semplice esempio, non ha senso parlare di sicurezza in senso assoluto, ma solo in senso relativo. Fort Knox non è infatti resistente ad un grosso meteorite. Per questo motivo bisogna diffidare di chiunque offra prodotti o soluzioni sicuri al 100%. Una tale affermazione classifica subito la persona come scarsamente competente o come un imbonitore che vuole vendere qualcosa.

Deve essere individuato il livello adeguato di sicurezza che si vuole ottenere attraverso la valutazione del rischio. Il livello di sicurezza deve essere raggiunto attraverso opportune azioni di trattamento. Nel caso in cui quel livello non possa essere raggiunto, le carenze devono essere analizzate e, se il caso, accettate.

Nel tempo, la valutazione deve essere ripetuta per verificare se il livello di sicurezza desiderato e quello attuato siano ancora validi. Queste attività di valutazione, azione o accettazione e ripetizione costituiscono la gestione del rischio (risk management).

I controlli di sicurezza, ossia le misure utili per garantire la sicurezza delle informazioni sono soprattutto di tipo organizzativo e non tecnologico. Infatti, buoni processi portano a scegliere buoni e adeguati prodotti e a gestirli correttamente. Non è vero l’inverso: un buon prodotto non conduce ad avere buoni processi.

La sicurezza delle informazioni è stata oggetto di attenzione sin dagli albori dell’umanità, basta pensare ai misteri collegati a diverse religioni. Per quanto riguarda il passato, Cesare parla di sistemi per evitare l’intercettazione dei messaggi in guerra (al capitolo 48 del libro V del De bello gallico); l’utilizzo della partita doppia per garantire l’integrità della contabilità, descritta nel 1494 da Luca Pacioli, è sicuramente precedente al Duecento.

Nelle imprese, fino alla diffusione dell’informatica, la sicurezza delle informazioni si riferiva ai documenti cartacei e alle comunicazioni orali; oggi deve comprendere anche la sicurezza informatica.

Questa, fino agli anni Novanta, era gestita dagli addetti informatici, senza alcun collegamento con la tutela del patrimonio, ossia con la corporate security, anche se i rischi di furto di informazioni e di spionaggio erano comunque presi in considerazione.

In quegli anni si verificarono fenomeni importanti relativamente all’informatica e al contesto economico e sociale:

  1. la diffusione degli strumenti informatici, grazie ai personal computer e a interfacce sempre più intuitive: Microsoft Windows è del 1985 e Mosaic, il primo browser grafico per navigare sul web, è del 1993;
  2. l’aumento delle minacce informatiche note al grande pubblico: il primo virus, quello di Morris, è del 1988;
  3. la pubblicazione di normative con riferimento alla sicurezza informatica: nel 1993 fu emendato il Codice Penale per includervi i casi di criminalità informatica (Legge 547) e nel 1996 fu emanata la prima versione della Legge sulla privacy (Legge 675) a cui fu affiancato nel 1999 un disciplinare tecnico (DPR 318);
  4. l’aumento della conflittualità sociale dovuto alle ristrutturazioni di tante imprese;
  5. il ricorso a sempre più numerosi fornitori e l’aumento di relazioni con attori esterni (outsourcer, telelavoratori, lavoratori a tempo, stagisti, consulenti, clienti, fornitori etc.)

Tutto questo ha fatto percepire come rilevanti le minacce relative alla sicurezza delle informazioni in generale e informatica in particolare, come: dipendenza da partner e fornitori, comunicazioni inconsapevoli di informazioni riservate, reati informatici, sabotaggi, perdita di competenze, gestione di tecnologie complesse, spionaggio industriale, “furto” di dipendenti chiave.

Negli anni Novanta cambia anche l’approccio alla sicurezza delle organizzazioni: si specializzano gli ambiti di intervento (informatica, siti fisici, persone) perché richiedono diverse competenze, si stabiliscono delle priorità di intervento sulla base di valutazioni del rischio e, in generale, si percepisce la sicurezza come attività indispensabile per garantire la sostenibilità delle organizzazioni nel tempo. Negli anni, le esigenze di sicurezza non si sono ridotte. Questo a causa degli eventi più recenti (11 settembre, spionaggio industriale), delle evoluzioni normative in materia di sicurezza delle informazioni e della sempre crescente globalizzazione delle imprese.

Per tutti questi motivi sono state introdotte metodologie e pratiche per rendere più strutturate le attività riguardanti la sicurezza delle informazioni. Tra le iniziative più importanti si ricordano quelle relative alla sicurezza dei prodotti e sistemi informatici (TCSEC del 1983, ITSEC del 1991, Common Criteria del 1994 e le Special Publication del NIST1 emesse dai primi anni Novanta), alla sicurezza delle informazioni (BS 7799 del 1995, di cui si approfondirà la storia nel paragrafo 13.4) e alle metodologie di valutazione del rischio relativo alla sicurezza delle informazioni (CRAMM del 1987, Marion del 1990 e Mehari del 1995).

Continua a leggere





L’evoluzione dell’hard disk: passato, presente e futuro dello storage (2° parte)



A cura di Ottavio Meccio, il


L’evoluzione dell’hard disk: passato, presente e futuro dello storage (2° parte)

Ci eravamo lasciati alla fine degli anni ‘80 del secolo scorso, con i personal computer che si stavano diffondendo sulle scrivanie e nelle case degli utenti e con le esigenze di storage che andavano quindi diversificandosi tra quelle aziendali e quelle del mercato “consumer”.

L’allargamento del bacino di utenza dei computer diede un fortissimo impulso ai produttori di hard disk, tanto che durante gli anni ‘90 si assistette ad una vera e propria esplosione delle densità di memorizzazione, con l’introduzione del primo hard disk da 1 gigabyte nel formato 3,5 pollici e con la comparsa dei primi drive da 2,5 pollici specificatamente prodotti per il nascente mercato dei computer portatili. Inoltre la velocità di rotazione dei dischi crebbe fino a raggiungere i 7200 giri/min per gli hard disk IDE e i 10.000 giri/min per gli hard disk SCSI.

Alla fine del secolo, i dischi avevano raggiunto una capacità di archiviazione dell’ordine dei 20 gigabyte al costo di circa 240 dollari. Per fare un paragone, nel 1980 ci volevano 240.000 dollari per avere un gigabyte di spazio di archiviazione; nel 1990 di dollari ne “bastavano” 8.000; alla fine degli anni ‘90 il costo era di circa 12 dollari al gigabyte, cioè 200.000 volte in meno del 1980.

Cominciarono a comparire soluzioni che permettevano l’archiviazione dei dati direttamente tramite rete LAN, senza la necessità di appoggiarsi a grossi file server. Queste soluzioni, chiamate NAS (Network-attached Storage), contenevano due o più dischi, spesso configurati in array RAID, e permettevano di centralizzare l’archiviazione dei dati in un dispositivo altamente specializzato e accessibile a tutti gli utenti della rete.

Negli anni 2000 la velocità di rotazione dei dischi si spinse fino a 15000 giri/min e, proprio per venire incontro alle maggiori esigenze di throughput dei personal computer, fu sviluppata una nuova interfaccia di comunicazione chiamata SATA (Serial ATA) che andò pian piano a sostituire l'ormai vetusta ATA (rinominata P-ATA, cioè Parallel-ATA, con riferimento al metodo con il quale i dati viaggiano sul cavo). SATA è attualmente lo standard utilizzato in quasi tutti i dischi rigidi ad alta capacità e basso costo.

Grazie all’introduzione della tecnologia di lettura/scrittura PMR (perpendicular magnetic recording) la capacità dei dischi crebbe fino a superare il terabyte di dati per singolo disco.

La crescita dell'e-business e le necessità di throughput sempre maggiori dei database relazionali, portò alla nascita dell’interfaccia SAS (Serial Attached SCSI) specificatamente progettata per i server: similmente all’interfaccia SATA, essa utilizzava un protocollo seriale point-to-point per il trasferimento dei dati ed era molto più performante delle altre interfacce SCSI.

Contemporaneamente, le esigenze di immagazzinamento dati sempre maggiori, la necessità di unire le risorse computazionali di più server per lavorare in cluster, il crescente ricorso alla virtualizzazione, fece nascere l’esigenza di separare la parte computazionale dei server da quella di storage, invertendo quel processo di integrazione computer-storage che era nato all’inizio degli anni ’80.

La nascita di protocolli di comunicazione come iSCSI (Internet SCSI), che permette di inviare comandi SCSI a dispositivi di archiviazione fisicamente collegati a NAS o ad altri dispositivi remoti utilizzando il protocollo TCP/IP, permise di consolidare l'archiviazione dei dati su dispositivi non connessi direttamente ai server (Direct Attached Storage) ma collegati a questi attraverso una rete LAN ad alta velocità. In questo modo si aveva la possibilità di utilizzare dispositivi di storage remoti in luogo di dischi fisici localmente connessi. Una rete LAN il cui scopo principale è il trasferimento di dati tra sistemi di computer ed elementi di storage e tra gli elementi di storage stessi, è chiama SAN (Storage Area Network).

Attualmente, la disponibilità di dispositivi di rete ad alte prestazioni, insieme con i nuovi standard per il cablaggio strutturato, ha reso possibile l'utilizzo di un design gerarchico che ha consentito di mettere i server e i dispositivi di storage in un locale specifico all'interno dell'azienda, chiamato Data Center. All’interno dei Data Center, l’insieme dei dispositivi di storage, spesso composti da array di centinaia di dischi SCSI che raggiungono capacità complessive nell’ordine delle centinaia di terabyte, gestiti da controller dedicati e con un’affidabilità del 99,999 per cento, è chiamato Data Store ed è collegato ai server attraverso una rete SAN.

Ma quel è il futuro degli hard disk ?

In poco più di 50 anni, il prezzo al megabyte di un hard disk è sceso dai 2.000 dollari del 1960 ai circa 0,00005 dollari di oggi. Ma attualmente la tecnologia degli  hard disk basata su dischi magnetici rotanti ha raggiunto i suoi limiti: la massima capacità raggiunta oggi da un singolo disco rigido è nell’ordine dei 10 terabyte per i dischi da 3,5 pollici e dei 4 terabyte per i dischi da 2,5 pollici, con tempi di accesso ai dati che vanno dai 4 ai 9 millisecondi e la velocità di lettura massima nell’ordine dei 300 megabyte/sec.

Inoltre, l’utilizzo di reti SAN basate su collegamenti in fibra ottica di tipo Fibre Channel, che hanno aumentato ulteriormente la banda a disposizione, e l’elevata densità di dischi presenti in ambienti di storage enterprise, che si traduce in consumi elettrici elevati e grandi quantità di calore prodotto, unita alla maggior delicatezza insita in un dispositivo di tipo meccanico, ha reso questi limiti ancora più evidenti, inducendo molte aziende ad interessarsi alla tecnologia flash memory anche per i dispositivi di storage di tipo enterprise.

Una flash memory è una memoria a stato solido di tipo non volatile che per le sue prestazioni, il basso consumo di energia, il basso sviluppo di calore e l’assenza di parti meccaniche in movimento, sta soppiantando in moltissimi ambiti l’uso dell’hard disk di tipo tradizionale.

I dispositivi di memorizzazione di massa basati su memoria flash sono chiamati SSD (Solid-state Drive) e hanno interfacce di tipo SATA, SAS o SCSI in maniera del tutti simile ai normali hard disk.

I vantaggi principale delle unità SSD rispetto agli hard disk tradizionali, sono:

  • Totale assenza di rumorosità
  • Maggiore resistenza agli urti
  • Minori consumi
  • Minor calore prodotto
  • Tempi di accesso inferiore a 0,5 millisecondi
  • Velocità di lettura massima nell’ordine dei 1000 megabyte/sec
  • Non necessitano di deframmentazione.

Inoltre sono in fase di sperimentazione SSD con capacità di 100 terabyte in un normale fattore di forma da 2,5 pollici, mentre si prevede che gli hard disk tradizionali, per via dei limiti tecnologici, non raggiungeranno mai tali capacità. Nonostante i molti benefici, la tecnologia flash ha ancora alcuni svantaggi rispetto al disco rigido:

  • Prezzo al gigabyte più che doppio rispetto agli hard disk tradizionali, il che si traduce in minor capacità a parità di costo.
  • Peggiore permanenza dei dati quando non alimentati e a seconda della temperatura d'esposizione.
  • Ciclo di vita dell’unità predeterminata dal numero massimo cicli di scrittura che una cella può sopportare (tipicamente 1000 cicli a cella)

Ma i problemi di questa tecnologia sembrano destinati a risolversi in futuro molto prossimo, tanto è vero che molte aziende hanno già iniziato ad offrire soluzione All-Flash come parte della loro offerta di storage per il segmento enterprise. 

Allo stato attuale, si può affermare che le unità SSD non sostituiranno immediatamente gli hard disk come dispositivo primario nella storage enterprise ma non ci vorranno molti anni affinché il costo delle memoria flash scenda a livelli tali da essere concorrenziale. Inoltre, le nuove tecnologie consentiranno di produrre chip in grado di garantire una permanenza dei dati pari o superiore a quella degli hard disk tradizionali, rendendo questa tecnologia la soluzione ideale per qualsiasi esigenza di archiviazione futura, e relegando i vecchi ma ancora affidabili hard disk al ruolo di unità utili solo per il backup o per carichi di lavoro di tipo sequenziale.

 

Continua a leggere





I professionisti della sicurezza devono ridefinire le proprie strategie di difesa


Tratto dal “Report annuale di Cisco sulla sicurezza 2016”


A cura di Giorgio Benvegna, il


I professionisti della sicurezza devono ridefinire le proprie strategie di difesa

In passato molti criminali informatici si nascondevano nei meandri di Internet. Per eludere il rilevamento, effettuavano solo brevi incursioni nelle reti aziendali per lanciare i propri attacchi. Oggi alcuni criminali informatici più audaci utilizzano risorse online legittime. Prosciugano la capacità dei server, sottraggono dati e richiedono il riscatto alle vittime online, di cui tengono i dati in ostaggio. Queste campagne sono un aspetto preoccupante della guerra tra hacker e professionisti della sicurezza.

Se gli autori degli attacchi trovano più posizioni online da cui operare, allora la forza di impatto può crescere in maniera esponenziale. Gli hacker continuano ad adottare metodi sempre più articolati per incrementare i profitti e molti dedicano particolare attenzione allo sfruttamento delle risorse server. L'enorme diffusione del ransomware ne è un chiaro esempio. Il ransomware assicura ai criminali un modo semplice per sottrarre più denaro direttamente dai singoli utenti.

Le campagne che compromettono decine di migliaia di utenti al giorno, con poche o nessuna interruzione, possono generare guadagni sconcertanti. Oltre a sviluppare metodi più efficaci per finanziare le proprie campagne, gli hacker violano le risorse legittime per usarle come terreno di attacco. I creatori di alcune varianti di ransomware nonché gli sviluppatori di exploit kit stanno gradualmente spostando il traffico su siti Web violati di WordPress per eludere il rilevamento e utilizzare lo spazio nel server.

Come indicato nel Report semestrale di Cisco sulla sicurezza 2015, le criptovalute, come bitcoin, e le reti di anonimizzazione, come Tor, facilitano l'ingresso dei criminali informatici nel mercato del malware per realizzare profitti immediati. La diffusione del ransomware può essere collegata a due vantaggi principali: è un'operazione che richiede poca manutenzione da parte dei malintenzionati e garantisce un metodo veloce per guadagnare, perché gli utenti pagano gli hacker direttamente in criptovalute.

Di fronte all'emergere di minacce sempre più sofisticate, la fiducia degli esperti della sicurezza sembra diminuire. D'altro canto, la maggiore preoccupazione cambia il modo in cui i professionisti proteggono le reti. Ad esempio, si assiste a un aumento della formazione sulla sicurezza, a una crescita nel numero delle policy formali scritte e a una maggiore esternalizzazione di attività come i controlli di sicurezza, la consulenza e la risposta agli incidenti. In breve, gli esperti della sicurezza si dimostrano più attivi nel combattere i rischi che minacciano le proprie reti.

Il maggiore ricorso alla formazione e all'esternalizzazione sono certamente aspetti positivi, ma il settore della sicurezza non può limitarsi a questo. Occorre continuare ad aumentare l'adozione di strumenti e processi per migliorare il rilevamento, il contenimento e la risoluzione delle minacce. Date le barriere rappresentate dai limiti di budget e dalla compatibilità delle soluzioni, il settore deve anche esplorare soluzioni efficaci che offrano una difesa integrata dalle minacce. Il settore deve inoltre migliorare la collaborazione tra le aziende quando si verificano violazioni pubbliche.

Secondo lo studio Cisco, un segnale della flessione di tale fiducia da parte dei professionisti della sicurezza è il fatto che siano un po' meno sicuri delle proprie tecnologie. Nel 2014 il 64% dichiarava che la propria infrastruttura di sicurezza era all’avanguardia e veniva costantemente aggiornata. Nel 2015 tale percentuale è scesa al 59%. Inoltre, nel 2014 il 33% ha affermato che la propria azienda non era fornita di strumenti di sicurezza aggiornati; il numero è salito al 37% nel 2015.

Come dimostra lo studio, i professionisti della sicurezza stanno prendendo consapevolezza della realtà. La fiducia degli esperti della sicurezza nella loro capacità di bloccare gli hacker vacilla. Tuttavia, la lezione appresa dagli exploit di alto profilo ha avuto un impatto positivo sul settore, a giudicare dall'aumento della formazione sulla sicurezza e dello sviluppo di policy formali. Inoltre, la più frequente esternalizzazione dei controlli e dei servizi di risposta agli incidenti indica che i responsabili della sicurezza cercano l'assistenza di esperti. Le aziende devono continuare a misurare le proprie capacità in termini di sicurezza informatica e i professionisti della sicurezza devono promuovere la crescita del budget destinato alla tecnologia e al personale.

Inoltre, la fiducia aumenterà quando i professionisti della sicurezza adotteranno strumenti in grado non solo di rilevare le minacce, ma anche di contenerne l'impatto e di facilitare la prevenzione degli attacchi futuri.

Continua a leggere





Gli incidenti informatici tra le principali cause di interruzione delle attività



A cura di Gaetano Luca, il


Gli incidenti informatici tra le principali cause di interruzione delle attività

Dal 5° sondaggio annuale sui rischi aziendali pubblicato da Allianz Global Corporate & Specialty (AGCS), che ha coinvolto oltre 800 risk manager ed esperti nel campo assicurativo di più di 40 Paesi, è emerso per il quarto anno consecutivo che l’interruzione delle attività rimane il rischio principale. Le nuove potenziali cause di perdite sono gli attacchi informatici, l’instabilità geopolitica e i guasti IT.
L’evoluzione del mercato e gli incidenti informatici appaiono per la prima volta fra i tre principali rischi a livello mondiale. L'interruzione delle attività e della supply chain rimane il rischio principale per le aziende (38%), in seconda posizione l’evoluzione del mercato (34%) e in terza gli incidenti informatici (28%).

Gli incidenti informatici sono aumentati di ben 11 punti percentuali rispetto all’analisi precedente e su base decennale vengono addirittura prospettati in prima posizione sullo stesso sondaggio. I rischi sono prevedibilmente riconducibili ad attacchi hacker, violazioni dei dati e guasti IT. Il rapporto mostra quindi che la percezione del rischio da parte delle imprese sta cambiando in maniera sostanziale. Le nuove tecnologie, l'aumento della digitalizzazione e l’internet delle cose stanno modificando il comportamento degli imprenditori e influenzando l’operatività industriale e i modelli di business.

Su questo punto, qualche riflessione in più aiuterebbe i manager: le aziende sono preoccupate per la maggiore sofisticazione degli attacchi informatici, ma tendono a sottovalutare i guasti IT che causano costosi blackout. Da qualche tempo è ormai diffuso tra utenti consumer e soprattutto business il famigerato virus cryptoloker, uno dei più potenti virus informatici odierni che sta mettendo alle strette numerose organizzazioni impreparate a questo tipo di attacchi. In pochi minuti è in grado di crittografare tutti i file del pc locale, della rete aziendale a cui è collegato e delle eventuali risorse di rete condivise.

 E’ certo che un buon sistema di backup, basato su tecnologie attuali, potrebbe ridurre al minimo i rischi di perdite ed interruzioni. Allo stesso modo i rischi collegati ai guasti IT possono ridursi intervenendo con delle soluzioni progettuali mirate alla continuità di servizio delle infrastrutture informatiche che, se dotate di procedure e funzionamenti di replica dei sistemi, garantiscono un recupero immediato delle attività.

Gli attacchi informatici, i blackout ed i disastri stanno aumentando per frequenza e gravità; questo dovrebbe portare le aziende a non sottovalutare la pericolosità di un guasto tecnico operativo che può generare rilevanti disservizi del sistema IT, provocando danni alla produzione e alle supply chain. Al fine di minimizzare questi numerosi rischi, che col tempo saranno certamente più numerosi e complessi da fronteggiare, è necessaria una programmazione di attività ed interventi atti a migliorare e a rendere efficiente il controllo dei sistemi aziendali per evitare gravi perdite informatiche che causerebbero l’interruzione delle attività. 

Continua a leggere





 1