Un universo bilanciato e sicuro



A cura di Giorgio Benvegna,


Un universo bilanciato e sicuro

Un “vecchio” testo universitario di reti, nel capitolo relativo allo stato applicativo dello stack ISO/OSI introduceva il paragrafo relativo alle metodologie per il miglioramento delle prestazioni di internet nel seguente modo: “La popolarità del Web è sempre stata la sua rovina. Server, router e linee sono spesso sovraccarichi. Molte persone hanno iniziato a chiamare il WWW con il nome World Wide Wait" (“wait” in inglese significa “aspettare” - Reti di calcolatori Andrew S. Tanenbaum quarta edizione).

Dopo questa esternazione, iniziava l’elenco di metodologie che avevano la prerogativa di migliorare l’affidabilità e le prestazioni di Internet, quale l’utilizzo della cache nei browser e nei proxy, il mirroring dei server con conseguente scelta, ad arbitrio dell’utente, del “mirror” a cui collegarsi. Se si pensa a quello che internet è oggi, risulta evidente che la popolarità non è stata la sua rovina, ma sicuramente è stata ed è una problematica alla quale porre attenzione.

Nella storia recente di internet si è potuto assistere a vere e proprie piccole catastrofi dovute al sottodimensionamento di server, che dovevano in intervalli ristretti di tempo fare fronte ad un numero di richieste anomalo e che hanno avuto anche importanti riscontri mediatici. I miei conterranei, sicuramente ricorderanno il recente “flop day”, termine con il quale è stata declinata la vicenda del “click day”, iniziativa della Regione Sicilia che ha lasciato con l’amaro in bocca migliaia di ragazzi che ambivano ad un tirocinio presso un’azienda e che ha imbarazzato non poco i vertici della politica Siciliana fallendo miseramente e inesorabilmente dietro l’inadeguatezza dell’infrastruttura scelta.

Spesso i problemi che l’IT si trova ad affrontare non sono infrastrutturali, le risorse quali banda e potenza elaborativa, pur essendo presenti non sono utilizzate in modo adeguato, e il problema di bilanciare le richieste viene affidato a metodi e strumenti improvvisati e non affidabili. Il load balancing, in italiano bilanciamento del carico, è una tecnica informatica che consiste nel distribuire il carico di elaborazione di uno specifico servizio, ad esempio la fornitura di un sito web, tra più server. Si aumentano in questo modo la scalabilità e l'affidabilità dell'architettura nel suo complesso. Quindi, bilanciando le richieste di applicazione su più server, si impedisce ad un application server di diventare un single point of failre, in modo da migliorare la disponibilità delle applicazioni e la reattività complessiva. Ad esempio, quando un application server non è disponibile, il bilanciamento del carico indirizza semplicemente tutte le nuove richieste di applicazione ad altri server disponibili.

L’impiego dei bilanciatori di carico, permette anche di migliorare l'utilizzo delle risorse elaborative e massimizzarne la disponibilità. È il metodo più semplice per scalare verso l’alto l’infrastruttura; all’aumentare della domanda applicativa, nuovi server possono essere facilmente aggiunti al pool di risorse, e il bilanciamento del carico inizierà immediatamente l'invio di richieste al nuovo server. Le tecniche di bilanciamento di carico di prima generazione, sebbene rappresentino valide soluzioni per migliorare la disponibilità e la scalabilità dell'infrastruttura di un'organizzazione, la espongono a una serie di rischi legati a problematiche di sicurezza. I prodotti di nuova generazione forniscono un approccio molto più efficiente ed efficace. Questi apparati fisici e virtuali strettamente integrati forniscono non solo le funzionalità di base di bilanciamento del carico, ma anche i massimi livelli di sicurezza e prestazioni per le applicazioni Web critiche di business di oggi.

La necessità di garantire sicurezza ai massimi livelli per i datacenter non è mai stata così alta. Alle sfide e ai problemi tradizionali, inclusi i numerosi requisiti normativi, all’aumento degli attacchi mirati e alla continua erosione dei modelli di sicurezza perimetrali, si è ora aggiunta la necessità di dover considerare architetture cloud aziendali altamente dinamiche e reti flat con un minor numero di potenziali punti di criticità. Aggiungete la sempre crescente necessità di fare di più con meno risorse e diventa chiaro che la base per una maggiore sicurezza deve essere costruita utilizzando l’infrastruttura esistente del datacenter. Un prodotto sicuramente interessante da questo punto di vista è sicuramente Citrix NetScaler, un ottimo controller di distribuzione delle applicazioni (ADC) per realizzare reti cloud aziendali, che rappresenta un’ottima soluzione al problema.

NetScaler, oltre ad essere un componente strategico presente già in migliaia di datacenter aziendali, offre un portafoglio completo di feautures essenziali per la sicurezza dei datacenter, minimizzando la necessità di investire in un ampio numero di soluzioni di sicurezza costose e autonome. Esso infatti non solo fornisce sicurezza per applicazioni importanti e critiche, sicurezza per reti/infrastrutture e gestione delle identità e degli accessi, ma supporta anche un ampio ecosistema di prodotti di partner per coprire gli ambiti di sicurezza complementari.