L’evoluzione dell’hard disk: passato, presente e futuro dello storage (1° parte)

L’evoluzione dell’hard disk: passato, presente e futuro dello storage (1° parte)
5 settembre 2016 Ottavio Meccio

Il disco rigido è stato il punto fermo del settore dello storage fin da quando il primo hard disk fu installato nel 1956 e, con ogni probabilità, continuerà ancora per qualche anno a rimanere tale. Esistono già tecnologie che consentono di memorizzare una maggiore quantità di dati in minore spazio e con tempi di accesso inferiori rispetto ai dischi rigidi tradizionali (basti pensare alle ultime memorie flash con tecnologia 3D NAND), ma ad oggi la maggior parte dello storage mondiale si basa ancora su questa solida tecnologia e i tempi e i costi da affrontare per la sostituzione dei dischi rigidi tradizionali fanno pensare che ci vorrà ancora qualche anno prima che l’hard disk vada definitivamente in pensione. Facciamo un salto indietro nel tempo per esplorare quello che è stato lo sviluppo della tecnologia del disco rigido dalla sua nascita fino ai giorni nostri.

Già negli anni ’50 del secolo scorso, i primi elaboratori elettronici erano affiancati da memorie ausiliarie esterne che  permettevano di archiviare le informazioni: schede perforate, nastri e tamburi magnetici permettevano di registrare una sufficiente quantità di dati per l’epoca ma erano memorie ad accesso sequenziale, nella quali per accedere ad un’informazione era necessario scorrere tutte quelle che la precedevano o la seguivano in modo sequenziale. Nasceva l’esigenza di memorizzare i dati in modo da poterli richiamare rapidamente durante le fasi di elaborazione. L’introduzione del disco rigido, che con la sua caratteristica di essere una memoria ad accesso diretto diede per la prima volta la possibilità di raggiungere quasi istantaneamente qualsiasi dato registrato, ampliò notevolmente le possibilità applicative degli elaboratori.

Il primo disco rigido fu costruito nel 1956 ed era progettato per funzionare come unità di storage dei primi Mainframe: l’unità pesava circa una tonnellata, le dimensioni complessive superavano il metro e mezzo di lunghezza e permetteva di archiviare 5 megabyte di dati distribuiti su 50 piatti magnetici dal diametro di circa 60 cm l’uno. La scrittura e la lettura avvenivano tramite un’unica testina, montata su un braccio attuatore che si muoveva lungo la pila di piatti e posizionava la testina sul punto richiesto, il che rendeva il tempo di accesso ai dati estremamente alto. Pur essendo il primo hard disk, ancora non aveva questo nome: gli ingegneri lo chiamarono fixed disk (tanto che in italiano è rimasto in uso il termine disco fisso). Sarà chiamato con il nome hard disk solo nei primi anni ’70, per differenziarlo dal floppy disk.

Negli anni ’60 furono introdotti modelli più performanti, caratterizzati da braccio attuatore e testina separati per ogni piatto, in modo da eliminare la necessità di muovere il braccio lungo la pila di dischi. Inoltre, ora le testine si  muovevano su un sottile strato d’aria generato dalla rotazione dischi stessi e ciò permise di ridurre la distanza tra testine e dischi, aumentando la densità di memorizzazione e portandola a 25 megabyte di dati distribuiti su 20 piatti magnetici.

Per venire incontro alle esigenze di archiviazione di aziende di medie dimensioni, cominciarono ad affacciarsi sul mercato unità di memorizzazione che prevedevano, tramite un sistema a  carica dall’alto,  l’uso di pile di dischi rimuovibili dal diametro di 14 pollici detti disk pack. Quando non utilizzati, i disk pack erano conservati dentro gusci di plastica trasparente che li proteggevano dalla polvere e contenevano anche il meccanismo di rilascio dei dischi. Ovviamente le operazioni di rimozione e reinserimento dei disk pack nell’unità dovevano essere effettuate off-line. 

All’inizio degli anni ’70 fu sviluppato il Winchester disk  drive, considerato il vero antenato dei moderni dischi rigidi. Fu il primo hard disk ad essere sigillato con tutti i suoi elementi (dischi, bracci e testine). Questa versione “chiusa” garantiva una velocità di accesso molto maggiore: il tempo fu ridotto a 25 millisecondi. Una rivoluzione, tanto che per molti anni il termine Winchester fu sinonimo di hard disk. Ma perché Winchester? Il modello prese il nome in onore del fucile “30.30 Winchester” perché era composto da due dischi da 30 megabyte ciascuno.

Nel 1980 venne introdotto il primo sistema di storage che ruppe la barriera del gigabyte di dati di memorizzazione, grazie all’utilizzo della tecnologia thin-film, un particolare processo produttivo che permetteva di realizzare le testine di lettura/scrittura da una sottile pellicola semiconduttrice, permettendo di raggiungere velocità di lettura e densità di memorizzazione molto più elevate che in passato.

L’anno dopo Fujitsu introdusse l’M2351A (Eagle-1), il primo hard disk da 10.5 pollici e con un nuovo sistema di contenimento dei piatti, gettando le basi per la miniaturizzazione dei dischi rigidi che fino ad allora erano caratterizzati da  piatti da 14 pollici.

Con la diffusione del “personal computer” le necessità di storage si spostarono anche in abiti diversi dai Mainframe dei grossi centri di calcolo, coinvolgendo piccole imprese e liberi professionisti che però non potevano permettersi soluzioni da centinaia di migliaia di dollari. Non solo: fino a quel momento, gli hard disk occupavano molto spazio e richiedevano molta energia, tanto che alcune soluzioni avevano bisogno di alimentazione elettrica dedicata.

A cambiare radicalmente l’accesso alla tecnologia del disco rigido fu Seagate Technology: il modello ST-506 fu il primo hard disk da 5,25 pollici con capacità di 5 megabyte. Una riduzione significativa delle dimensioni e dei consumi ottenuta anche grazie all’idea di separare il controller del disco dal disco vero e proprio, spostandolo su una scheda da montare sul computer e creando un vero e proprio standard de-facto per molti produttori.

Pochi anni dopo fu introdotto il modello da 3,5 pollici con capacità di 10 megabyte, che diventerà il fattore di forma standard fino ai giorni nostri.

La strada ormai era tracciata e nella seconda metà degli anni ‘80 usciranno per il mercato dei personal computer, hard disk sempre più capienti ed economici.

Con la diffusione del personal computer, si cercò anche di standardizzare l’interfaccia di comunicazione dei dischi rigidi che fino a quel momento si basava su sistemi proprietari che legavano indissolubilmente il  calcolatore e il sistema di storage. Shugart Associates definì uno standard che aveva come obiettivo l’indirizzamento logico dei blocchi piuttosto che la loro ubicazione fisica nel drive. Questo standard fu chiamato SCSI (Small Computer Systems Interface) e permetteva, tramite un meccanismo di contesa del BUS, di collegare fino a 7 dischi allo stesso controller, cosa che ne decretò il successo e la diffusione in ambito mid-range e workstation come interfaccia di collegamento standard tra hard disk e calcolatore.

Questa rivoluzione inizialmente tocco in maniera marginale i Mainframe che continuarono fino alle fine degli anni ‘80 ad utilizzare le tecnologie consolidate, le quali offrivano livelli di robustezza e affidabilità non raggiungibili dai dispositivi sviluppati per il mercato dei personal computer.

Proprio per ovviare a questo divario di prestazioni tra le unità disco dei centri di calcolo e le più piccole e lente unità disco utilizzate nel settore del personal computer, alcuni ricercatori dell’Università di Berkley svilupparono un sistema che, combinando parecchi dischi a basso costo, riusciva ad essere  complessivamente migliore rispetto un singolo disco ad altre prestazioni, sia in termini di velocità che di affidabilità. Il sistema fu chiamo RAID (Redundant Array of Inexpensive Disks, in italiano “Insieme Ridondante di Dischi Economici”) e le varie implementazioni introdotte furono identificate con i numeri da 1 a 5 che oggi sono noti come “livelli” RAID. In particolare, il concetto di ridondanza impiegato nel sistema RAID fornì un metodo per il ripristino delle informazioni nel caso in cui uno di questi dischi si fosse guastato: in una array RAID infatti è possibile continuare a leggere e scrivere i dati anche se uno dei dischi è off-line.

Ma lo sviluppo di queste nuove tecnologie, l’incremento delle prestazioni e dell’affidabilità  e il crollo dei prezzi dei personal computer, portò ad una scossa nel mercato dei Mainframe: le aziende trovarono che i server basati su progettazione microcomputerizzata potevano essere impiegati a una frazione del prezzo di acquisizione dei Mainframe e offrire agli utenti locali un maggior controllo sui loro sistemi date le politiche IT del tempo. I terminali usati per interagire con i sistemi Mainframe furono quindi gradualmente rimpiazzati da personal computer. Conseguentemente, la domanda crollò e alla fine degli anni ‘80 le nuove installazione di Mainframe furono limitate soprattutto a macchine per servizi finanziari e governativi, mentre le piattaforme esistenti furono rimpiazzate da reti di personal computer. Di pari passo, i grossi sistemi di storage proprietari furono sostituiti da sistemi che contenevano array di dischi in RAID collegati a workstation tramite interfaccia SCSI, aprendo il mercato enterprise anche ai dischi a basso costo.

La miniaturizzazione dei componenti, l’abbattimento dei  costi e la standardizzazione dei dispositivi,  consentirono durante gli anni ’80 di portare il computer sulla scrivania (e nelle case) di molti utenti. Vennero realizzati programmi che permettevano di operare  su un computer senza saper programmare: fogli elettronici, programmi  di videoscrittura, database elettronici diventano fruibili da chiunque. Per venire incontro alle diverse esigenze di storage di questo nascente mercato “consumer”, che non aveva le stesse esigenze di prestazioni, affidabilità e ridondanza di quello aziendale ma anzi richiedeva dispositivi sempre più piccoli ed economici, venne sviluppata un’interfaccia di comunicazione più semplice ed economica, chiamata ATA (Advanced Technology Attachment). Conosciuta commercialmente anche col nome di IDE (Integrated Drive Electronics), questa interfaccia di collegamento era più lenta e meno  affidabile della SCSI e permetteva di collegare al massimo due dischi, ma era più che sufficiente per i personal computer da scrivania di allora.

Il nostro viaggio per ora si ferma qui. Nella seconda parte assisteremo al boom informatico degli anni ‘90 e arriveremo fino ai giorni nostri, per poi provare a prevedere quale sarà il futuro dell’hard disk.