Tempo ciclico ed evoluzione informatica: dal terminale al tablet



A cura di Giorgio Benvegna,


Tempo ciclico ed evoluzione informatica: dal terminale al tablet

Esistono due concezioni del tempo, quella lineare e quella circolare. La concezione lineare è rappresentata da un freccia che inesorabilmente corre verso il futuro, quella ciclica o circolare nella quale il tempo viene rappresentato da una ruota. In questa concezione tutti gli avvenimenti si ripetono in un incessante circolo. In alcune varianti tutto si ripete, in altre, i grandi cicli di nascita, crescita e morte si ripetono in maniera sempre diversa. Questo concetto di ciclicità temporale è stato sfruttato da varie dottrine, da quella economica a quella sociale, per spiegare le dinamiche che tendono a ripetersi, come per esempio i cicli economici che attraversano le fasi di prosperità, recessione, depressione e ripresa per ritornare alla fase di prosperità. Giusto per rendere l’idea, la prima rudimentale esposizione di ciclo economico la si può rinvenire nella Bibbia, Vecchio Testamento, Genesi 41, 2-7, [1][1] ed è interessante confrontarla, dopo migliaia di anni, con le attualissime regole anti-cicliche di Basilea III, sulle riserve di capitale delle banche, per ridurne la pro-ciclicità.

Più volte in questi anni, mi è capitato di approcciare progetti di consolidamento di Datacenter e ogni volta, mi è venuto naturale accostare il concetto di ciclicità al mondo informatico. Nei primi anni ‘60 gli studi sull’interfaccia utente avevano come obiettivo il raggiungimento dell’interattività. Era emersa l’esigenza di estendere l’utilizzo del computer ad un utenza sempre più vasta, ma l’alto costo delle macchine era un grosso impedimento. L’interattività entrava così in gioco, facendo in modo che più utenti potessero condividere uno stesso computer. Grazie al time sharing (partizione del tempo), ad un elaboratore centrale potevano essere collegati più terminali, i quali fornivano le loro istruzioni alla macchina e la stessa aveva il compito di dividere il suo tempo nell’esecuzioni di tutti i programmi. Un grande salto di qualità nell’interattività si ebbe negli anni ‘70 con l’introduzione del video terminale (VDU), che garantiva maggiore velocità di trasmissione dei dati e una buona qualità nella visualizzazione del testo. Per consentire agli utenti di muovere il cursore sullo schermo, vennero aggiunte le frecce direzionali sulla tastiera: iniziò ad introdursi una rappresentazione spaziale dell’informazione. Queste interfacce, definite command line interface (a linea di comando), erano ancora piuttosto povere e non così facili da capire e utilizzare.

La prima vera possibilità di far usare il computer a persone non esperte, si ebbe con l’introduzione della maschera dati, che aveva l’aspetto di un modulo con una serie di campi vuoti, in cui l’utente doveva inserire i dati richiesti. Grazie all’invenzione del microprocessore (il primo chip fu sviluppato nel 1971), nei primi anni ‘80 nacquero i primi personal computer da scrivania. Si iniziò a prediligere l’idea di un’unità di calcolo completamente autonoma, rispetto ai vari terminali collegati ad una stessa unità centrale. Scaturì l’esigenza di estendere l’uso del computer a persone non altamente specializzate. Di conseguenza, il problema di semplificare l’interazione uomo-macchina si fece più marcato. Negli anni ’80 la Microsoft decise di dare un’interfaccia grafica ad MS-DOS e la chiamò Windows. Con l’introduzione di Windows, la metafora della scrivania è diventata lo standard universale delle interfacce grafiche. In pratica gli oggetti di uso comune nel mondo reale, in particolare i tipici oggetti che si possono trovare nell’ambiente di un ufficio, sono ricreati in un mondo bidimensionale. Lavorando con il proprio PC oggi si ha a che fare con cartelle, forbici, gomme e cestino.
Era il 6 agosto 1991 quando Tim Berners-Lee mise on line il primo sito web dedicato alla comunità scientifica. L’iniziativa passò quasi inosservata, ma quell’idea avrebbe rivoluzionato la vita dell’intera società umana come ben sappiamo. Nel frattempo, la tecnologia ha fatto passi enormi, e lentamente tutti i colli di bottiglia sono stati eliminati nelle varie generazioni di sistemi. Le SAN hanno reso possibile l’archiviazione di quantità di informazioni inimmaginabile e le loro prestazioni hanno reso queste informazioni facilmente disponibili, la banda larga, fissa in un primo tempo e mobile successivamente, ha permesso di connettere i dispositivi del mondo in un’unica rete totalmente eterogenea, che rende di fatto le informazioni memorizzate nei sistemi centrali fruibili da qualsiasi dispositivo in qualsiasi parte del mondo. Le aziende hanno cominciato a consolidare e ricentralizzare tutti i servizi con la virtualizzazione che di fatto ha assunto la stessa valenza del time sharing degli anni 70. I personal computer sono stati progressivamente sostituiti nelle azioni di ogni giorno prima dai netbook e poi da tablet e smartphone e anche quando ancora presenti, vengono utilizzati per connettersi a “qualcosa”, all’ERP aziendale, a Google Drive, al WEB… Si è tornati ad una architettura client server e questo trend è in continuo aumento. Chiudo con una citazione di Thomas Burnett, studioso inglese del XVII secolo tratta dal suo «Teoria Sacra»:
“…il ritorno allo stesso stato, in un grande cerchio del tempo, sembra essere in accordo con i metodi della provvidenza, la quale ama recuperare, dopo certi periodi, ciò che andò perduto o si corruppe…” Thomas Burnett