Le tappe dell’evoluzione tecnologica

Le tappe  dell’evoluzione tecnologica dall’età della pietra ai nostri giorni
Si è già detto che la rivoluzione tecnologico-digitale del mondo in cui viviamo è frutto di una millenaria evoluzione culturale, che, ad oggi non ha nemmeno sfiorato molti paesi del terzo mondo. Facendo un passo, sufficientemente ampio, indietro nel tempo, è possibile tracciare un percorso sintetico che, a partire dal 30.000 a.C., giunge fino agli anni 80 del secolo scorso. E’ stato un progresso culturale all’inizio lentissimo, a tal punto che si può costatare che da una tappa a quella successiva talora son passati centinaia e centinaia di anni. Soltanto da circa sette secoli, e soltanto nel mondo occidentale ossia in quell’area geografica che avrebbe poi subito le trasformazioni indotte dalla rivoluzione industriale, il progresso ha avuto un’accelerazione sempre più veloce fino a provocarci, oggi, le vertigini.  Una schematica carrellata[1] non pretende certo di mettere in evidenza in maniera precisa le trasformazioni nella vita dell’uomo innescate dalle tecnologie, ma induce senz’altro una riflessione su come tutta la vita dell’umanità sia da sempre costellata di innovazioni tecnologiche e su come un proto-computer sia rintracciabile in una tacca a forma di V intagliata nell’era paleolitica.

All’inizio del nuovo millennio il web comincia la sua metamorfosi verso il 2.0, popolandosi di blog e social network. Nel 2001 la Polaroid dichiara banca rotta: anche la fotografia si digitalizza ed è pronta ad entrare, in maniera immediata, nel grande flusso di informazioni in codice binario. Anche la musica compie un percorso verso il digitale: nel 2006 la Tower Records liquida. Nell’ultimo trentennio abbiamo assistito ad un’accelerazione vertiginosa dello sviluppo tecnologico  nel settore del digitale. Alla fine degli anni Settanta il primo Bullettin Board System[2](BBS) su internet permise a quei pochi che avevano un computer ed un collegamento telefonico, di scambiarsi documenti, leggere notizie e scambiare messaggi.

All’inizio degli anni Ottanta si formarono i primi gruppi su Usenet (prototipo di comunità virtuale) che condividevano uguali interessi. Qualche anno più tardi, sempre negli ’80, l’e-mail cominciò a diventare uno strumento diffuso, finché, nel 1991, il World Wide Web fece il suo debutto e, solo pochi anni più tardi, era possibile accedere facilmente alla “rete delle reti” grazie ai web browser. Verso la fine degli anni ’90 si assiste ad una grande diffusione di portali, siti di e-commerce e motori di ricerca e dal 2008 iTunes diventa il maggior rivenditore di musica negli Stati Uniti.

Oggi stiamo assistendo ad una esplosione, prevista per il 2012, di vendite di Tablet e SmartPhone ed una progressiva “smaterializzazione” dell’informazione (clouding).

Illuminanti sono le ricerche di Alan Turing, che sono alla base del moderno computer (macchina di Turing[3]). Nel suo saggio Computing machinery and intelligence, spiegò come l’esistenza di computer programmabili consentisse la possibilità di svolgere sempre nuove procedure di calcolo senza necessità di progettare nuove macchine.

Tale punto di vista ci porta, oggi, a progettare macchine “stupide” completamente svincolate dalla capacità di calcolo che è ora affidato al cloud.

AOL, American OnLine è stato uno dei primissimi provider che garantiva la possibilità di scambiare, con grande parsimonia, un esiguo numero di e-mail con quei pochi che ne facevano uso. AOL era oramai obsoleta quando, nel 1994, un articolo di Wired – una nota rivista dedicata alle nuove tecnologie -  annunciava l’invenzione di un browser grafico: era iniziata l’era di internet.

Nell’arco di dieci anni il web ha conosciuto uno sviluppo inimmaginabile e, appena un decennio dopo, nel 2005, era già alla versione 2.0, con un livello di interattività incredibilmente potenziato. Nel 2009 gli adulti nordamericani passavano in rete una media di 12 ore per settimana, il doppio rispetto al valore registrato solo quattro anni prima; ora i ventenni trascorrono più di 19 ore per settimana in Internet. Infine, i bambini americani tra i 2 e gli 11 anni, sempre nel 2009, hanno usato la rete per circa 11 ore per settimana, con un incremento del 60% rispetto al 2004.

Una ricerca internazionale del 2008 condotta su 27.550 adulti tra i 18 e i 55 anni ha rilevato che questi trascorrono on-line circa il 30% del loro tempo libero: i cinesi in testa con il 44% delle ore non lavorative. In Europa, l’adulto, nel 2009 ha trascorso mediamente 8 ore a settimana in rete, con un incremento del 30% rispetto al 2005. Per i ventenni la media sale a 12 ore per settimana.

In queste ricerche non sono state prese in considerazione le ore trascorse utilizzando cellulari ed altri dispositivi elettronici.

Uno studio del 2006 di Jupiter Research ha rilevato una forte sovrapposizione tra il guardare la Tv e il navigare nel web: il 42% di chi più assiduamente guardava la TV era anche tra i più assidui frequentatori della rete. Con l’aumentare dell’utilizzo della rete, diminuisce il tempo dedicato alla lettura di libri, riviste e quotidiani.


[1] R. White, Il computer come è fatto e come funziona

  • 30.000 a.C. Nell’era paleolitica gli abitanti dell’Europa centrale registrano i numeri intagliando tacche a forma di V su ossa di animali, avorio o pietre;
  • 3400 a.C. Gli egiziani sviluppano un simbolo per il numero 10, semplificando la rappresentazione dei numeri più grandi;
  • 2600 a.C. I cinesi introducono l’Abaco, usato per il censimento fino al 1982;
  • 300 a.C.  I 13 libri degli Elementi – il testo di matematica di base per i duemila anni seguenti – riepiloga le conoscenze matematiche dei greci;
  • 260 a.C. I Maya sviluppano un sofisticato sistema matematico in base 20 che include lo 0;
  • 1500 Leonardo da Vinci inventa il calcolatore meccanico;
  • 1614 John Napier descrive la natura dei logaritmi;
  • 1621 William Oughtred inventa il regolo calcolatore, che trova largo impiego per quasi 350 anni;
  • 1642 Blaise Pascal inventa la prima addizionatrice meccanica denominata Pascalina, in grado di eseguire l’addizione e la sottrazione. I suoi ingranaggi erano azionati a mano;
  • 1670 Gottfried Leibniz migliora la macchina aritmetica di Pascal rendendo possibili la moltiplicazione, la divisione e la radice quadrata;
  • 1679 Leibniz introduce l’aritmetica binaria;
  • 1822 Charles Baddage inventa la macchina differenziale, un calcolatore meccanico di grandi dimensioni in grado di svolgere addizioni e sottrazioni;
  • 1830 Charles Baddage progetta la Macchina analitica ma muore prima del suo completamento;
  • 1890 Herman Hollerith crea un sistema di classificazione elettronica che impiega schede perforate;
  • 1896 Hollerith fonda la Tabulating Machine Company che in seguito prenderà il nome di IBM (International Business Machines);
  • 1902-1905 Albert Einstein scopre la teoria della relatività che viene presentata all’Università di Zurigo;
  • 1904 John Ambrose Fleming sviluppa il tubo a vuoto;
  • 1926 Primo brevetto per il transistor semiconduttore. Il transistor consentiva nei computer il flusso di corrente elettrica, permettendo quindi il trasferimento dei dati all’interno delle macchine;
  • 1936 Konrad Zuse crea una macchina di calcolo digitale programmabile che introduce concetti quali l’utilizzo del sistema binario e le valvole;
  • 1943 Gli inglesi costruiscono Colossus, una macchina per interrompere i codici tedeschi;
  • 1943-1945 L’esercito statunitense progetta il computer ENIAC per calcolare la traiettoria delle armi;
  • 1944 L’università di Harvard, in collaborazione con IBM, sviluppa Mark 1 che impiega schede perforate IBM;
  • 1945 John van Neumann descrive una computer digitale elettronico con programma memorizzato;
  • 1948 Gli scienziati dell’ENIAC creano Electronic Control, la prima ditta di computer, e iniziano a produrre UNIVAC per l’ufficio dei censimenti;
  • 1949 Popular Mechanics annuncia che in futuro i computer potrebbero raggiungere un peso inferiore a 1,5 tonnellate;
  • 1951 UNIVAC viene consegnato, dopo tre anni, all’ufficio dei censimenti. Questa macchina usa nastro magnetico per l’input invece della carte perforata.
  • 1952 Viene presentata una denuncia contro IBM, accusata di esercitare il monopolio nel campo dei computer;
  • 1952 UNIVAC su CBS prevede le vittoria di Eisenhower. Le previsioni umane sono meno precise. Vince UNIVAC;
  • 1954 Texas Instruments annuncia l’inizio della produzione commerciale di transistor su silicio;
  • 1954 IBM lancia il 650, il primo computer prodotto in serie. Si rivelò un successo con 120 installazioni durante il primo anno;
  • 1956 Il Massachusetts Institute of Technology crea il primo computer basato su transistor;
  • 1958 Control Data Corporation introduce Seymour Cray’s 1604. A 1,5 milioni, costa la metà di un computer IBM;
  • 1958 Jack Kilby completa il primo circuito integrato, che contiene cinque componenti su un unico pezzo di silicio;
  • 1960 Negli stati uniti vengono utilizzati 2000 computer;
  • 965 Il primo minicomputer di Digital Equipment Company: PDP-8. Al prezzo di 18,000 $, ne vengono venduti subito 50.000 esemplari;
  • 1970 Xerox crea PARC (Palo Alto Research Center), che dà origine a molte tecnologie essenziali dei computer;
  • 1971 Ted Hoff di Intel disegna il chip 4004, il primo microprocessore al prezzo di 200 $, con 2300 transistor e 60000 OPS;
  • 1973 L’architettura basata sul sistema operativo CP/M diventa lo standard per gli otto anni successivi fino all’avvento di MS-DOS;
  • 1975 Popular Electronics annuncia il lancio di Altair 8800, il primo personal computer;
  • 1975 Il termine Microsoft appare per la prima volta in una lettera di Bill Gates al suo futuro partner Paul Allen;
  • 1976 Stephen Jobs e Steve Wozniak presentano il primo computer Apple all’Home Brew Computer Club, l’attuale Silicon Valley;
  • 1977 Radio Shack introduce il TRS-80 Model 1, chiamato Trash 80 dai fan;
  • 1981 IBM introduce il Personal Computer che impiega il processore Intel 8086 a 16 bit;
  • 1982 Compaq introduce il primo clone del PC IBM. Il personal computer è nominato “uomo dell’anno” dal Time;
  • 1984 Apple introduce sul mercato Macintosh, un computer che utilizza mouse e interfaccia grafica;
  • 1986 Microsoft viene quotata a 2.

[2] Un BBS (o Bulletin Board System) è un computer che utilizza un software per permettere a utenti esterni di connettersi a esso attraverso la linea telefonica, dando la possibilità di utilizzare funzioni di messaggistica e file sharing centralizzato. Il sistema è stato sviluppato negli anni settanta e ha costituito il fulcro delle prime comunicazioni telematiche amatoriali, dando vita alla telematica di base. E’ anche stato utilizzato negli anni novanta, in alternativa ai modem, il protocollo a commutazione di pacchetto X.25 e relativo dispositivo di connessione in grado di multiplexare più connessioni logiche su di un’unica connessione fisica. Nell’uso moderno (soprattutto in giapponese, ma ultimamente anche in italiano), il termine si usa anche per indicare i forum, i guestbook e i newsgroup su Internet.

[3] Nel 1854, il matematico britannico George Boole aveva elaborato una matematica algebrica che da lui prese il nome. Nell’algebra booleana le procedure di calcolo si possono effettuare grazie a operatori matematici (AND, OR, NOT, ecc.) corrispondenti alle leggi della logica.

L’algebra di Boole entrò prepotentemente alla ribalta nel 1936, quando il matematico britannico Alan Mathison Turing (1912-1954), immaginò una “macchina” o “automa” – esistente unicamente a livello teorico – con la quale dimostrò formalmente la possibilità di eseguire qualsiasi algoritmo: una procedura di calcolo o, più in generale, la sequenza delle operazioni necessarie per risolvere un problema in un numero finito di operazioni. In tal modo, Turing aprì la strada al campo di quelle ricerche informatiche che prendono il nome di intelligenza artificiale (v. test di Turing), e l’algebra di Boole si rivelò di fondamentale importanza nella progettazione degli odierni computer.

Per Alan Turing, la prima questione da risolvere consisteva nel precisare le azione elementari che compiamo quando eseguiamo un calcolo. In effetti, una semplice operazione di somma viene appresa facilmente fin dalle scuole elementari: è un’operazione che effettuiamo meccanicamente ogni giorno, quando per esempio acquistiamo due oggetti dallo stesso fornitore, o quando contabilizziamo il denaro che abbiamo in tasca. L’addizione è dunque un’operazione banale… ma sappiamo precisare i passaggi necessari per effettuarla, cioè definirne l’algoritmo?

“Programmi” per risolvere manualmente problemi numerici sono noti fin dal 1800 a.C., quando i matematici babilonesi del tempo di Hammurabi precisarono le regole per risolvere alcuni tipi di equazioni. Le regole consitevano in procedimenti dettagliati passo dopo passo applicati dettagliatamente a particolari esempi numerici. In particolare, il termine “algoritmo” si rintraccia dall’ultima parte del nome del matematico persiano Abu Ja’far Mohammed ibn Mûsâ al-Khowârizmî, il cui testo di arirmetica esercitò una notevole influenza per molti secoli.

Dimostrata l’esistenza di algoritmi per effettuare le operazione matematiche fondamentali, la seconda questione da risolvere consisteva nel precisare l’occorrente per sviluppare la sequenza di operazioni previste… naturalmente non ci riferiamo a carta e penna, ma a qualcosa di più raffinato.

Ricordando che la prima calcolatrice, la pascalina, fu inventata nel 1642 da Blaise Pascal, per comprendere l’importanza della macchina o automa di Turing, dobbiamo fare una distizione tra le calcolatrici ed i moderni calcolatori. La linea di separazione può essere individuata nel fatto che le calcolatrici riescono ad eseguire un certo numero di operazioni ma non possono essere programmate: manca la possibilità di specificare alla macchina processi di calcolo articolati e complessi, definiti in base ad opportune sequenze di comandi che possano essere eseguiti in modo completamente automatico.

L’idea fondamentale alla base del calcolatore programmabile (elaboratore o computer), è che qualsiasi tipo di computazione consiste nella manipolazione di simboli (ne bastano solo 2 come nei calcolatori digitali) seguendo un’insieme di regole (algoritmo). Con questo modello nasce l’idea di “calcolatore universale”.

Il metodo di programmazione di Turing, essenzialmente descriveva una macchina che utilizzava alcuni semplici istruzioni. Fare sviluppare ad un computer un compito particolare, era soltanto una questione di dividere il problema in una serie di problemi più semplici (un’operazione identica al processo affrontato dagli odierni programmatori) risolvibili appunto con semplici operazioni.

Una macchina o automa di Turing è definita da un insieme di regole che definiscono il comportamento della macchina su un nastro di Input-Output (lettura e scrittura). Il nastro può essere immaginato come una sottile striscia di carta divisa in quadratini dette celle e di lunghezza adeguata per eseguire qualsiasi algoritmo. Ogni cella contiene un simbolo oppure è vuota. L’automa utilizza una testina che si sposta lungo il nastro leggendo, scrivendo oppure cancellando simboli nelle celle del nastro. La macchina analizza il nastro, una cella alla volta, iniziando dalla cella che contiene il simbolo più a sinistra nel nastro.

Da quanto esposto, una macchina di Turing puo’ essere immaginata come una sorta di registratore a nastro con una testina di lettura, scrittura e cancellazione. La testina possiede un indicatore che determina, per ogni passaggio di calcolo, lo stato specifico in cui la macchina si trova mentre sta leggendo il simbolo che corrisponde alla particolare cella del nastro sul quale è posizionata.

Definita la macchina, devono essere specificate le regole – l’equivalente del moderno software – che indichino che cosa fare in corrispondenza della combinazione di stati e di simboli letti sul nastro.

In generale, un automa di Turing deve poter effettuare le seguenti operazioni: conservare la memoria del suo stato interno; leggere il simbolo scritto in una cella; sovrascrivere o cancellare il simbolo scritto in una cella; scorrere il nastro cella dopo cella, verso destra o verso sinistra; non fare alcuna operazione.

Con la macchina di Turing (che, per quanto possa sembrare strano, riassume la struttura funzionale di un computer) è possibile risolvere anche problemi non numerici; infatti basta associare ai simboli un significato alfabetico o alfanumerico. (v. algebra booleana)

Turing non costruì materialmente la sua “macchina universale”. Infatti, per quanto tecnicamente realizzabile, il meccanismo (elettromeccanico) sarebbe stato lento e poco affidabile per impieghi pratici. D’altra parte, data la sua semplicità, una macchina di Turing puo’ essere simulata con carta e penna: se un operarore umano puo’ eseguire le istruzioni senza incertezze e ambiguità, allora la procedura è automatizzabile.

Nel 1943, viene realizzato in Pennsylvania l’E.N.I.A.C .(Electronic Numerical Integrator And Calculator): il primo elaboratore senza parti meccaniche in movimento (all’epoca i calcolatori erano elettromeccanici). Il giorno della sua presentazione, l’ENIAC (col sistema della scheda perforata) moltiplicò il numero 97.367 per se stesso 5.000 volte, completando l’operazione in meno di un secondo. Con l’ENIAC, che funzionò fino al 1955, nasce l’era informatica vera e propria ed anche il termine BIT (Binary Digit = Cifra Binaria).

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

*

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>