La trasformazione del cervello e delle sue funzioni

La trasformazione del cervello e delle sue funzioni
Il processo evolutivo ha indotto l’uomo a continue trasformazioni  e adattamenti alle sempre mutevoli condizioni ambientali, comportando nel corso delle varie epoche storiche, trasformazioni a livello fisico-sensoriale, razionale, relazionale ed emozionale, particolarmente in concomitanza delle rivoluzioni tecnologiche

Adattamento dell’uomo nel corso dell’evoluzione.
Negli anni trenta del secolo scorso Merzenich[1] sperimentò un nuovo tipo di sonda per tracciare le mappe sensoriali del cervello. Con tale strumentazione riusciva ad elaborare una mappa molto precisa del modo in cui il cervello della scimmia elaborasse le informazioni sensoriali provenienti dalla mano. Dopo aver reciso i nervi della mano osservava, come previsto, che il cervello andava in confusione. La cosa straordinaria è che, dopo appena un mese, la mappa mentale si era risistemata in funzione della sistemazione dei nervi della mano. Come ogni altro scienziato era convinto che la struttura del cervello adulto fosse immutabile ma dovette ricredersi: il cervello è estremamente plastico e capace di riadattarsi a variazioni anche drastiche. Per secoli empirismo (Locke) e razionalismo (Kant) si sono scontrati sul dibattito sulla mente come tabula rasa – sulla quale è la “cultura” a scrivere – o come portatrice di schemi innati.

La plasticità neurale mette d’accordo queste due visioni perché mostra come entrambe siano corrette: esiste una base geneticamente determinata ma esiste la possibilità, attraverso l’esperienza, di apportare modificazioni sostanziali.

La straordinarietà del nostro cervello consiste nel non avere circuiti cablati, ma disporre, in potenza, di una miriade di possibili configurazioni. Ad alterare i nostri circuiti mentali sono certamente le azioni fisiche, ma lo sono anche le azioni puramente mentali: per fare un esempio la capacità di muoversi in un sistema stradale intricato come quello di una metropoli, presuppone una capacità di elaborazione spaziale che è associata ad una maggiore massa di materia grigia nell’ippocampo .

In uno studio, condotto al Dynamic Cognition Laboratory della Washington University,  pubblicato nel 2009 sulla rivista Psychological Science, i ricercatori, usando la TAC, indagarono nella mente di chi legge opere di narrativa. Essi scoprirono che i lettori simulavano ogni nuova situazione incontrata nel racconto. Le regioni cerebrali attivate dalla lettura, immaginando determinate scene, “rispecchiavano” quelle coinvolte nelle stesse attività messe in atto nella realtà. Quando le menti dei nostri antenati impararono a seguire il filo di un racconto in una successione di pagine stampate, divennero sempre più contemplative, riflessive e capaci di fantasia.

La funzione fa l’organo! Plastico non vuol dire elastico: i circuiti alterati, rimangono nel nuovo stato, non tornano nella configurazione precedente. La ripetizione di una azione o di uno schema di pensiero potenzia quella funzione e le relative aree cerebrali, l’assenza di ripetizione atrofizza la funzione stessa e le aree cerebrali vengono riutilizzate per altre funzioni.

Nei casi peggiori la mente è capace di allenare se stessa ad essere malata (come accade per tante malattie psicologiche). Vista così abbiamo una immensa responsabilità rispetto a quello che siamo e che possiamo diventare.

Trasformazione del cervello e della mente nel corso delle varie epoche storiche in concomitanza delle rivoluzioni tecnologiche
Vincent Virga[2] ha osservato che gli stadi di sviluppo delle nostre abilità cartografiche sono simili a quelli di sviluppo cognitivo descritti da Piaget: progrediamo da una percezione egocentrica puramente sensoriale tipica del neonato, ad un’analisi progressivamente più astratta ed oggettiva; passiamo dal disegnare ciò che vediamo a disegnare ciò che sappiamo.

Con lo sviluppo della cartografia ed il suo progressivo sempre più frequente utilizzo, la mente si è formata, nel corso dei secoli, a comprendere la realtà nei termini propri della cartografia. Quello che la mappa fece con lo spazio, lo fece l’orologio meccanico con il tempo. Prima di quest’ultima invenzione il tempo era misurato con strumenti che accentuavano la naturalezza del processo (la meridiana con le ombre, il moto di sole, luna e stelle, ecc).

L’utilizzo dell’orologio ha imposto, nel secoli, un ritmo sempre più “artificiale”alla scansione del tempo, trasformando la società, il lavoro, ecc.

Mappa ed orologio appartengono ad un gruppo di invenzioni, di tipo “intellettuale” che hanno ampliato le nostre facoltà mentali. Altre invenzioni hanno potenziato la nostra forza fisica (l’aratro, le macchine, ecc), i nostri sensi (microscopio, binocolo, ecc.) o ci hanno aiutato a dare un corso diverso alla natura (OGM, la pillola anticoncezionale, ecc).

Tra le tecnologie intellettuali possiamo, con certezza, includere il computer ed internet!

L’utilizzo di tali tecnologie plasma un nuovo modo di pensare.

Chi inventa le tecnologie e chi poi le utilizza, con tutta probabilità non pensa ai risvolti etici, eppure è proprio l’etica intellettuale di un’invenzione ad avere l’impatto più profondo e duraturo su di noi. Facendo riferimento a ciò, Marx scrisse “il mulino a vento produce una società con i signori feudali; il motore a vapore una società di capitalisti”.

C’è anche chi rifiuta questa visione ed estremizza, nel versante opposto, minimizzando il potere della tecnologia e ritenendo, come fa David Sarnoff[3], che i suoi manufatti sono essenzialmente neutrali e nelle mani dei desideri consapevoli dei loro consumatori.

A ripercorrere il lungo dibattito tra deterministi e strumentalisti pare che le affermazioni dei primi guadagnino qualche punto: pare difficile immaginare che siamo stati noi a scegliere di usare le mappe e gli orologi; pare difficile pensare che siamo stati noi a “scegliere” i tantissimi effetti collaterali di queste tecnologie.

Tutte le tecnologie hanno influenzato le modalità di ricerca, archiviazione ed interpretazione delle informazioni; modellando, nel tempo, la struttura fisica del nostro cervello, fortificano alcuni circuiti neurali a discapito di altri. È d’obbligo, a questo punto una riflessione: questo stesso cervello, così plasmato, ha dato origine ad ulteriore tecnologia. La forma del cervello non è cambiata tantissimo negli ultimi quarantamila[4] anni eppure a questa lenta evoluzione genetica corrisponde una velocissima rivoluzione nelle modalità di azione e di pensiero. Se l’utilizzo della mappa portò a “mappare” le sfere sociali, le nostre vite e le nostre idee e se l’orologio portò a pensare a cervello, corpo, universo funzionanti come un orologio, cosa sta producendo in noi l’era digitale?

Soffermiamoci sul problema  del linguaggio scritto. La mappa e l’orologio cambiarono, indirettamente, anche il linguaggio. Le tecnologie intellettuali hanno il potere di ridurre o ampliare il nostro vocabolario, modificare le regole della lingua, favorire una sintassi più semplice o più complessa o stravolgere le regole sull’ordine delle parole.

La storia e l’evoluzione del linguaggio sono strettamente legate alla storia e all’evoluzione della mente. Lettura e scrittura sono già funzioni digitali: si tratta di gesti “innaturali” che implicano l’apprendimento della capacità di codifica in caratteri simbolici di quello che sentiamo e comprendiamo. Le persone che adoperano linguaggi scritti formati da simboli logografici – come i cinesi – sviluppano un insieme di circuiti mentali per la lettura sensibilmente diverso da chi adopera linguaggi con alfabeto fonetico. Oppure, il fatto che le parole inglesi, a differenza di quelle italiane, appaiono diverse da come si pronunciano, porta chi legge l’inglese ad attingere maggiormente alle aree cerebrali associate alla decifrazione delle forme visive.

La storia della scrittura comincia con i Sumeri nel quarto millennio a.C. e conosce un’evoluzione estremamente articolata. In epoca relativamente recente, nel 750 a.C., i Greci inventarono il primo alfabeto fonetico completo, riuscendo a rappresentare, con soli 24 caratteri[5], tutti i suoni del linguaggio parlato. Contrario alla forma scritta, nel mondo greco-antico, era Socrate che sosteneva una radicale differenza qualitativa tra ciò che è scritto “nell’acqua nera” e ciò che è scritto “mediante la coscienza nell’anima di chi apprende”. Pur riconoscendo i vantaggi pratici della scrittura, per esempio come rimedio alla fallacia della memoria senile, intravedeva nella dipendenza dalla tecnologia della scrittura una alterazione negativa per la mente: sostituendo memorie interiori con simboli esteriori – prototipo di clouding! – il pensiero sarebbe diventato più superficiale.

La codifica “digitale” del linguaggio parlato conosce un’altra storia parallela, legata ai supporti per la sua conservazione (oggi diremmo “memorizzazione”): l’invenzione della tavoletta di cera ebbe un ruolo fondamentale nel trasformare scrittura e lettura da attività specialistiche ad attività quotidiane – ovviamente sempre limitatamente a chi conosceva l’alfabeto.

Questa tecnologia era ancora relativamente giovane ed il retaggio del mondo orale condizionava ancora il modo in cui si fruiva del testo scritto: la lettura silenziosa era sconosciuta nel modo antico! Solo intorno al 380 d.C. Agostino, nelle sue Confessioni descrive la sua sorpresa nel vedere Ambrogio, vescovo di Milano, leggere silenziosamente.

È  inoltre importante ricordare che nella scrittura antica non esisteva punteggiatura: la scriptura continua era una trascrizione fedele del parlato – un processo di digitalizzazione non ancora completato. La mancanza di indicazioni sui tempi di lettura, sulle pause, sulla strutturazione dei periodi, portava un carico cognitivo notevole.

Nel suo sviluppo successivo, la lettura si arricchisce progressivamente, diventando, sempre più, un processo agevole, uno strumento di conoscenza e non più una performance di abilità. Oggi sappiamo che la corteccia visiva è specializzata nel riconoscere, in pochi millisecondi, immagini di lettere e parole: su un articolo del 2004 pubblicato su Current Biology, un gruppo di neuroscienziati[6] ha scoperto meccanismi che operano sulla base di stimoli sensoriali primari capaci di orientare l’attenzione verso elementi visivi potenzialmente importanti.

L’introduzione degli spazi tra le parole, della punteggiatura e, infine la divisione in paragrafi e capitoli e l’uso dell’indice – siamo alla fine del XIV secolo – rese la lettura sempre più agevole, vedendo la scrittura articolarsi, invece, in un sistema sempre più complesso.

Se la scrittura era stata inizialmente considerata uno strumento di memorizzazione, finì col diventare un metodo di composizione. Nel 1445 Johannes Gutenberg, un orafo tedesco, stravolse, con la sua invenzione, il mondo della scrittura. Introducendo, nella stampa editoriale, i caratteri mobili e altre accortezze quali una nuova pressa e un nuovo tipo di inchiostro, garantì un’impennata alla diffusione del testo scritto.

La scrittura diventò da abilità manuale un’industria meccanica e i libri, da rari e costosi, diventarono abbondanti e a buon prezzo. Con la diffusione, poi, della carta, importata dalla Cina, molto più economica della pergamena, il prezzo dei libri si abbassò vertiginosamente e la domanda aumentò progressivamente incentivando una rapida espansione dell’offerta. Il numero dei libri stampati nei cinquanta anni successivi all’invenzione di Gutenberg, eguagliava il totale di quelli prodotti dagli scribi europei durante tutto il millennio precedente. Una tale diffusione di libri portò, come prevedibile, anche scritti di bassa qualità come romanzi di pessimo gusto, giornalismo improvvisato e pornografia. Inutile dire che tale rivoluzione costrinse ad una presa di posizione: circa due secoli dopo Gutenberg furono tanti i censori, sacerdoti e politici, che incolparono la stampa di aver portato una brusca caduta dei costumi. Non va dimenticato che la diffusione della stampa produsse anche un grande impulso allo sviluppo della condivisione: come scrive Young “Con la diffusione dei libri le persone potevano considerare molto più direttamente le proprie reciproche riflessioni, e questo portò a un miglioramento significativo dell’accuratezza e della qualità del contenuto trasmesso[7]”.

Oggi, dopo quasi 600 anni ci troviamo nel bel mezzo di una nuova rivoluzione tecnologica. La rivoluzione elettronica sta imprimendo un nuovo, incredibile, impulso alla possibilità di produzione e condivisione di contenuti. Come sostiene Walter Ong[8], scrittura, stampa e computer sono tre momenti di un irreversibile processo di sviluppo della tecnologia della parola. Con l’avvento del digitale, la lettura ha subito un processo di trasformazione epocale: se la stampa a caratteri mobili portò un esplosione dei contenuti stampati con conseguenti problematiche nell’effettuare selezioni, la smaterializzazione del contenuto ha esasperato questo problema. La lettura è diventata progressivamente più superficiale: l’utilizzo di link, la multimedialità, i motori di ricerca (andiamo verso il web 3.0 – semantico, realtà aumentata, ecc.) facilita, da un lato, la fruizione dei contenuti on-line indirizzandoci verso quelli più pertinenti (lo sono davvero?) ma dall’altro lato non ci permette più di considerare l’interezza di quello che ci troviamo di fronte. Probabilmente questa “interezza” sta cominciando ad avere un nuovo significato: le tante “interezze” si stanno dissolvendo in un unico grande corpo di sapere a cui sarebbe impossibile accostarsi con la profondità tipica di un libro cartaceo.

I cambiamenti nella lettura porteranno, inevitabilmente a cambiamenti nella scrittura: gli autori dovranno adattarsi alle nuove abitudini e gusti del loro pubblico.

Un primo esempio lo troviamo con quanto accaduto in Giappone nel 2001: un gruppo di ragazze ha cominciato a scrivere storie tramite SMS e a caricarle su un sito web. Quei racconti sono poi stati pubblicati come “romanzi per telefono cellulare”.

I tre primi romanzi venduti in Giappone nel 2007 erano stati scritti sul cellulare. Da qualche tempo circola sulla rete Social Killer, il primo romanzo italiano per cellulare, Internet e social network, autore Vito di Bari[9]. Sarà presto possibile sapere chi starà leggendo, in quello stesso momento, quello che stiamo leggendo noi e scambiare, in tempo reale, opinioni e pareri, costruendo così nuovi contenuti che diventeranno ulteriori piazze di scambio per nuove discussioni. Tutto questo sta già trasformando il testo scritto: se prima lo scrittore raffinava all’inverosimile il suo testo alla ricerca di una forma soddisfacente che sarebbe stata impressa, una volta per tutte, sulla carta, oggi la scrittura è veloce, effimera, subito disponibile ad ulteriori trasformazioni per mano di molteplici autori così che svanisce il concetto stesso di autore.

Nei primi anni del XIX secolo la grande popolarità dei quotidiani faceva presumere che i libri fossero prossimi a scomparire perché obsoleti e incapaci di star dietro alla freschezza dei quotidiani. Nel 1831 il politico e poeta francese Alphonse de Lamartine[10]affermò che il pensiero non avrebbe più avuto il tempo di maturare ed accumularsi in forma di libro; il giornale era l’unica forma di scrittura concepibile.  Lamartine si sbagliava e i libri mantennero perfettamente la loro salute. Oggi c’è chi sostiene, come Mark Federman[11] la necessità di abbandonare il lineare-gerarchico del libro per entrare nel mondo della connettività trasversale tipica del web e questo soprattutto a partire dalla scuola. Per Clay Shirky[12], studioso di digital media all’Università di New York, le vecchie abitudini letterarie “erano soltanto un effetto collaterale del fatto di vivere in condizione di scarso accesso”.

Al di là del punto di vista estremo proposto da questi studiosi, risulta necessario riflettere.

Trasformazioni nell’era digitale: corpo, ragione, emozioni e relazioni.
Le trasformazioni che hanno connotato la storia dell’uomo dalle origini ai nostri giorni, sono state caratterizzate da un continuo processo di ‘virtualizzazione’, ossia da un costante passaggio dal virtuale al concreto in una spirale che sembra inarrestabile: la stampa rimpiazzò il lavoro degli scribi, come oggi la compilazione elettronica sta rimpiazzando quasi totalmente la compilazione cartacea (libri, giornali, riviste ecc.); il virtuale di oggi sarà il concreto domani, e domani forse un virtuale più avanzato prenderà il posto del concreto in un processo continuo che probabilmente si fermerà solo con la fine della storia dell’uomo. Il primo manuale di ‘filosofia del virtuale’ è il testo di Pierre Lévy [13], “Qu’est-ce que le virtuel? [1d]

Trasformazioni sono avvenute a livello di corpo, di ragione, di emozioni e di relazioni.
Pierre Lévy, parlando di virtualizzazione, ha evidenziato che le tecnologie virtualizzano la percezione: il telefono lo fa con l’udito, la televisione con la vista. Il telefono non si limita a rappresentare la voce a distanza, ma veicola la voce stessa.

I sistemi di realtà virtuale trasmettono più di una semplice immagine: riescono ad effettuare una vera e propria proiezione, realizzando una “quasi presenza”. Se si pensa allo scambio di organi, del seme e del sangue, possiamo parlare di una vera e propria socializzazione del corpo: viene quasi a mancare l’intimità soggettiva e a costituirsi un corpo collettivo. La tecnologia fa il resto (vedi paragrafo sul cyborg) nel produrre “un immenso ipercorpo ibrido e mondializzato”. La virtualizzazione del corpo non è, quindi, una disincarnazione, ma una reincarnazione, una moltiplicazione: un qualcosa di nuovo che non è mai definitivo, ma in continua rivalutazione. Il corpo individuale è la temporanea attualizzazione dell’immenso ipercorpo ibrido.

Alterazioni a livello del comportamento e del pensiero sono state evidenziate dallo studio dell’azienda nGenera realizzato nel 2008 su seimila ragazzi vissuti utilizzando internet (appartenenti, cioè, alla cosiddetta NetGeneration). I giovani cresciuti nell’uso della rete non leggono più un testo come lo leggevano i loro genitori, in modo lineare, ma saltellano da un punto all’altro dello schermo alla ricerca delle informazioni in quel momento interessanti. Il pensiero lineare si è trasformato in pensiero reticolare. La mente lineare è stata il fulcro della nostra società, dell’arte e della scienza, fino a qualche decennio fa. Pur circondati da decine di migliaia di libri, difficilmente per il passato provavamo quell’ansia che oggi è strettamente collegata al cosiddetto “sovraccarico informativo”. Per chi ha vissuto sulla propria pelle il passaggio dal cartaceo al digitale, sarà facile ricordare la difficoltà provata, inizialmente, a correggere un testo direttamente sullo schermo: risultava molto più naturale stamparlo, apportare le correzioni con penne e matite colorate e, poi, trascrivere sul computer le modifiche apportate. Con un utilizzo progressivamente più intenso questo passaggio si è ridotto progressivamente fino a processare tutte le modifiche esclusivamente sullo schermo del pc.

Per quanto attiene al grado di attenzione con cui si legge un testo occorre sottolineare che è certamente possibile leggere con superficialità un libro come è possibile leggere con attenzione il contenuto di una pagina web, ma, in linea di massima, la tecnologia tende ad “allenare” ad un tipo di lettura superficiale e distratta: su questo concordano psicologi, neurobiologi, educatori e progettisti web. Nel corso di una navigazione in internet utilizziamo molti sensi contemporaneamente – ad eccezione, per adesso, di olfatto e gusto – ed effettuiamo una moltitudine di azioni, fisiche e non, che sollecitano le nostre cortecce visive, somatosensoriali e auditive. A ben pensare chi naviga tra le pagine del web, si trova, come il cane di Pavlov, ad azionare continuamente leve per avere continue piccole ricompense, piccole dosi di nutrimento sociale o intellettuale. Inoltre l’interesse a seguire ciò che succede agli altri, controbilanciato dalla necessità di “tenere sotto controllo” la propria reputazione sociale, porta molti, e i più giovani in primis, ad immergersi completamente nel virtuale, col supporto delle molteplici tecnologie oggi disponibili (pc, smartphone e tablet): si tratta di una identificazione col medium dalla quale risulta difficile svincolarsi in quanto farlo comporterebbe la sensazione di diventare invisibili, di scomparire.

Trasformazioni incisive, nell’era digitale,  sono avvenute nell’uomo anche sia a livello di apprendimento che a livello comportamentale-relazionale. Si è già detto che “la funzione fa l’organo” (neuroplasticità) e se ci dedichiamo, in via quasi esclusiva, a scambiarci pillole di informazioni, invece che elaborazioni di contenuti complesse, sostituendo completamente la lettura di un libro con la navigazione nel web, il cervello si formerà, sempre più, per questo tipo di attività, atrofizzando le funzioni legate ad uno “studio” approfondito di un qualsiasi contenuto. Un’ulteriore riflessione può essere fatta a proposito dell’uso della tecnologia stessa: venticinque anni fa, acquistato un videoregistratore, bisognava necessariamente confrontarsi con uno studio più o meno approfondito di un manuale di istruzioni seguito da una serie di tentativi pratici, che, alla fine avrebbe portato ad un utilizzo più o meno completo dell’apparecchio; oggi è talmente facile utilizzare la tecnologia, perché sempre più user friendly, che il vecchio libretto di istruzione ha lasciato completamente spazio ad un tipo di approccio  immediato dove è la tecnologia stessa ad insegnare come utilizzarla.

Scientificamente accertati sono, anche, le trasformazioni a livello neuronale; “prodotto” dalle nuove tecnologie è una nuova configurazione neuronale, ma come sostengono gli studi di  Koizumi[15], Battro[16] e altri neuroscienziati non è ancora possibile interpretare in maniera definitiva i dati derivanti dai vari studi e dare un segno positivo o negativo alle suddette trasformazioni.

La psicologa  Patricia Greenfield[17], in uno studio pubblicato su Scienze dove analizzava oltre cinquanta studi sugli effetti dei nuovi media sulle dinamiche cerebrali, sottolinea che ogni medium sviluppa capacità cognitive a spese di altre. Nessun medium può sviluppare, contemporaneamente tutte le abilità della mente; risulta quindi necessaria una dieta mediale ben bilanciata.

Gary Small[18], professore di psichiatria presso l’UCLA e direttore del Memory and Aging Center, studia gli effetti fisiologici e neurologici derivanti dall’uso dei media digitali. Le sue ricerche confermano come la rete sia causa di cambiamenti cerebrali significativi: l’uso quotidiano di tali media “stimola un’alterazione delle cellule cerebrali e un rilascio di neurotrasmettitori che gradualmente rafforzano nuovi tracciati neurali nel nostro cervello, mentre indeboliscono i vecchi”. Nel 2008 Small effettuò un esperimento su ventiquattro volontari, la metà dei quali esperti navigatori e gli altri principianti, scansionando i loro cervelli impegnati in attività di ricerca su Google. Scoprì una attività maggiore nei soggetti esperti che usavano, nel dettaglio, uno specifico circuito nella regione del lobo frontale sinistro del cervello nota come corteccia prefrontale dorso laterale, mentre i principianti mostravano, in quella stessa area, attività minima se non nulla. Nuove scansioni, effettuate sei giorni dopo, sui principianti, che nel frattempo avevano effettuato training sull’utilizzo di Google, mostrarono un’attivazione di quella parte della corteccia simile a quella degli esperti.

Questo stesso studio ha messo in risalto le differenze tra i lettori di libri e i lettori di pagine web: i lettori di libri attivano le regioni che presiedono al linguaggio, alla memoria e all’elaborazione visiva ma lasciano inattive le regioni prefrontali legate alla decisione e alla risoluzione dei problemi; per i navigatori del web, invece, sono queste ultime le regioni particolarmente attive e spiegherebbe il perché navigare può aiutare i più anziani a mantenere attiva e lucida la mente (un po’ come accade con le parole crociate).

L’elevata attività cerebrale di chi utilizza i media digitali spiega anche perché la lettura approfondita risulti così difficile on-line. La fruizione del web comporta un carico cognitivo che pare riportarci alla scriptura continua in quanto ogni link, ogni nodo nella navigazione, ogni contributo multimediale, necessita di una piccola frazione temporale per essere valutato e processato. La lettura classica sottostimola i sensi e proprio questo permette che sia potenzialmente approfondita.

Se un tempo si riteneva la memoria a lungo termine una scatola inerte di ricordi, oggi si sa bene che è proprio lì che risiede l’intelligenza e che la massa immensa di ricordi che caratterizza ogni individuo è dinamica e ricca di attività: un nuovo apprendimento porta l’integrazione in questa memoria, passando per quella a breve e brevissimo termine, di nuove informazioni. A differenza della memoria a lungo termine, quella a breve termine ha una capacità estremamente limitata (span di memoria) e, poiché l’arrivo alla MLT è vincolato dal passaggio in MBT, risulta essenziale comprendere qual è il carico di lavoro di quest’ultima. Rende particolarmente l’immagine di una vasca da bagno riempita con un ditale. Nella lettura di un libro il rubinetto dal quale prendere l’acqua è costante e, anzi, si adatta alla capacità di raccoglierla nel ditale: con una lettura attenta è possibile trasferire in MLT gran parte, o quasi, delle informazioni lette. Quello che accade in rete è decisamente diverso in quanto, con lo stesso ditale, ci troviamo a dover attingere a tanti rubinetti che gettano acqua a pieno regime: riusciremo a riversare nella nostra vasca da bagno solo una piccola quantità di tutta quest’acqua e, perlopiù, senza particolari criteri, senza riuscire ad integrare queste nuove informazioni con quanto già presente nella nostra MLT. Questa incapacità di integrare le nuove informazioni nella nostra memoria, porta ad affidare i “nuovi ricordi” sempre di più all’esterno. Sempre più affidiamo alle tecnologie il compito di memorizzare i nostri ricordi e di gestirli, di interconnetterli: il clouding porta proprio questa esternalizzazione della memoria dell’individuo all’interno di una grande nuvola dove i nostri ricordi entrano in relazione a quelli degli altri: una grande MLT condivisa (e di cui qualcuno “potrebbe” fare un uso non proprio eticamente corretto). Ma non è solo la memoria che stiamo affidando alle tecnologie: se pensiamo che ci affidiamo a Facebook per ricordare i compleanni degli amici o allo smartphone per ricordarci degli appuntamenti, sembra quasi di intravedere la trama del film Matrix dove tutta l’attività cerebrale dei corpi fisici degli uomini era modulata ed indirizzata dalle macchine.

Si credeva che una costante alfabetizzazione alla lettura ipertestuale avrebbe portato i lettori a comprendere i contenuti del web alla stessa maniera di quelli di un libro, ma così non è stato: le ricerche continuano a mostrare che chi legge testi lineari comprende di più in quanto si è osservato che chi legge ipertesti rivolge la sua attenzione più alla struttura che al contenuto. In un altro esperimento, della studiosa Erping Zhu[19] , vari gruppi di persone lessero, sullo schermo, lo stesso brano ma con diverso numero di link: valutare i link lasciava meno risorse cognitive da utilizzare per la comprensione del testo. Una serie di esperimenti, condotti nel 2005 da Diana De Stefano e Jo-Anne LeFevre>[20], mostrarono che l’ipertesto portava ad una diminuzione della comprensione del testo, confutando l’originaria credenza che un testo arricchito potesse portare ad una esperienza di lettura più ricca. Uno studio del 2007 pubblicato su Media Psychology evidenziò una maggiore capacità di assorbimento dei contenuti per quei lettori che leggevano una versione esclusivamente testuale di una presentazione, in confronto a chi ne leggeva una versione arricchita con contenuti audiovisivi.

C’è da sottolineare che presentare i contenuti in diverse forme non sempre peggiora la comprensione. Sappiamo bene che testi illustrati e corredati di immagini possono aiutare la comprensione della parte testuale. Presentazioni arricchite con audio e video possono ulteriormente arricchire la comprensione. Sweller[21]spiega che memoria di lavoro uditiva e visiva sono separate, almeno entro un certo limite, e proprio questo garantisce la possibilità di adoperare entrambi i canali contemporaneamente. Entro certi limiti, la multimedialità può effettivamente costituire un vantaggio nella comprensione; oltre questi limiti rappresenta un appesantimento del carico cognitivo. Per l’abbondanza dei contenuti del web, spesso scema la nostra attenzione e concentrazione.

Uno studio per l’analisi delle pagine web, condotto nel 2008 dalla società israeliana Click Tale, evidenziò quanto fosse breve la durata media di una visita ad una pagina, prima di passare a quella successiva. Nel mare di informazioni che il web offre, si opera una attività di scrematura basata sulla focalizzazione di parole chiave che porta ad escludere rapidamente intere pagine ritenute di scarso interesse. Nella nuova forma di fruizione dei contenuti stimolata dal web, alcune funzioni mentali di basso livello, quali la coordinazione occhio-mano o l’elaborazione degli stimoli visivi, vengono rafforzate, probabilmente con un potenziamento della memoria di lavoro. Ciò che la rete allena è la nostra capacità di elaborare velocemente gli stimoli e prendere velocemente decisioni; quello che, invece, il multitasking inficia è la capacità di pensare in modo approfondito e creativo. In un articolo pubblicato su Science nel 2009, Patricia Greenfield[22]evidenziò proprio questa evoluzione indotta dai nuovi media.

Secondo un sondaggio del 2009[23], curato da Harris Interactive per conto del produttore di software Symantec, su un campione di 10.000 persone tra adulti e giovani di 12 paesi diversi, gli italiani rinuncerebbero ad automobile e cellulare ma non ad internet.

In un articolo del febbraio 2009 pubblicato sulla rivista Biologist, Aric Sigman, membro della Royal Society of Medicine e della British Psychological Society, ha lanciato l’allarme sulle conseguenze per la salute derivanti dall’uso dei social network. Per Sigman, l’aumento dell’interazione virtuale riduce l’interazione reale e, poiché gli individui solitari sono anche quelli che hanno maggiori problemi di salute fisica e mentale, c’è da chiedersi se la diffusione delle pratiche sociali sulla rete non costituisca un problema di salute pubblica. A sostegno delle sue ricerche ci sono studi che trovano relazioni tra solitudine e abbassamento del sistema immunitario, nonché disturbi del sonno e minore longevità.

Uno studio pubblicato nel 1998 da Robert Kraut, dal titolo Il paradosso di internet, ha analizzato 73 famiglie che usavano internet per comunicare con l’esterno: più usavano la rete, meno comunicavano tra loro con ricadute sulla loro cerchia di conoscenze e sull’aumento dei tassi di depressione e solitudine.

Non tutti concordano con questo punto di vista in quanto il grande fermento on-line ha grande probabilità di trasferirsi nella vita reale e compensa l’esigenza di comunicare con persone – ad esempio vecchi amici – che non è possibile incontrare di persona.

Lo stesso Kraut[24], a distanza di quattro anni ha constatato la scomparsa dell’effetto negativo rilevato inizialmente: l’effetto dei social network esalta le caratteristiche di personalità dell’individuo così che chi è estroverso userà i nuovi canali di comunicazione per aumentare questa sua caratteristica, mentre chi è introverso troverà una “buona” ragione per ridurre ulteriormente le relazioni reali.

Fino a poco tempo fa la rete era vista come una zona morta per le relazioni sociali.
I primi studi tendevano ad inquadrare le relazioni on-line come destinate a rimanere virtuali, una via di fuga dall’impegno necessario a sostenere relazioni vere.

Questa visione negativa delle reti sociali ha cominciato a cambiare man mano che le ricerche hanno cominciato a farsi più approfondite. Uno studio del 2008[25], condotto alla California State University a Los Angeles, su 192 studenti liceali, sull’uso di internet, ha valutato il grado di solitudine e di sostegno dell’ambiente sociale. Né il tempo totale on-line, né il tempo impiegato in rete in attività di comunicazione, sono risultati correlati alla solitudine.
Uno studio del 2009[26] della California Polytechnic State University ha trovato una forte relazione tra attitudine alle relazioni nella vita reale e attività sociale on-line.
Studenti solitari, invece, usando le tecnologie di social networking, si ritrovavano ad essere ancora più soli.

L’esplosione dei social network ha prodotto una serie di effetti inattesi anche nella comunicazione genitori-figli: il rapporto si sposta su un nuovo piano che vede, talvolta, la perdita dei ruoli tradizionali e la comparsa di “amicizie” inedite.

Le reti relazionali di genitori e figli, che nella vita reale sono tradizionalmente separate, si toccano nei social network fino a compenetrarsi.

Certamente i nativi hanno un rapporto molto particolare con l’informazione: questa diventa qualcosa di estremamente malleabile, qualcosa che può essere trasformata fino a snaturarne completamente l’essenza. La capacità e l’attitudine a manipolare l’informazione appartiene anche ai non nativi: l’informazione è per sua natura, a differenza del dato, qualcosa che assume una forma ad ogni passaggio. Quello che si vede, oggi, è una trasformazione tanto repentina del dato originario, che risulta impossibile tenerne traccia: nel giro di poche ore, passando di mano in mano, un’informazione perde la sua natura come significato, come significante e, soprattutto, si perde completamente traccia del suo autore; quell’informazione, in perfetto stile 2.0, è diventata patrimonio condiviso, frutto di molteplici menti, riplasmata dal lavoro di molteplici mani.

Nella grande molteplicità garantita dalle tecnologie digitali, e da internet in particolare, non si trovano solo aspetti positivi: se da un lato è possibile condividere i propri contenuti con chiunque, avendo, al contempo, la possibilità di fruire della mole immensa dei contenuti altrui, dall’altro lato, in tale mole di informazioni, risulta sempre più difficile discriminare e selezionare. L’era digitale sta producendo una moltiplicazione smisurata di informazioni: il fatto è che non si ha percezione di questa mole proprio perché è smaterializzata in serie infinite di bit ma se volessimo immaginare stampate su carta tutte queste informazioni, probabilmente sulla terra non ci sarebbe spazio per le persone! Le informazioni vecchie non vengono sostituite o aggiornate con le nuove: le nuove informazioni si aggiungono, si mescolano, si moltiplicano, si clonano in maniera esponenziale: si perde completamente la traccia dell’origine. Tutto ciò comporta anche un problema di sovraccarico di informazioni. La quantità di contenuti digitali attualmente disponibili nel cyberspazio supera di alcuni milioni di volte la quantità di tutti i libri mai scritti. Il divario tra quantità di informazioni disponibili e la capacità attentiva ed elaborativa del nostro cervello non necessita di particolari studi scientifici. I problemi di sovraccarico non sono legati esclusivamente alla quantità di informazioni ma anche all’uso smodato che molti “consumatori” arrivano a farne: si parla, ad esempio, di net addiction. Esistono casi estremi di morte per abuso di tecnologia come nel caso di un sudcoreano morto dopo 86 ore consecutive di gioco. Già da alcuni anni, anche in Europa, sono state inaugurate le prime cliniche per persone dipendenti dai giochi digitali e sono oramai consolidati i primi strumenti diagnostici per individuare tali dipendenze. Gli effetti dell’eccesso di informazioni possono comportare battito cardiaco accelerato, aumento del tasso di colesterolo, emicrania, sviluppo tardivo della capacità di leggere, ridotte capacità attentive e irrequietezza.

Il multitasking, termine preso in prestito dal linguaggio informatico per indicare la capacità di processare contemporaneamente più operazioni, sembra essere la caratteristica distintiva dei giovani dell’era digitale: secondo uno studio del 2005, circa un terzo dei giovani parla al telefono, ascolta la musica, naviga sul web, guarda la tv, per tutto il tempo dedicato ai compiti. In linea di massima il multitasking è dannoso per l’apprendimento: l’effetto è stato dimostrato con studi di brain-imaging.

La capacità di un individuo di prendere decisioni è legata alla quantità di informazioni di cui dispone ma questa correlazione ha un limite: ad un certo punto, le informazioni aggiuntive non possono essere più elaborate, cessano così di essere utili e, anzi, diventano una sorta di zavorra cognitiva. Uno studio ha confermato questo effetto su giovani tra i 14 e i 16 anni.

Un meccanismo messo in atto da molti studenti è quello di stampare il materiale per eliminare le distrazioni della tecnologia. Altre strategie di filtraggio di informazioni messe in campo dai giovani per evitare il sovraccarico, sono il chunking e il twigging, procedure che permettono di aggregare grandi quantità di informazioni in una forma comune. Il rischio in questo tipo di operazioni è quello di lasciarsi dietro elementi importanti.

Uno studio del 1997[27]mise in luce come alunni di quinta elementare ignorassero pagine web con più di una o due pagine di testo, prediligendo, invece, quelle ricche di immagini ed elementi grafici.

Con tale esplosione di informazioni, si è presentata da subito la necessità di effettuare ricerche efficaci al fine di individuare ciò che più interessa. Nel 1990 un gruppo di studenti della McGill University sviluppò Archie il primo strumento di ricerca pre-web; nel 1994 l’invenzione del primo web-crawler; di lì a poco l’avvento di Google, Yahoo!, ecc.  I motori di ricerca sono diventati gli strumenti più utilizzati dai nativi digitali.

Oggi sembrerebbe che la strada per la selezione nel mare delle informazioni sarà quella del “filtraggio collaborativo” (Amazon) che parte dal presupposto che migliaia di occhi vedono meglio di due: una saggezza delle folle in grado di pervenire a valutazioni condivisibili sull’attendibilità/gradevolezza di un’informazione (problema: le folle sceglieranno ciò che è meglio o ciò che piace?!). Esistono anche strumenti di filtraggio orientati ad escludere informazioni non richieste/indesiderate come nel caso dei filtri anti-spam dei programmi di posta elettronica o il SafeSearch di Google per escludere alcuni contenuti (ad esempio pornografici). Se nel passaggio dal web 1.0 al web 2.0 si è visto un passaggio da siti statici e monodirezionali a siti orientati alla condivisione/collaborazione degli utenti, oggi si prospetta un passaggio al web 3.0, un web semantico dove i contenuti potranno essere “capiti” da software “intelligenti” – Google si sta muovendo in questa direzione -, che sapranno indirizzare gli utenti sulle scelte migliori (migliori per gli utenti??) formando la loro mente alla capacità di vagliare un numero sempre più grande di materiali.

Profonde trasformazioni sono avvenute anche a livello socio-relazionale. Basti pensare alle  amicizie on-line che si fondano sugli stessi riferimenti di quelle tradizionali – interessi, interazione frequente – ma sono molto più fugaci e fragili, facili da stringere e facili da interrompere; oppure all’interscambio di idee, opinioni, valutazioni sociali e politiche che avvengono sui  social network: non è un attivismo di superficie come alcuni critici sostengono; per valutare la capacità partecipativa dei nativi, soprattutto a carattere politico, bisogna abbandonare la vecchia forma mentis: i giovani non si riuniscono più nelle sedi dei partiti ma, probabilmente, il loro discutere si è intensificato, proprio sui social network,  ed è diventato trasversale rispetto ai partiti (forse una politica più vera!).  In effetti è già in corso un cambiamento radicale nel modo di creare, trasformare e condividere contenuti da parte dei giovani! Epocale è il passaggio dai media tradizionali a quelli digitali : i primi erano progettati per consumatori passivi mentre quelli digitali richiedono un sempre più alto livello di interattività: si parla di User-created Content o User-Generated Content e di web 2.0 per indicare la nuova frontiera del web dove i contenuti dei siti cessano di essere monodirezionali, più simili ai media del secolo scorso, per diventare interattivi o, con più precisione, “sociali” ovvero in costante ristrutturazione, frutto del rimaneggiamento, espansione e condivisione operata dagli utenti. Si parla di mash-up, fan fiction e sampling per indicare la capacità degli utenti di rimaneggiare produzioni esistenti, facendole diventare qualcosa di nuovo.

Tutto questo, è ovvio, mette in moto anche una serie di ulteriori problematiche dovute alle questioni di diritto d’autore che, unitamente al problema della pirateria informatica, sono problematiche assai vive. A tal proposito c’è da dire che la percezione dei nativi rispetto alle questioni di diritto d’autore e di proprietà tende a smaterializzarsi con la digitalizzazione di quei prodotti che un tempo avevano una natura fisica che, in qualche modo, ne tutelava l’integrità, l’identità e la proprietà.

Wikipedia è l’esempio più eclatante di collaborazione per creare contenuti su internet: a differenza delle enciclopedie tradizionali i suoi contenuti non sono creati da esperti ma da volontari che possono essere esperti per determinate aree e, fuori dal loro ambito professionale, contribuiscono ad ampliare le voci di questa enciclopedia sociale. La tecnologia sulla quale si basa è il “wiky” che offre la possibilità a qualsiasi utente di inserire una voce e di modificare le voci altrui. Con questa modalità il risultato che si ottiene in prospettiva è quello di avere, per ogni voce, una elaborazione che è il frutto di molte persone. Questa rivoluzione, in prospettiva potrà costruire una cultura partecipativa, e in parte lo sta già facendo e, forse, una forma di democrazia più solida.

Intelligenza digitale: una nuova forma di intelligenza?
Uno studio condotto, trent’anni fa da James Flynn[28]  mostrò che, nel corso del secolo, c’era stato un notevole aumento del Qi. Tale ricerca fu utilizzata per difendere TV, videogames e personal computer e, più recentemente, internet: tali strumenti starebbero rendendo “più intelligenti” le persone rispetto al passato. In effetti i test hanno dato risultati ambigui in quanto i risultati sono estremamente difformi nelle varie sezioni che misurano i diversi aspetti dell’intelligenza. L’aumento del punteggio globale è da attribuirsi maggiormente al miglior rendimento nei test che implicano una rotazione mentale, l’identificazione di somiglianze e la sistemazione di oggetti in sequenze logiche. Altri test, relativi a memoria, vocabolario, aritmetica e conoscenze generali, mostrano miglioramenti pressoché nulli. Altre misurazioni mostrano un calo nel punteggio medio relativo alla lettura critica e alla scrittura

Alla luce di queste discordanze, lo stesso Flynn giunse alla conclusione che l’aumento globale nei punteggi del Qi non fosse legato ad un effettivo aumento dell’intelligenza globale, quanto ad un modo diverso di considerare la stessa. Il nuovo punto di vista riguardo all’intelligenza sarebbe legato ad un nuovo modo di applicarla ad un nuovo tipo di problemi, per lo più di ordine pratico, legati all’aumento della complessità sociale. Più che essere più intelligenti lo siamo in modo diverso. Siamo allenati, fin da piccoli, a categorizzare, risolvere problemi ed inserire simboli nello spazio: l’uso di computer ed internet consolida, probabilmente, alcune di queste facoltà.

Il fatto che in ogni epoca gli uomini hanno avuto la sensazione di vivere una svolta importante ridimensiona forse la portata dei cambiamenti a cui stiamo assistendo.
Eppure, sostiene Lévy, il cambiamento in corso sembra importantissimo per quanto riguarda l’intelligenza collettiva. Egli, che si interessa di computer e Internet, come strumenti per aumentare le capacità di cooperazione non solo della specie umana nel suo insieme, ma anche quelle di collettività come associazioni, imprese, gruppi locali, etc., sostiene che il fine più elevato di Internet è l’intelligenza collettiva, un concetto già introdotto da filosofi del passato e così definito: « Che cos’è l’intelligenza collettiva? In primo luogo bisogna riconoscere che l’intelligenza è distribuita dovunque c’è umanità, e che questa intelligenza, distribuita dappertutto, può essere valorizzata al massimo mediante le nuove tecniche, soprattutto mettendola in sinergia. Oggi, se due persone distanti sanno due cose complementari, per il tramite delle nuove tecnologie, possono davvero entrare in comunicazione l’una con l’altra, scambiare il loro sapere, cooperare. Detto in modo assai generale, per grandi linee, è questa in fondo l’intelligenza collettiva»[29].

Interessante è la teoria sulle intelligenze multiple di Howard Gardner[30], attualmente considerato uno dei più importanti esponenti dei cosiddetti teorici dell’intelligenza fattorialista, contrapposti ai globalisti. La sua proposta consiste nel considerare priva di fondamento la vecchia concezione di intelligenza come un fattore unitario misurabile tramite il Quoziente d’intelligenza (Q.I.), e sostituirla con una definizione più dinamica, articolata in sottofattori differenziati.  Grazie a una serie di ricerche empiriche e di letteratura su soggetti affetti da lesioni di interesse neuropsicologico, Gardner ha identificato almeno sette tipologie differenziate di “intelligenza”, ognuna deputata a differenti settori dell’attività umana:

  • Intelligenza logico-matematica
  • Intelligenza linguistica
  • Intelligenza spaziale
  • Intelligenza musicale
  • Intelligenza cinestetica o procedurale
  • Intelligenza interpersonale
  • Intelligenza intrapersonale

In seguito, nel corso degli anni ’90, ha proposto l’aggiunta di altri due tipi di intelligenza: quella naturalistica, relativa al riconoscimento e la classificazione di oggetti naturali e quella esistenziale, che riguarderebbe la capacità di riflettere sulle questioni fondamentali concernenti l’esistenza e più in generale nell’attitudine al ragionamento astratto per categorie concettuali universali.

Gardner, nei suoi studi sulle intelligenze multiple, propone otto criteri per poter identificare l’esistenza di una forma di intelligenza. La possibilità di parlare di una intelligenza digitale presupporrebbe la necessità di trovare prove sufficienti di una rispondenza a tali criteri.

Questi i criteri che per Gardner determinano la possibilità di individuare una intelligenza:

1-    che possa essere isolata da una lesione cerebrale;

2-    che abbia una storia evolutiva propria;

3-    che sia composta di sub-intelligenze;

4-    che si possa codificare in un sistema simbolico specifico;

5-    che si sviluppi da uno stadio di principiante fino ad uno “stadio finale”;

6-    che presenti casi eccezionali (savants);

7-    che possa interferire con la funzione di un’altra intelligenza;

8-    che si possa misurare.

Gardner  sostiene che “i sistemi simbolici parrebbero essersi sviluppati per codificare quei significati cui le intelligenze umane sono più propense”[31]. Lo studio dei sistemi simbolici risulta indispensabile per poter trovare le tracce ed identificare una particolare forma di intelligenza.

Il bambino comincia a produrre sistemi simbolici molto prima della comparsa del linguaggio parlato: giochi, disegni e costruzioni sono per Gardner simboli “naturali”.

Con la scolarizzazione si aggregano nuovi strati simbolici – che potremmo definire “artificiali” (digitali) – come la scrittura e il numero. Una volta sviluppato, un sistema simbolico può essere assorbito in altri sistemi simbolici, formando aggregati più complessi. Nello studio dell’intelligenza digitale è indispensabile ricercare il suo proprio sistema simbolico, sistema non condiviso con altre forme di intelligenza (si pensi alla specificità del sistema simbolico musicale).

Per Gardner nessuna intelligenza si manifesta a “freddo” ma è necessario, per la sua manifestazione, un supporto sociale.

Lo sviluppo di una specifica intelligenza richiede, inoltre, lo sviluppo o il perfezionamento di altre intelligenze (si pensi allo sviluppo dell’intelligenza corporea per un musicista). Prendendo come base gli studi di Piaget, sugli stadi di sviluppo della mente del bambino, e del suo discepolo Seymuor Papert, pioniere nell’ambito dell’educazione digitale, possiamo individuare nei bambini nati nell’era digitale, una certa forma di artificialismo e animismo digitali che porta il bambino, già a 10 mesi di età, ad attribuire “intenzioni” ai giocattoli automatici[32].

Anche con la scolarizzazione e nell’età adulta rimangono tratti di animismo individuabili in episodi che capita spesso di osservare o vivere in prima persona: quando insultiamo o inveiamo contro il nostro computer come se fosse una persona in carne ed ossa.

È  anche comune osservare che adulti che hanno da poco iniziato ad utilizzare il computer, tendono a generare una serie di fantasie puerili, quasi attribuendo alla macchina doti magiche.

Rispetto allo sviluppo delle abilità digitali è facilmente identificabile il grado di competenza nell’utilizzo di dispositivi informatici: persone più allenate sono capaci di individuare differenze sottili che sfuggono alle persone meno capaci. Nel caso dell’intelligenza digitale, possiamo rintracciare un esempio nella capacità di individuare bugs o escogitare trucchi per ottenere risultati in maniere più veloce.

Per quanto riguarda  i savants digitali, sappiamo per certo che alcune persone manifestano un’intelligenza digitale superiore alla media. Esistono prove  indirette riguardo all’autonomia dell’intelligenza digitale rintracciate con studi su pazienti con lesioni parietali che, pur manifestando acalculia, mantengono inalterate le capacità digitali elementari come il cliccare sul pannello di un distributore per alimenti o comporre un numero telefonico.

Uno studio di imaging cerebrale (PET) del 1997, condotto in Francia da S. Dehaene, chiarisce il tema delle interferenze e dei rinforzi studiando le relazioni tra intelligenza numerica e intelligenza verbale. Sarà importante effettuare studi simili anche in relazione all’intelligenza digitale.

Il fatto che sul nostro pianeta esistano migliaia di lingue, è segno della straordinaria plasticità del nostro cervello nella manipolazione di simboli. Uno di questi linguaggi si esprime nel “codice digitale”.

Facendo una riflessione più ampia è possibile rintracciare la scelta binaria si/no, ben prima della nascita dell’informatica: si pensi ai tanti esperimenti di laboratorio che basano i loro metodi su criteri di scelta di questo tipo.  Si pensi anche alla storia drammatica di Jean-Dominique Bauby che, costretto alla completa immobilità da una lesione cerebrale, riusciva a comunicare aprendo/chiudendo il suo occhi sinistro.

Le basi dell’intelligenza digitale sono legate a questa alternativa basilare definita “scelta-clic”, unità fondamentale di un’euristica binaria.

Per Bruner l’essenza di tutta l’intelligenza è “la capacità di combinare abitudini prestabilite trasformandole in abilità ogni volta più poderose”.

Ogni azione relativamente complessa potrebbe essere la risultante di un grande numero di operazioni basilari: la scelta clic appunto, che si ritrova anche nelle società pre-digitali e in altre specie animali (pensiamo agli studi del comportamentismo).

L’intelligenza digitale sembrerebbe, quindi, essere connaturata all’uomo e troverebbe nel computer il suo maggiore potenziale di espressione.

Nella ricerca di questa nuova forma di intelligenza, si è individuato, nella scelta-clic, l’elemento essenziale. Si pensi ad un pianoforte: premendo un tasto è possibile generare un suono. Questa, messa in atto dal pianista, è la scelta-clic che gli permette di produrre  dei suoni: combinando simultaneamente più scelte-clic (spazio-clic unario, binario, ternario, n-ario) riesce a produrre accordi sempre più complessi. Lo spazio clic unario, vale a dire l’alternativa fondamentale “si o no” o “A o non A”, genera un reticolo di Boole che presenta quattro nodi (22), ovvero quattro possibili combinazioni.

Le linee che connettono i nodi del reticolo possono essere interpretate come percorsi euristici, percorsi possibili in quello specifico spazio di scelte.

Nello spazio-clic binario  le combinazioni aumentano a 16 (24), in quello ternario il reticolo è di 256 nodi.

Per fare un esempio concreto: una persona di fronte ad una pagina web con soli tre link (A, B, C)[33], attivabili in forma indipendente, avrebbe una possibilità combinatoria implicita di 256 possibili scelte. Di fatto la mente umana non necessita di percorrere tutte queste possibilità: le è sufficiente scegliere una delle 8 scelte-clic per volta, in un sistema seriale (come quello alla base dei computer moderni).

L’intelligenza digitale si esprime, quindi, in uno spazio di decisioni, definito spazio-clic, la cui dimensione dipende dal numero di clic indipendenti che determina una combinatoria di possibilità che cresce esponenzialmente al crescere del numero dei clic indipendenti.

Il nucleo di questa intelligenza è, quindi determinato da due sotto-componenti: la scelta-clic e l’euristica.


[1] Michael Merzenich  è co-fondatore e Chief Scientific Officer di Posit Science, capo team globale della società. Per più di tre decenni è stato un pioniere nella ricerca sul cervello plasticità. Nel tardo 1980 ha contribuito all’invenzionedell’impianto cocleare, ora distribuito da leader del mercato Advanced Bionics. Nel 1996 è stato il CEO fondatore della Scientific Learning Corporation (Nasdaq: SCIL), che commercializza e distribuisce un software che applica i principi della plasticità del cervello per assistere i bambini con l’apprendimento delle lingue e la lettura. Ha pubblicato oltre 150 articoli nelle principali riviste (come Science e Nature) e ha ricevuto numerosi premi e riconoscimenti (tra cui il Premio Ipsen, Zulch Prize, Thomas Alva Edison Patent Award e la medaglia Purkinje).

[2] Vincent Virga, membro della Biblioteca del Congresso, è un esperto di cartografia.

[3] David Sarnoff è stato un imprenditore statunitense. Nato a Uzlyany nei pressi di Minsk nell’allora Impero Russo (odierna Bielorussia) da una famiglia di origine ebraica, sostenne di essere stato il primo a ricevere nel 1912 l’SOS del radiotelegrafo del Titanic, notizia poi smentita. In seguito per propria iniziativa, diede vita ad un sistema di broadcasting, ovvero un sistema di radiocomunicazione con una stazione emittente e più stazioni riceventi. Fu inoltre il massimo dirigente della RCA, Radio Corporation of America, dalla fondazione della società nel 1919 fino al 1970, anno in cui si ritirò dall’attività.

[4] Eric R. Kandel “Alla ricerca della memoria – La storia di una nuova scienza della mente” Ed. italiana (2010) Codice edizioni, Torino  pp 215-217

[5] Maryanne Wolf mette in evidenza che l’economia dei caratteri riduce il tempo e l’attenzione necessari per il riconoscimento rapido dei simboli (“Prust e il calamaro -  Storia e scienza del cervello che legge”  Ed. Feltrinelli – pag. 41).

[6] C. E. Condor, H. E. Egeth, S. Yantis “Visual attention: Bottom-up versus top-down” In Current Biology, 14,5/10/2004, pg 850 – 852.

[7] J. Z. Young, “Doubt and Certainty in Science: A Biologist’s reflections on the Brain”, Oxford University Press, 1951, pag 101.

[8] Walter J. Ong “Oralità e scrittura” – trad. it. Il Mulino, Bologna 1986, pag. 110.

[9] L’autore lo chiama ceilleuton, cioè feuilleton per cellulare, perché fonde il romanzo d’appendice con i Keitai Shosetsu, le trame per telefonino che impazzano soprattutto in Giappone. Stiamo parlando di Social Killer, il giallo di Vito Di Bari uscito ieri di cui si discute molto in questi giorni. Dove si trova? Non in libreria, ma disseminato in Rete: su cellulare, su un sito Internet dedicato e su Facebook. Social Killer viene presentato come il primo romanzo multipiattaforma del mondo. È una trama noir che vede per protagonisti tre universitari milanesi, coinvolti nella caccia a un serial killer che adesca ragazze su un social network e le uccide. Sullo sfondo, i locali e la vita notturna milanese, la polizia che brancola nel buio, i misteri del web. Di Bari conosce bene Internet, la tecnologia e la creatività, dato che sono il suo mestiere, e così per il suo romanzo ha ideato un soggetto articolato su più piani. Per prima cosa va scaricato: lo possono fare i possessori di iPhone e iPod Touch e gli utenti Vodafone (tramite un link). Il tutto gratis.

L’interazione con il soggetto, quindi, funziona più o meno così: leggi i 108 capitoli sul cellulare (pubblicati uno al giorno), che costituiscono una narrazione lineare, senza possibilità di interazione. Nel frattempo, senza cambiare device ma semplicemente connettendosi a Internet con lo smartphone, sul sito di Social Killer si possono scoprire altre informazioni e leggere considerazioni dell’autore. Oppure si può dialogare su Facebook con Deborah, Marco e Chiara, i tre ragazzi che compaiono sulla copertina e che sono stati scelti perché corrispondevano alle caratteristiche dei protagonisti del libro.

La narrazione in realtà non si espande davvero anche sul social network, che è solo uno strumento in più per parlare del romanzo. In ogni caso, resta interessante l’idea di creare una sorta di cortocircuito tra realtà e finzione.

[10] A de Lamartine “Œvre diverses », Louis Hauman, Bruxelles 1836, pp 106 – 107.

[11] M. Federman, “Why Johnny and Janey can’t read, and why mr and mrs Smith cant’teach: The challenge of multiple media literacies in a tumultuous time”

(http://individual.utoronto.ca/markfederman/WhyJohnnyandJaneyCantRead.pdf)

[12] C. Shirky, “Why abundance is good: A reply to Nick Carr” nel blog  Enciclopedia Britannica 17/07/2008 (http://www.britannica.com/blogs/2008/07/why-abundance-is-good-a-reply-to-nick-carr)

[13] Pierre Lévy, è un filosofo francese che studia l’impatto di Internet sulla società. Allievo di Michel Serres e Cornelius Castoriadis alla Sorbona, specializzatosi a Montreal, studioso delle implicazioni culturali dell’informatizzazione, del mondo degli ipertesti, e degli effetti della globalizzazione.,

Le sue pubblicazioni più importanti sono:

- “Les arbres de connaissances”(con Michel Authier), Parigi, La Découverte, Paris 1992, tr. it. Gli –

-Alberi delle conoscenze. Educazione e gestione dinamica delle competenze, Feltrinelli, Milano, 2000.

- « Les Technologies de l’intelligence. L’avenir de la pensée à l’ère informatique », La Découverte, Paris 1990, tr. it. Le tecnologie dell’intelligenza. L’avvenire del pensiero nell’era dell’informatica, ES/Synergon, Bologna 1992.

-L’Intelligence collective. Pour une anthropologie du cyberespace », La Découverte, Paris, 1994, tr. it. L’intelligenza collettiva. Per un’antropologia del cyberspazio, Feltrinelli, Milano 1996, 20022.

[14] Pierre Lévy, “Qu’est-ce que le virtuel?   - editore La Découverte, 1995, Paris – Traduzione italiana di Maria Colò e Maddalena Di Sopra, editore Raffaello Cortina 1997, Milano

[15] Fischer, K. W., Daniel, D., Immordino-Yang, M. H., Stern, E., Battro, A., & Koizumi, H.. (2007). Why Mind, Brain, and Education? Why Now? Mind, Brain, and Education, 1(1), 1-2.

[16] Antonio Bratto, medico e psicologo argentino, è considerato uno dei più importanti studiosi nel campo delle neuroscienze e dell’interazione tra mente, cervello e educazione. In Italia ha pubblicato:

-‘Il pensiero di J. Piaget’ (Pitagora, 1983);

-‘Discomunicazione, tecnologia informatica ed educazione dei disabili uditivi’ (Piccin, 1994);

-La neuroeducazione di un bambino senza emisfero destro’ (Erickson, 2002); ‘Verso un’intelligenza digitale’ (con Percival J. Denham) (Ledizioni, 2010).

[17] Patricia Greenfield è docente di Psicologia dello sviluppo  presso l’UCLA (Università della California di Los Angeles).   Ha approfondito tematiche quali interazione  mente e media (televisione, videogiochi, computer) sviluppo e socializzazione del bambino.

[18] G Small, G. Vorgan, “iBrain: Surviving the Technological Alteration of the Modern Mind”, ed. Collins, New York 2008, p. 1.

[19] Erping Zhu,”Hypermedia interface design: The effects of number of links and granularity of nodes”  in “Journal of Educational Multimedia and Hypermedia, 8, 3, 1999, pp 331 – 358.

[20] D. DeStefano, J.-A. LeFevre  “Cognitive load in hypertext reading: A review” in  Computers in Human Behavior 23 (2007) 1616–1641

[21] L’apprendimento attraverso i multimedia ha luogo quando “le persone costruiscono rappresentazioni mentali da parole (linguaggio parlato o testo scritto) e immagini (illustrazioni, foto, animazioni o video). Come si può vedere in questa definizione, multimedia si riferisce alla presentazione di parole e immagini, mentre learning si riferisce alla costruzione della conoscenza da parte dei discenti”.  La costruzione della conoscenza cui si fa riferimento si basa su una specifica configurazione dell’apparato cognitivo umano secondo il quale il sistema cognitivo umano è composto da diversi elementi che interagiscono fra loro: una memoria a lungo termine (Long Term Memory) (LTM); una memoria di lavoro a breve termine (Working Memory) (WM); un sistema cognitivo duale audio-visivo (DCS).

Sweller John, (2005, Implication of Cognitive Load Theory for Multimedia Learning, in Mayer, 2005, pp. 19-30. ), in riferimento a tale modello del sistema cognitivo umano, introduce il concetto fondamentale di carico cognitivo (cognitive load), intendendo con tale termine “il carico imposto alla memoria di lavoro dall’informazione che viene presentata” Il carico cognitivo può essere suddiviso in tre differenti tipologie:

1. Estraneo (extraneous): “Il carico di lavoro estraneo è causato da un’inappropriata progettazione dell’istruzione che ignora i limiti della memoria di lavoro e fallisce nel concentrare le risorse della memoria di lavoro sulla costruzione e l’automazione di schemi”;

2. Intrinseco (intrinsic): “Il carico di lavoro intrinseco è il carico cognitivo derivante dalla naturale complessità dell’informazione che dev’essere processata. Esso è determinato dalle relazioni e dai livelli di interattività degli elementi.  Molto spesso infatti non si possono apprendere determinati argomenti senza apprenderne contemporaneamente altri. La comprensione e l’apprendimento di materiali aventi fra loro un’elevata interattività, risultano difficili per una specifica e importante ragione: perché un’elevata interattività degli argomenti e dei contenuti impone un elevato carico cognitivo alla memoria di lavoro”;

3. Pertinente (germane): “Il carico di lavoro pertinente è l’effettivo carico cognitivo. E’ il carico cognitivo causato dallo sforzo di apprendimento risultante dalla costruzione e l’automazione di schemi”.

Il carico cognitivo estraneo, intrinseco e pertinente si influenzano a vicenda. Scopo dell’istruzione dovrebbe essere quello di ridurre il carico cognitivo estraneo, causato da una scarsa attenzione agli aspetti di progettazione (un inappropriato instructional-design). Diminuire il carico cognitivo estraneo libera infatti la memoria di lavoro. La progettazione dell’informazione è relativamente poco importante nel caso in cui i contenuti da apprendere siano molto elementari e semplici, mentre assume un valore molto importante nel momento in cui deve far fronte a un’elevata complessità dei contenuti stessi (cui corrisponde un elevato carico cognitivo intrinseco). Ecco allora che ricoprono un ruolo di capitale importanza i principi fondamentali dell’apprendimento tramite i multimedia testati e verificati sperimentalmente, che permettono di ridurre il carico cognitivo estraneo, quindi validi soprattutto per contenuti ad elevata complessità.

Principio della divisione dell’attenzione (Split Attention Principle): i discenti imparano meglio quando il materiale didattico consente loro di non dividere l’attenzione fra diverse fonti di informazioni che fanno riferimento alla stessa modalità cognitivo-sensoria;

Principio della modalità (Modality Principle): i discenti imparano meglio quando le informazioni verbali sono presentate per via vocale-auditiva come narrazione parlata piuttosto che in modalità visiva come testo scritto;

Principio di rindondanza (Rendundancy Principle): i discenti imparano meglio da animazioni e narrazioni parlate, piuttosto che da animazioni, narrazioni parlate e testo scritto, se le informazioni visive sono presentate insieme alle informazioni verbali;

Principio di contiguità spaziale (Spatial Contiguity Principle): i discenti imparano meglio quando il testo scritto e il materiale visivo sono fisicamente integrati piuttosto che separati;

Principio di contiguità temporale (Temporal Contiguity Principle): i discenti imparano meglio quando i materiali visivi e verbali sono sincronizzati (presentati contemporaneamente) piuttosto che separati nel tempo (sequenzializzati);

Principio di coerenza (Coherence Principle): i discenti imparano meglio quando i materiali estranei sono esclusi dalle spiegazioni multimediali.

[22] Patricia M. Greenfield “Tecnology and informal education: What is taught, what is learned in Science, 323,5919, 02/01/2009pp 69-71

[23] Mente e Cervello, Maggio 2009, n. 53, p. 37

[24] R. Kraut, Journal of Social Issues, 2002

[25] K. Subrahmanyam e G. Lin

[26] L. Freberg

[27] Yasmin Kafai e Marcia J. Bates, “Internet Web-Searching Instruction in the Elementaruy Classroom: Building a Foundation for Information Literacy, “School Library Media Quarterly”, 25,2, (inverno 1997), pp 103 – 111.

[28] J. R. Flynn, “Requiem for nutrition as the cause of QI gains: Raven’s gains in Britain 1938-2008” in  Economics and Human Biology, 7, 1, marzo 2009, pp 18-27

[29] “L’Intelligence collective. Pour une anthropologie du cyberespace », La Découverte, Paris, 1994, tr. it. L’intelligenza collettiva. Per un’antropologia del cyberspazio, Feltrinelli, Milano 1996, 2000

[30] Howard Gardner, professore presso la Harvard University nel Massachusetts, ha acquisito celebrità nella comunità scientifica grazie alla sua notissima teoria sulle intelligenze multiple. È noto anche per aver scritto alcuni importanti testi di psicologia dell’educazione e per aver elaborato la più importante storia classica della nascita della scienza cognitiva, The Mind’s New Science (1983). Per le sue ricerche ha ottenuto vari riconoscimenti e lauree ad honorem. Tra le sue pubblicazioni  disponibili  in lingua italiana, ricordiamo:

-Formae mentis. Saggio sulla pluralità dell’intelligenzaFeltrinelliMilano1987, 20022

-La nuova scienza della mente. Storia della rivoluzione cognitiva, Feltrinelli, Milano, 1988

-Aprire le menti. La creatività e i dilemmi dell’educazione, Feltrinelli, Milano, 1991

-Educare al comprendere. Stereotipi infantili e apprendimento scolastico, Feltrinelli, Milano, 1993

-Il bambino come artista: saggi sulla creatività e l’educazione, Editore Anabasi, 1993

-Intelligenze creative. Fisiologia della creatività attraverso le vite di Freud, Einstein, Picasso, Stravinsky, Eliot, Gandhi e Martha Graham, Feltrinelli, Milano, 1994

-Intelligenze multipleAnabasi1994

-L’educazione delle intelligenze multiple, Anabasi, 1994

-Personalità egemoni. Anatomia dell’attitudine al comando, vol. 211 di Campi del sapere, Feltrinelli, Milano, 1995

-Sapere per comprendere. Discipline di studio e discipline della mente, Feltrinelli, Milano, 1999

(con David H. Feldman e Mara Krechevsky) Project spectrum, vol. 3 di Progetto Spectrum, curatori P. Nicolini e B. Pojaghi, Editore Junior, 2002

-Cambiare idee. L’arte e la scienza della persuasione, Feltrinelli, Milano, 2005

-Educazione e sviluppo della mente. Intelligenze multiple e apprendimento, Edizioni Erickson, 2005

-Riscoperta del pensiero. Piaget e Lévi-StraussArmando Editore, 2006

-Cinque chiavi per il futuro, Feltrinelli, Milano, 2007, 20112

-Verità, bellezza, bontà. Educare alla virtù nel ventunesimo secolo, trad. di Virginio B. Sala, Feltrinelli, 2011

[31] Gardner 1999, 37-38

[32] Premack 1995

[33] Le combinazioni logiche implicite tra A, B e C sono 256 (28) frutto dei possibili percorsi percorribili tra gli otto nodi (A. B. C.) v (  ̴A. B. C.) v (  ̴A.  ̴B. C.) v (  ̴A.  ̴B.  ̴C.) v (A.  ̴B. C.) v (A.  ̴B.  ̴C.) v (  ̴A. B.  ̴C.) v (A. B.  ̴C.).

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

*

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>