Intelligenza artificiale

Intelligenza artificiale: il clouding computing e il cyborg
Quando si diffuse l’abitudine di scrivere i propri pensieri e leggere quelli degli altri, Socrate intuì che la gente avrebbe cominciato a dipendere molto meno dai ricordi, richiamando alla mente le cose non “dall’interno di se stesse, ma servendosi di segni esterni”. La fiducia nella memoria diminuì ulteriormente con la diffusione della stampa: con la diffusione del testo scritto la gente poteva non ricordare tutto. Bastava cercare. È certo che la diffusione del testo scritto ha portato anche risultati positivi quali l’aumento dell’offerta di conoscenza. Erasmo da Rotterdam, nel suo De copia verborum et rerum del 1512, metteva in relazione memoria e lettura: la memoria non è un semplice strumento di archiviazione ma il primo passo ad un processo di sintesi che porta alla comprensione profonda di quanto si legge. Quella di Erasmo è una memoria attiva, capace di discriminare e di collegare, con creatività, vari elementi anche distanti tra loro.

Se fino a pochi decenni fa la memorizzazione era ritenuta, nella scuola, strumento principe per l’intuizione, è stata progressivamente bandita dalla didattica e quasi ritenuta una barriera alla creatività. La diffusione, nel corso del secolo scorso, dei dispositivi di memorizzazione audio e video, e poi dati, ha fatto il resto.

La nostra memoria oggi assomiglia ad un indice dei luoghi del web di maggiore interesse per noi. La nostra mente sta assumendo, sembrerebbe, sempre più, la struttura del web. Se per alcuni, come Thompson[1] e Brooks[2],  liberare la mente da un sovraccarico di informazioni le rende possibile dedicarsi ad altro, per altri non è così.

Eric Kandel[3] ha focalizzato i suoi studi sulle modalità di trasformazione dei ricordi fuggevoli in ricordi di lungo periodo. Già nel 1885 Hermann Ebbinghaus[4]scoprì che la sua abilità di memorizzare migliorava con la ripetizione e che risultava più efficace studiare una mezza dozzina di parole per volta che non tutte le dodici parole insieme. Molti studi successivi  hanno focalizzato l’attenzione sui processi di consolidamento della memoria e sulle modalità di funzionamento di MBT e MLT.  Kandel dimostrò, con studi neuroscientifici, che le intuizioni di Ebbinghaus hanno basi non solo biochimiche ma anche anatomiche, nel senso che il cervello, a seguito di un nuovo apprendimento (in MLT) assume configurazioni fisiche (anatomiche) nuove (neuroplasticità). In particolare “la memoria a breve termine produce un cambiamento nella funzione delle sinapsi, rafforzando o indebolendo delle connessioni preesistenti; la memoria a lungo termine richiede delle variazioni anatomiche”.

Questo complesso processo va ben oltre il semplice scambio di un neurotrasmettitore (il glutammato) da un neurone all’altro: entrano in gioco anche cellule, chiamate interneuroni, che producono un altro neurotrasmettitore, la serotonina, che calibra la quantità di glutammato rilasciata. La serotonina rilasciata dagli interneuroni si lega ad un recettore sulla membrana del neurone presinaptico – che porta l’impulso elettrico – che innesca la reazione chimica che produce la molecola AMP ciclico; questa molecola attiva, a sua volta, la proteina chinasi A che stimola la cellula a rilasciare una quantità maggiore di glutammato nella sinapsi, rafforzando così la connessione sinaptica, prolungando l’attività elettrica dei neuroni collegati e permettendo il mantenimento del ricordo nella MBT per alcuni secondi e, in certi casi, per alcuni minuti. Il passo successivo fu identificare il processo che, da questo permanere in MBT, porta al consolidamento del ricordo in MLT: con la permanenza dei ricordi in MBT per un tempo sufficientemente lungo, l’enzima chinasi A, con un altro enzima chiamato MAP, si sposta dal citoplasma esterno del neurone fino al suo nucleo dove il chinasi A attiva la proteina CREB-1: questo processo innesca una trasformazione fisica del neurone che svilupperà nuove terminazioni sinaptiche e che manterrà questa nuova conformazione per un tempo lungo. Ogni nuovo ricordo sembrerebbe transitare per l’ippocampo, deputato a posizionare questa nuova memoria in relazione a quelle già esistenti.

Il clouding nella vita di tutti i giorni (software esternalizzato)
Tutto questo mette in evidenza come il comportamento dell’individuo, unito alle influenze ambientali, creino un mix di sollecitazioni in grado di dare una forma sempre nuova alla mente e, quindi, al cervello. Si tratta di un processo che se da un lato parte dal cervello (condizionamento delle connessioni esistenti sul comportamento), dall’altro si gioca a partire dalla mente (condizionamento delle nuove connessioni su quelle esistenti).

Di fronte all’immensa complessità del cervello umano, qualcuno ritiene fantascienza immaginare che la tecnologia possa raggiungere una tale capacità in quanto si ritiene che mentre la memoria biologica è viva quella informatica no. Eppure la strada imboccata da alcune grandi aziende, quella di Page (Google) prima tra tutte, è quella che vuole portare ad una vera intelligenza artificiale. Se è vero che il cervello umano mantiene comunque una complessità ancora ineguagliabile, a ben guardare i progressi fatti fino ad oggi, qualche riflessione in più dobbiamo farla. Se è vero che delegare le tecnologie a svolgere molti compiti gravosi per il nostro cervello, lo libera per compiti altri, è anche vero che il web, così com’è, grava la memoria di lavoro di un peso enorme. Il processo di consolidamento di un nuovo ricordo parte dall’attenzione cosciente, un processo dall’alto che interessa i lobi frontali della corteccia cerebrale. L’influenza della moltitudine di messaggi nel web, sovraccarica la memoria di lavoro rendendo difficilissimo, per i lobi frontali, concentrare l’attenzione su un singolo focus. La sempre maggiore dipendenza dal web e dai dispositivi elettronici potrebbe innescare un processo, che si autoalimenta, che rende più difficile memorizzare in MLT e ci costringe ad affidarci, sempre più spesso, alla memoria esterna artificiale. Affidare la memoria a banche dati esterne minaccia la peculiarità stessa del sé e della cultura che l’insieme condivide. Andiamo verso una cultura artificiale?

Già negli anni ’60, Weizenbaum[5] scrisse un programma per analizzare il linguaggio (lo chiamò ELIZA) che era in grado di simulare, col suo interlocutore in carne ed ossa, una conversazione. Weizenbaum assegnò un personaggio ben preciso ad ELIZA, quella di uno psicoterapeuta rogersiano. Dato l’incredibile successo del programma si cominciò a pensare ad ELIZA come strumento terapeutico. Il computer, come tutte le tecnologie che si sono susseguite nella storia, si è integrato nella società ad un punto tale che oggi è impossibile pensare di disfarcene. La società attuale è per grande parte creata dalle tecnologie stesse di cui ci siamo dotati: liberarcene sarebbe come volerci disfare di un organo del nostro corpo. Come abbiamo visto per la neuroplasticità ed i processi consapevoli che possono dirigerla verso forme desiderabili, accade qualcosa di simile alle società: è necessaria la consapevolezza e il coraggio individuale, e quindi sociale, di non delegare le nostre attività mentali più profonde alle macchine. E se può sembrare ancora presto per avere timori del genere, è fondamentale fare adesso questa riflessione, farla ora che la pressione della tecnologia è ancora, relativamente, blanda.

Frederick Winslow Taylor[6] portò, nell’acciaieria di Midvale a Filadelfia, un cronografo al fine di cronometrare ogni movimento eseguito dagli operai nel corso delle loro attività.

Attraverso le sue misurazioni, arrivò a definire un vero e proprio “algoritmo” per ottimizzare al massimo le procedure lavorative di ogni operaio.

Il sistema di Taylor resta tutt’oggi uno dei pilastri della produzione industriale  con la sua capacità di raccogliere, trasmettere e manipolare in maniera estremamente efficiente le informazioni.

Il metodo di Taylor è oggi alla base del motore di Google. L’azienda, leader mondiale, gestisce miliardi di byte di informazioni compiendo, ogni giorno, esperimenti al fine di perfezionare, sempre più, i suoi algoritmi che guidano l’utente nella ricerca delle informazioni e nella loro strutturazione. L’apparente staticità di Google nasconde, in realtà un percorso evolutivo costante, fatto di piccoli e continui miglioramenti, orientati da una analisi sempre più puntuale dei dati raccolti dagli utenti. In un famoso esperimento, l’Azienda verificò 41 diverse gradazioni di grigio, identificando la più efficace con gli utenti. Il caso di Google è un caso estremo che ci permette di fare una serie di riflessioni: Google più che una azienda – parole del suo direttore generale – è una forza morale, la cui mission è “organizzare l’informazione del mondo e renderla universalmente accessibile e utile”, creando “il motore di ricerca perfetto” capace di “capire esattamente quello che vuoi dire e ti propone esattamente ciò che vuoi”.

Page[7] intuì, fin dall’inizio, che per raggiungere un tale obbiettivo avrebbe dovuto effettuare un’analisi matematica di due fattori riguardanti le pagine web: il numero dei link in entrata e l’autorevolezza dei siti di provenienza. Inutile andare troppo nel dettaglio della storia: il fatto è che Google, anche grazie ad una serie fortunate di intuizioni per monetizzare, è diventata un colosso  mondiale. Col passare del tempo sempre maggiore è stato il numero di dati analizzato da Google e sempre maggiori le informazioni riguardanti gli utenti. Questo immenso patrimonio di informazioni è offerto agli utenti per essere consumato in un velocissimo mordi e fuggi. La battaglia tra le aziende leader del web si combatte proprio sulla capacità di offrire agli utenti velocità nell’ottenere l’informazione, facendo in modo che lo sforzo dell’utente nel cercare l’informazione sia minimo o nullo.

Page stesso, fin dal principio, ha considerato Google come una forma embrionale di intelligenza artificiale che sarà la forma definitiva del noto motore di ricerca. Google migliora ogni giorno la capacità di elaborazione della grande massa di informazioni in suo possesso, tendendo ad un modello specifico: il cervello umano. L’intelligenza artificiale emergerà dalla macchina così come la mente emerge dal cervello fisico. Page punta ad una intelligenza artificiale capace di scrivere da sola i suoi propri algoritmi – tornano in mente alcune scene del film “2001 – Odissea nello spazio” col suo HAL 9000.

Lo sviluppo completo della mente prevede sia la capacità di trovare e valutare informazioni, sia quella di riflettere senza uno scopo ben preciso. Internet, le tecnologie e i new media esercitano la nostra mente solo riguardo alla prima abilità.

L’esigenza di dover selezionare, nel mare di informazioni, porta ad utilizzare esclusivamente quelle informazioni immediatamente indispensabili per la risoluzione di una specifica problematica, escludendo tutte le altre informazioni.

Le nuove tecnologie stanno trasformando il mondo sotto molti punti di vista. Sono sempre di più le offerte di prodotti sminuzzati: se ho bisogno della guida di una specifica località greca, Amazon mi darà la possibilità di acquistare solo le pagine che mi occorrono. iTunes mette in vendita le singole canzoni senza obbligare all’acquisto dell’intero album. Il consumo si fa istantaneo, guidato dall’istinto del momento che può essere immediatamente appagato con un click. Ogni dispositivo oggi è connesso ad internet. Sempre più sarà possibile raggiungere la propria banca dati di informazioni personali, libri, musica, fotografie, ecc senza più essere vincolati ad uno specifico dispositivo hardware. Non serve più che le mie canzoni, i miei libri, le mappe del navigatore, risiedano su uno specifico dispositivo; si troveranno in una grande nuvola e l’importante sarà potervi accedere, in qualsiasi momento, con un qualsiasi dispositivo (vengono in mente le parole di Turing). La centralizzazione delle nostre memorie in questa grande nuvola porta ad un’immediata condivisione, oggi solo in parte, di ciò che ci rappresenta – e non più “ci appartiene” – con altri. Questo innesca un processo di scambio e di confronto senza fine (si pensi ai social network).

Il cyborg: integrazione corpo/tecnologia (hardware integrato)
Una delle peculiarità dell’uomo, e che appartiene in maniera assai limitata ad alcuni animali, è quella di adattarsi ad ogni strumento rendendolo, in qualche modo, un suo prolungamento. Il martello impugnato dal falegname diventa prolungamento del suo arto: i muscoli apprenderanno, nel tempo, quello specifico movimento e le aree cerebrali ad esso associate si svilupperanno sempre più fino ad integrare, quello strumento, nella mappa corporea.

Mentre le tecnologie diventano estensioni di noi stessi, noi diventiamo estensioni della tecnologia. Ogni strumento da un lato ci potenzia e dall’altro ci indebolisce: Marshall McLuhan[8] scriveva che i nostri strumenti finiscono per “intorpidire” qualsiasi parte del corpo essi “amplifichino”. Allo stesso modo l’utilizzo di un word processor atrofizza l’abilità di scrivere a mano. Per lo stesso motivo, da quando abbiamo delegato l’orologio alla scansione temporale delle nostre giornate, abbiamo smesso di ascoltare i nostri sensi.

Siamo diventati sempre più scientifici ma anche sempre più meccanici. Si pensi alla trasformazione che stiamo subendo nella nostra dipendenza, ad esempio, dai dispositivi GPS! Il computer e tutte le tecnologie, spiega Norman Doidge[9]estende la capacità elaborativa del nostro cervello e, nel farlo lo altera. Con l’avvento dell’era informatica si è sviluppata moltissimo la nostra capacità di connetterci con le altre menti: questo iper-lavoro delle aree cerebrali preposte al pensiero sociale,  può portare, secondo Mitchell[10] a vedere menti anche dove non ci sono (si pensi ad ELIZA).

Se questo innesto tra intelligenza biologica ed “intelligenza” artificiale ci potenzia, rappresenta anche una minaccia alla nostra integrità di esseri umani. Da un lato programmiamo i nostri computer, dall’altro sono loro a programmare noi.

Se da un lato le tecnologie ci permettono di espandere le nostre possibilità all’esterno di noi, osserviamo un processo inverso che vede l’integrazione della tecnologia direttamente nel nostro corpo. Se possiamo già riconoscere nella clava o nella ruota prime forme di estensione del corpo, oggi assistiamo, sempre più, ad una vera e propria penetrazione che porta il corpo biologico a trasformarsi fino a diventare un ibrido biologico/meccanico/elettronico.

Esistono diverse tipologie di protesi: integrative, estensive ed invasive e le loro finalità possono essere varie: legate allo sport, alla disabilità, all’estetica, ecc.

Tecnologie integrative: come integrazione del corpo (le protesi per lo sport), come miglioramento (le protesi estetiche), come potenziamento (le protesi chimiche), come sostegno (il computer nella scuola).

Tecnologie estensive: il telefono o l’automobile, il corpo e l’identità virtuale, ecc.

Tecnologie invasive: gli impianti corporei, il cyborg, ecc.

Non ci rendiamo conto di quanto le protesi siano già nella nostra vita: si pensi ai pacemaker, agli apparecchi acustici o, più semplicemente, agli occhiali! Ci interessa maggiormente esplorare, in questa sede, l’utilizzo di protesi tecnologiche che non risultano essere orientate al sopperire alla mancanza di funzionalità biologiche (come nel caso dell’apparecchio acustico) ma orientate ad un potenziamento delle funzionalità esistenti (una protesi che renda capace di ascoltare a distanze enormi) o alla  creazione di nuove funzionalità (una protesi che consenta di ascoltare gli ultrasuoni o vedere gli infrarossi).

Volendo estremizzare la riflessione sulla possibilità di modificare il corpo dall’esterno, basterebbe pensare alla possibilità di agire direttamente sulla riscrittura del DNA al fine di modificare direttamente la parte biologica del corpo. Se oggi può risultare ancora lontano il giorno in cui le persone si faranno “riscrivere” il DNA, risulta molto più vicina la possibilità di farsi impiantare un rilevatore GPS o un chip biomedico.

Le tecnologie raggiungono un livello di miniaturizzazione sempre più alto: se oggi è ancora impossibile impiantare certi componenti direttamente nella calotta cranica per ragioni di spazio, questa limitazione, prima o poi, cesserà di esistere.

Quando queste forme tecnologiche saranno a buon prezzo e facilmente integrabili, possiamo ipotizzare che chiunque potrà integrare quelle carenze o imperfezioni sia fisiche che funzionali. Possiamo ipotizzare, come accade in certi film futuristici (Matrix) che non sarà più necessario studiare per apprendere determinate competenze, ma sarà sufficiente dotarsi del miglior dispositivo in commercio.

Come abbiamo visto precedentemente esiste un movimento che porta all’esternalizzazione delle funzioni e della memoria all’interno del cloud e, adesso, vediamo questo movimento che porta l’ingresso della tecnologia all’interno del biologico. Sembra di intravedere le sembianze di un grande organismo biologico/tecnologico sempre più integrato, un grande organismo che sembra assumere una sua identità con un corpo composto di tante cellule (le persone) interconnesse tra loro grazie alla tecnologia e con una immensa memoria condivisa e, cosa più importante, una grande mente condivisa.

Affidando le funzioni del corpo a protesi tecnologiche, le atrofizziamo, affidando così, il loro “funzionamento” al silicio dei circuiti elettronici.

La riflessione che scaturisce da quanto detto è relativa all’identità: che fine fa l’uomo quando parliamo di cyborg?

Fino a che punto possiamo parlare di uomo? È possibile immaginare questa ibridazione come processo strettamente appartenente all’evoluzione umana?

Le posizioni sono varie e arrivano a toccare punte estreme come per Stelarc che pensa al corpo umano come a qualcosa di obsoleto e auspica la sua completa sostituzione con una macchina, o come chi vede la necessità di una interconnessione tra naturale e tecnologico verso la formazione di un corpo bionico, post-umano, come sostiene Kevin Kelly, direttore della rivista Wired. È possibile pensare ad un mondo post-umano con abitanti completamente sintetici? Joel De Rosnay[11]parla della mente condivisa nel suo testo “Che cosa è il Cybionte?”. Il Cybionte è un grande organismo costituito da uomini e macchine. Questo grande organismo planetario vedrà il superamento dell’identità individuale, verso una identità condivisa da tutti gli uomini  (che fine fanno gli animali in questo discorso?) per il tramite delle macchine, che, di fatto, diventano parte di questo grande organismo.

Il problema della nuova identità: privacy, sicurezza, proprietà, iper-controllo
L’avvento dell’era tecnologica ha trasformato radicalmente l’identità dell’individuo. Soprattutto grazie allo sviluppo delle reti informatiche col potenziale comunicativo che si portano dietro, la questione dell’identità è diventata qualcosa di completamente nuovo: fino a 20 anni fa l’identità di un individuo era fortemente legata al contesto fisico entro il quale agiva; la condizione familiare, il vicinato, il contesto lavorativo erano gli unici ambienti sociali capaci di esercitare una pressione sul singolo,vestendolo in qualche modo di abitudini e modi di porsi che rispondessero a quel contesto.

Il mondo che viviamo ci permette e, da certi punti di vista, ci impone di confrontarci con un contesto estremamente più vasto, si relativizza il punto di vista del “vicinato” e si ha la possibilità, ogni giorno, di costruire nuova identità in nuovi contesti.

Certamente questo tipo di espansione si è già concretizzato con l’avvento dell’era industriale quando nuovi mezzi di trasporto e nuovi standard di vita permisero di spostarsi dal bacino di origine e costruirsi identità nuove in contesti vergini.

Oggi questa possibilità è esplosa e ogni carattere permanente legato all’identità tende a scomparire: basta andare su un social network, iscriversi con un nome di fantasia e caricare una foto pescata a caso su internet, per essere una persona completamente diversa.

Questa possibilità è replicabile, di fatto, all’infinito: oggi esiste la possibilità di costruirsi dieci, cento identità e viverle nei diversi contesti, una frammentazione dell’io!

I nativi cambiano le informazioni personali su internet ogni volta che cambia la loro percezione di sé e il modo in cui vogliono rappresentare se stessi: si innesca un circuito di feedback che produce una costante revisione dell’identità. Tali cambiamenti possono avvenire con frequenze estremamente variabili.

Va sottolineato che, dal punto di vista di un nativo digitale, non esiste suddivisione tra identità on-line e off-line: alcuni studi sostengono che i più giovani tendono ad esprimere le loro identità on-line in maniera coerente alle loro identità off-line. Genitori ed insegnanti hanno comunque ragione a ritenere preoccupanti alcune pratiche di socializzazione on-line. Una delle cose che risultano più incomprensibili agli immigranti è il motivo che spinge i nativi a pubblicare così tante informazioni personali negli spazi virtuali.

Nel tentativo di dare risposta a tale domanda, gli psicologi hanno elaborato il “modello decisionale della divulgazione”: tale modello vede gli individui, in qualità di attori razionali, impegnati a stabilire se la diffusione di un’informazione in una data situazione rappresenti una buona strategia per raggiungere un determinato obbiettivo, pesando sulla bilancia costi e benefici. C’è da dire, però, che le persone, ed in particolar modo i giovani, non agiscono spinti da valutazione esclusivamente razionali: probabilmente il punto di partenza per una riflessione corretta deve essere la comprensione che per sempre più persone, la componente on-line è decisiva per la vita sociale: le possibilità offerte dalla tecnologia amplificano all’esasperazione il bisogno innato dell’uomo di comunicare.

È  possibile che ciò che spaventa un immigrante è la difficoltà ad interpretare un nuovo contesto sociale espanso che è, invece, assolutamente naturale per i nativi. Se si pensa al boom dei social network, della vendita di dispositivi per la connettività in mobilità, alla crescita dell’industria dei giochi on-line, si intravede una cultura globale che unisce i nativi dei vari Paesi del mondo.

Il paradosso che viene ad essere, dopo tutto quanto è stato detto, è che un ragazzo può rivedere a piacimento la sua identità sociale più e più volte, ma la sua capacità di controllo su tali step di identità risulta estremamente più ridotta che in passato: se 50 anni fa andare a vivere in un’altra città era sufficiente a ripartire da zero, oggi le tracce delle precedenti identità rimangono sempre disponibili ad essere ritrovate. Viene a svanire, progressivamente, la capacità di controllare il come gli altri ci percepiscono: basta inserire su Google il nome di una persona per trovare traccia di tutto quello che è e che è stato!

Forse sarà così vasto il numero di frammenti che riguarderà ogni individuo che questa nuova forma di identità verrà normalizzata al punto da non influenzare il giudizio interpersonale. Le preoccupazioni di oggi sono certamente legate al punto di vista di oggi e potrebbero semplicemente non esistere domani.

L’avvento del digitale ha permesso la costruzione di nuove e diverse identità. Spesso si sente parlare di Avatar, un alter-ego digitale, costruito ad hoc, non per forza rispondente a quello reale, che abita città, anzi, interi mondi, completamente virtuali.
Attraverso gli avatar o grazie ad un semplice profilo su un social network, è possibile entrare in contatto con una dimensione sociale decisamente più ampia rispetto a quella che possiamo toccare, limitati dalla nostra corporeità. È  possibile creare, una, dieci, cento identità per incarnare ruoli diversi, che magari, non si riesce a vestire nella vita reale. Nei mondi virtuali tutto diventa più facile: un timido può diventare estroverso e chi “si ritiene” brutto può fare una esperienza diversa, proponendosi “bello”.

Quando abbiamo parlato dell’esternalizzazione della memoria, abbiamo messo in risalto la tendenza ad affidare sempre di più le cose che ci riguardano, alla memoria degli elaboratori elettronici. Con tutte le nostre informazioni, le nostre foto, i nostri ricordi, la nostra identità esce in parte da noi e, da quel momento, ci sfugge, ne perdiamo il controllo.

Società disciplinare e fuga nel virtuale
Come ci sono motivi di entusiasmo legate alle immense possibilità comunicative dell’era digitale, esistono motivi di preoccupazione.

Tutte le informazioni che i giovani immettono, in formato digitale, nella rete, diventano spessissimo accessibili a chiunque. La consapevolezza dei nativi del grado di diffusione e persistenza delle informazioni diffuse on-line varia moltissimo. Questo immenso patrimonio informativo resterà a disposizione di chiunque volesse indagare: si pensi ad un datore di lavoro che indaga, preventivamente, su un candidato. Le persone barattano continuamente il controllo per la comodità: per ogni individuo che fruisce dei “servizi” messi a disposizione, spesso gratuitamente, in rete, esiste un vero e proprio dossier digitale che rappresenta l’insieme delle varie identità incarnate, nel corso del tempo, dall’individuo.

L’insieme delle informazioni che, senza troppa consapevolezza, regaliamo alla rete diventa la moneta di scambio per tutti quei servizi che un tempo avremmo pagato con bei soldoni e che oggi, inspiegabilmente per i meno esperti, ci vengono regalati: si pensi ai giochi on-line, alle caselle di posta elettronica, ai programmi (google docs), ecc.

Informazioni finanziarie, pagamenti, iscrizione a portali e siti di ogni genere: tutto questo ci profila in maniera sempre più precisa. Più recentemente, con lo sviluppo massivo dei dispositivi portatili, ci viene offerta la possibilità di comunicare ai nostri amici (ma non solo) la nostra posizione corrente (tramite GPS), far sapere dove siamo, cosa stiamo facendo, come ci sentiamo.

In prospettiva l’idea di avere un rfid impiantato sotto pelle consentirebbe, in caso di necessità, una immediata identificazione dello stato di salute di un paziente, ma il prezzo da pagare sarebbe quello di essere praticamente “nudi”.

Se prima la pubblicità mirava a target di massa profilati sulla base di ricerche statistiche, la tendenza è oggi quella di poter proporre qualcosa a qualcuno esattamente nel momento in cui questi è più recettivo al consumo!

L’uomo fugge da una società ipercontrollata (webcam, gps, rfid) per rifugiarsi in una vita virtuale (es. Social Network[12] e Second life[13]) dove apparentemente è più libero ma dove, in realtà è controllato in maniera ancora più meticolosa. Questa riflessione può portare alla visione apocalittica del cybionte-clouding che ci vede diventare progressivamente periferiche stupide o uomini-frittella dove il controllore smette di essere umano e diventa la macchina stessa[14].

Privacy e copyright
Il problema della privacy digitale ha cominciato a porsi fin dalla metà degli anni novanta, quando internet ha conosciuto la prima diffusione popolare. Ogni nostra informazione inserita nella rete esce fuori dal nostro controllo, duplicata e trasportata da banche dati a banche dati, informazioni protette da fragili disclaimer. In Europa esiste un solido regime di tutela dei dati personali ma questo non è così in molti altri posti del mondo, Stati Uniti compresi. La maggior parte dei nativi infrange  puntualmente le leggi sul copyright: lo fanno scaricando musica, film e programmi televisivi. I giovani non capiscono a fondo le conseguenze delle loro sistematiche violazioni e sono portati a pensare, per lo più, che copiare privatamente opere protette da copyright è o dovrebbe essere consentito. Appartiene agli ultimi anni del secolo scorso il lancio di Napster[15], il primo programma P2P (peer-to-peer – da pari a pari), utilizzato da 30 milioni di persone per scambiarsi musica gratuitamente. Dopo una travagliata vicenda Napster fu costretto a chiudere, attaccato in particolar modo dall’industria discografica che, invece di escogitare un modo per inserirsi nel mondo del file-sharing che oramai non poteva comunque essere più frenato, pensò di fargli battaglia.

Le reti di condivisione file di seconda generazione eliminarono i motivi che avevano reso Napster responsabile e attaccabile. Oggi questi programmi sono molteplici e molto utilizzati: Kazaa, iMesh, eDonkey, eMule, uTorrent, ecc.

Non avendo una relazione formale con la legge, ciò che influenza i più giovani sono le norme sociali: nessuna legge riuscirà a contenere un flusso che, per sua natura, è difficilmente tracciabile. Molti artisti, consapevoli delle trasformazioni in atto, sono pronti a riscrivere le regole. Un esempio, oggi, viene da iTunes o da Amazon che permettono di scaricare, in maniera legale, una canzone o un libro in formato digitale, con un prezzo estremamente vantaggioso perché liberato dal costo del supporto fisico e, per quanto riguarda la musica, con la possibilità di acquistare un singolo brano in luogo dell’album completo.

All’inizio degli anni ottanta qualcuno sostenne che la commercializzazione dei videoregistratori avrebbe inferto un durissimo colpo all’industria cinematografica. Pochi decenni più tardi la vendita di videocassette e DVD portò alla stessa industria incassi maggiori rispetto a quelli del cinema! Questo dovrebbe far riflettere ed orientare, in generale, ad un approccio diverso al cambiamento: anziché contrapporsi a qualcosa che, con tutta probabilità, non è possibile frenare, conviene seguirne la scia e sfruttarne le modalità.


[1] Clive Thompson scrive di scienza, tecnologia e cultura. Su Wired Us firma ogni mese un editoriale, ma compare spesso e volentieri anche sul New York Times Magazin.

[2] David Brooks, celebre giornalista del New York Times.

[3] Eric Richard Kandel (Vienna, 7 novembre 1929) è un neurologo, psichiatra e neuroscienziato austriaco.

Professore di biofisica e biochimica presso la Columbia University dal 1974: è uno dei maggiori neuroscienziati del secolo appena trascorso. È il primo psichiatra americano ad aver vinto il Premio Nobel per la medicina (nel 2000), conseguito per le sue ricerche sulle basi fisiologiche della conservazione della memoria nei neuroni[2], premio che condivide con i colleghi Arvid Carlsson e Paul Greengard. Kandel lavora alla Columbia University dal 1974. .  I suoi interessi iniziali furono orientati verso le discipline storiche-letterarie, ambito di ricerca nel quale avrà modo di laurearsi presso lo Harvard College, sezione della più nota Harvard University. Successivamente, incoraggiato dal suocero Ernst Kris (psicoanalista e collaboratore sia di Sigmund sia della figlia Anna Freud), al quale si devono importanti contributi dediti alla sistemazione dell’indirizzo analitico della Psicologia dell’Io, Kandel si impegnò in un altro settore, quello psichiatrico. Si convinse dell’importanza della psicoanalisi e di come possa offrire un interessante nuovo approccio, o probabilmente il solo, per capire la mente degli uomini, le loro azioni e l’irrazionalità di quest’ultime. Così nel 1951 Kandel si iscrsse ai corsi di chimica ed alla fine dell’anno successivo venne ammesso alla N.Y.U. Medical School iniziando gli studi di medicina con l’intenzione di diventare uno psicoanalista, ma l’interesse per gli aspetti biologici della mente inizia a prendere a poco a poco il sopravvento, anche a partire dal dibattito iniziato in quegli anni da Lawrence Kubie, Mortimer Ostow e Sydney Margolin intorno al ruolo della biologia della mente per il futuro della psicoanalisi. Sempre nello stesso periodo ebbe modo di entrare in contatto con il dott. Harry Grundfest, docente di zoologia e fisiologia presso la Columbia University, il più interessante neurobiologo dell’area di New York ed altro convinto assertore della necessità di un più stretto rapporto fra biologia e psicoanalisi.

Nel 1956, per interessamento di Grundefest ebbe  un incarico post-dottorato presso il National Institutes of Health/NIMH (istituto di salute mentale) di Bethesda (Maryland) e venne accettato da Wade Marshall, responsabile del laboratorio di neurofisiologia.  Di questo periodo sono le sue prime ricerche sulle basi cellulari della memoria  «Entrai al NIH da ricercatore entusiata ma inesperto e ne uscii tre anni dopo da neurofisiologo competente». Con queste parole Kandel descrive la sua breve esperienza presso il centro di Bethesda. Wade Marshall era ritenuto in quegli anni uno dei luminari dello studio del cervello. Grazie alle scoperte relative alle risposte evocate, Marshall era negli anni giunto a dimostrare come topograficamente una descrizione del nostro corpo fosse contenuta nel cervello. Successivamente lo studioso americano, sposta la sua ricerca sulle malattie depressive. Nello stesso periodo l’attenzione delle ricerche neurofisiologiche si concentra (Scoville e Milner) sui problemi legati all’immagazzinamento di nuove informazioni da parte del cervello umano. Già studiosi come Karl Lashley avevano interessato il giovane Kandel, ma l’interesse più generale per le relazioni fra il campo della psichiatria-psicoanalisi e la biologia, porta Kandel a concentrarsi definitivamente in queste ricerche. Niente era comunque noto sui fondamenti cellulari della memoria, ma solo in questo periodo iniziano ad essere disponibili le prime tecniche. Dall’esperienza del National Institutes of Health inizia il lungo cammino che porta Kandel a conseguire importanti scoperte nel campo della neurologia. Grazie ai suoi studi sulla plasticità sinaptica, ai chiarimenti sui meccanismi cellulari, molecolari e genetici della memoria, nel 2000 Eric Kandel è stato insignito del Premio Nobel per la Medicina, insieme ai colleghi Paul Greengard e Arvid Carlsson.

[4] Hermann Ebbinghaus è stato un precursore della psicologia sperimentale, della quale contribuì a fondare l’orientamento associazionista. E’ del 1885, io suo importante trattato Über das Gedächtnis (“Sulla memoria”) testo che rappresenta una pietra miliare della psicologia, in cui descrisse gli esperimenti condotti su se stesso riguardanti la memoria ed il dimenticare.

[5] J. Weizenbaum, “Eliza- A computer program for the study of natural language communication between man and machine” in Communications of the Association for Computing Machinery, 9, 1, gennauio 1996, pp 3645.

Weizenbaum ideò il programma ELIZA negli anni sessanta, esso simulava una conversazione con uno psicoterapeuta. Questo programma è divenuto famoso come il primo tentativo di riprodurre una conversazione naturale. Weizenbaum fu colpito dall’importanza che veniva attribuita al programma e questo lo portò a interessarsi degli aspetti filosofici legati alla creazione dell’Intelligenza artificiale. Nel 1976 pubblicò Computer Power and Human Reason nel quale espose i suoi dubbi relativamente alla possibilità che dei computer dotati di intelligenza artificiale vengano usati per prendere delle decisioni importanti essendo gli stessi privi di compassione e saggezza. Ciò sarebbe conseguenza del fatto che tali macchine non crescerebbero in un ambiente emotivamente stimolante come una famiglia umana. Weizenbaum fu il creatore del linguaggio di programmazione SLIP.

[6] Frederick Winslow Taylor (1856 – 1915) è stato un ingegnere e imprenditore statunitense, iniziatore della ricerca sui metodi per il miglioramento dell’efficienza nella produzione. La sua idea consisteva nel superare l’amatorialità dei manager suoi contemporanei: attraverso lo studio scientifico del lavoro e la cooperazione tra dirigenza qualificata e operai specializzati riteneva infatti possibile organizzare un proficuo rapporto, in cui ambo le parti avrebbero ottenuto vantaggi. La sua ipotesi consisteva essenzialmente nel supporre l’esistenza di una sola “via migliore” (“one best way”) per compiere una qualsiasi operazione. La teoria di Taylor si occupò inizialmente di un ambito prevalentemente produttivo: il suo metodo prevedeva lo studio accurato dei singoli movimenti del lavoratore per poter ottimizzare il tempo di lavoro.

 [7] Lawrence “Larry” Page  (nato il 26 Marzo 1973) è un informatico e imprenditore statunitense  che opera nel settore di internet; con Sergey Brin, è meglio conosciuto come il co-fondatore di Google. Il 4 aprile 2011, ha assunto il ruolo di chief executive officer di Google, sostituendo Eric Schmidt. Il suo patrimonio personale è stimato a 18,7 miliardi dollari. Egli è l’inventore del PageRank, che divenne il fondamento dell’algoritmo di ricerca di Google ranking.

 [8] Marshall McLuhan “Gli strumenti del comunicare”, edizione italiana Il Saggiatore 1967, pag 62

Herbert Marshall McLuhan (1911 – 1980) è stato un sociologo canadese. La sua fama è legata alla sua interpretazione innovativa degli effetti prodotti dalla comunicazione sia sulla società nel suo complesso sia sui comportamenti dei singoli. La sua riflessione ruota intorno all’ipotesi secondo cui il mezzo tecnologico che determina i caratteri strutturali della comunicazione produce effetti pervasivi sull’immaginario collettivo, indipendentemente dai contenuti dell’informazione di volta in volta veicolata. Di qui, la sua celebre tesi secondo cui “il medium è il  messaggio”.

[9]  N. Doidge, “Il cervello infinito” Alle frontiere della neuroscienza: storie di persone che hanno cambiato il proprio cervello- Editore Ponte alle Grazie , Milano 2007, , pp 325–326.

 [10] J.P. Mitchell, “Watching minds interact” in What’s Next: Dispatches on the Future of Science, a cura di M. Brockman, Vintage, New York 2009, pp 78-88

 [11] Joel De Rosnay

Dal 1988 è direttore dello Sviluppo e delle Relazioni Internazionali alla Cité des sciences et de l’industrie de la Villette, Parigi. Dottore in scienze, è stato ricercatore all’Istituto Pasteur dal 1962 al 1966. Fino al 1970 ha lavorato al MIT (Massacchussets Institute of Tecnology), ricoprendo contemporaneamente la carica di addetto scientifico presso l’Ambasciata di Francia negli Stati Uniti. Successivamente è stato Direttore scientifico della società Europea per lo Sviluppo delle Imprese, poi Directeur des applications de la recherche, e Consigliere del Direttore all’Istituto Pasteur. Ha ricevuto numerosi premi tra cui il Prix de l’Academie des Sciences Morales et Politiques,1975; il Prix de l’Information scientifique de l’Academie des Sciences, 1990; il Prix Benjiamin Costant de la Société d’Encouragement de l’Industrie Nationale. E’ stato decorato del titolo di Chevalier de la Légion d’Honneur e di quello di Officier de l’Ordre National du Mérite.

Tra i suoi lavori più recenti ricordiamo: La plus belle histoire du monde, 1996. – L’Homme symbiotique, 1995 (tr. italiana L’uomo, Gaia e il cibionte; viaggio nel terzo millennio, 1997, Dedalo, Bari). – Les rendez-vous du futur, 1991. - L’Aventure du vivant, 1989 (tr. italiana L’avventura del vivente: che cos’è ls vita? da dove viene lavita? dove va la vita?, 1989, Dedalo, Bari). L’Avenir en direct, 1989.
Tra le interviste ricordiamo: “Il Cybionte” (Parigi – European IT Forum, 09/05/95) – “C’è una vita dopo Internet?” (Cannes, MILIA 11-02-1997)

Ne “L’uomo, Gaia e il cibionte” si chiede: Cosa sarà l’uomo del futuro? Né superuomo né robot. Per Joël de Rosnay sarà l’uomo simbiotico. Un essere di carne e di sentimenti associato in stretta simbiosi con un organismo planetario che egli contribuisce a far nascere. Un macrorganismo costituito dagli uomini, dalle città, dai centri informatici, dai computer e dalle macchine. Nel corso di un appassionante viaggio verso il futuro, l’autore descrive le rivoluzioni meccanica, biologica e informatica che portano all’avvento di questo nuovo essere collettivo, il cibionte, forma oggi ultima dell’evoluzione della vita sulla Terra. Arricchendo il suo racconto con numerosi esempi di attualità egli mostra come la connessione degli uomini con il cervello planetario e il controllo della «vita artificiale» costituiscano sin d’ora le tappe determinanti di questa nascita. Egli si basa a tal fine su un approccio unificato della conoscenza che unisce scienze fisiche e umane in una visione ottimistica e realistica del divenire uman.

[12] Una rete sociale (in inglese social network) consiste di un qualsiasi gruppo di persone connesse tra loro da diversi legami sociali, che vanno dalla conoscenza casuale, ai rapporti di lavoro, ai vincoli familiari. Le reti sociali sono spesso usate come base di studi interculturali in sociologia e in antropologia. L’analisi delle reti sociali, ovvero la mappatura e la misurazione delle reti sociali, può essere condotta con un formalismo matematico usando la teoria dei grafi. In generale, il corpus teorico ed i modelli usati per lo studio delle reti sociali sono compresi nella cosiddetta social network analysis. La ricerca condotta nell’ambito di diversi approcci disciplinari ha evidenziato come le reti sociali operino a più livelli (dalle famiglie alle comunità nazionali) e svolgano un ruolo cruciale nel determinare le modalità di risoluzione di problemi e i sistemi di gestione delle organizzazioni, nonché le possibilità dei singoli individui di raggiungere i propri obiettivi

[13] Second Life è un mondo virtuale (MUVE) lanciato nel giugno del 2003 dalla società americana Linden Lab e nasce dalla visione del fondatore, il fisico Philip Rosedale.

Su Second Life sono attivi diversi milioni di account! Si tratta di un mondo  fantastico, per molti aspetti molto simile a quello reale, abitato ogni giorno, 24 ore su 24.

Un programma client gratuito chiamato Second Life Viewer permette agli utenti, rappresentati da avatar di interagire gli uni con gli altri. I residenti possono esplorare, socializzare, incontrare altri residenti e gestire attività di gruppo o individuali, creare partnership, sposarsi, realizzare progetti, teletrasportarsi nel passato (Medioevo) e viaggiare attraverso le isole e le terre che formano il mondo virtuale, i cui dati digitali sono immagazzinati in una griglia di server a San Francisco.

Il sistema fornisce ai suoi utenti (definiti “residenti”) gli strumenti per aggiungere e creare nel “mondo virtuale” di Second Life nuovi contenuti grafici: oggetti, paesaggi, forme dei personaggi, contenuti audiovisivi, servizi, ecc. La peculiarità del mondo di Second Life è quella di lasciare agli utenti la libertà di usufruire dei diritti d’autore sugli oggetti che essi creano, che possono essere venduti e scambiati tra i “residenti” utilizzando una moneta virtuale (il Linden Dollar) che può essere convertito in veri dollari statunitensi e anche in euro dando vita ad un’economia interna continuamente monitorata.

È considerata una piattaforma ed un nuovo media per diversi settori, apprendimento, arte, imprese, formazione, musica, giochi di ruolo, media, diverse abilità, aziende, architettura, machinima e film di animazione ed altro e si avvale di strumenti di comunicazione sincroni ed asincroni integrando un motore di ricerca, un motore fisico, strumenti di presentazione e streaming video ed audio,un linguaggio di programmazione LSL interno Linden Scripting Language per dare vita agli oggetti, un sistema di trasmissione della voce, messaggistica istantanea, chat pubblica, minibrowser per il web e molto altro ed è costantemente in via di sviluppo.

[14] Matrix – 2001 Odissea nello spazio.

[15] Napster è stato un programma di file sharing creato da Shawn Fanning e Sean Parker e attivo dal giugno 1999 fino al luglio 2001. Si diffuse su larga scala a partire dal 2000. Fu il primo sistema di peer-to-peer di massa e divenne disponibile nell’estate del 1999. Utilizzava un sistema di server centrali che mantenevano la lista dei sistemi connessi e dei file condivisi, mentre le transazioni vere e proprie avvenivano direttamente tra i vari utenti. Infatti questo è un sistema molto simile al funzionamento dell’instant messaging. Tuttavia già esistevano dei mezzi relativamente popolari che facilitavano la condivisione dei file, per esempio IRC, Hotline, e Usenet. Nel luglio 2001, un giudice ordinò ai server Napster di chiudere l’attività a causa della ripetuta violazione di copyright.

 

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

*

È possibile utilizzare questi tag ed attributi XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>