Un nuovo termine circola da qualche tempo negli ambienti scientifici internazionali: singularity. La parola è presa a prestito dall’astrofisica: si riferisce a punti molto particolari nel sistema spazio-tempo, per esempio i buchi neri, in cui le regole della fisica che noi conosciamo sono completamente sovvertite. Analogamente, applicata alla tecnologia, indica il momento in cui l’evoluzione dei computer diventerà così rapida e profonda da creare una frattura senza precedenti nella storia dell’ umanità tra un prima e un dopo. Oggi non abbiamo in alcun modo la possibilità di prevedere le leggi che domineranno il mondo della singularity. Sappiamo solo che, da un certo momento in poi, nulla sarà più come prima. E questo momento forse è molto vicino.
I teorici della singularity partono da una semplice osservazione: la velocità con cui i computer si evolvono è diventata ormai rapidissima. La loro potenza si duplica ogni due anni. Se tracciamo un grafico della loro crescita vediamo che esso disegna una curva di tipo esponenziale che si incrementa per multipli di due. A questo sviluppo esponenziale partecipa anche il progressivo abbattimento dei loro costi di produzione.
Immaginare un fenomeno che si sviluppa nel futuro seguendo una curva logaritmica non è per niente intuitivo: la nostra mente si è evoluta ragionando in termini lineari e fa molta fatica ad immaginare un evento storico che avviene a velocità esponenziale. Per comprendere le ragioni della singularity occorre fare un grosso sforzo di immaginazione. Ma proviamo a considerare per un momento alcuni fatti: i nostri cellulari sono oggi circa un milione di volte più piccoli, un milione di volte meno costosi, e mille volte più potenti del computer che aveva in dotazione il Massachussets Institute of Technology 40 anni fa. E solamente cinque anni fa nessuno avrebbe immaginato che 600 milioni di persone sarebbero state collegate fra loro usando un singolo social network. Ora c’è Facebook, e altri social network presto lo rimpiazzeranno. Cinque anni fa era impensabile avere a disposizione uno strumento come l’Iphone. E oggi c’è qualcuno che ipotizza di miniaturizzarli e di impiantarli nel cervello per curare alcune malattie. Utopia? Forse no, visto che già oggi 30.000 malati di Parkinson sono portatori di impianti neurali. E la tecnologia sta rapidamente sostituendo l’uomo in settori in cui pensavamo che non ne avremo potuto fare mai a meno: più di 2.000 robot sono utilizzati nella guerra in Afghanistan (gli ormai famosi droni, ovvero UAV, Unmanned Aerial Vehicles).
Se dunque è vero che i computer stanno diventano così incredibilmente veloci e che la loro potenza cresce a ritmi così rapidi, è ipotizzabile che possa arrivare il momento in cui essi diverranno capaci di fare cose simili a quello che può fare un’intelligenza umana, di generare un’attività cosciente, non solo fare calcoli aritmetici o comporre musica, ma guidare un’auto, leggere un libro, prendere decisioni etiche, apprezzare un’opera d’arte, magari fare qualche battuta spiritosa ad una festa di compleanno.
I teorici della singularity sono convinti che i computer continueranno nel loro progresso, fino a diventare talmente intelligenti da superare di gran lunga le capacità mentali dell’uomo. Secondo loro, a questo contribuirà il fatto che, ad un certo punto del loro sviluppo, essi stessi si prenderanno carico della propria crescita, affrancandosi dalla inefficiente mente dei loro creatori umani. Quando (e se) questo avverrà, l’umanità, i nostri corpi, le nostre menti, la nostra civiltà saranno completamente, irreversibilmente e imprevedibilmente modificati. Questa sarà l’era della singularity. Potrebbe trattarsi dell’evento culturale più importante nella storia dell’uomo, dopo l’invenzione del linguaggio.

D’altro canto, già nel lontano 1965, agli albori dell’era dei computer, il matematico inglese I.J Good descriveva uno scenario che egli chiamò “esplosione dell’intelligenza”: “Definiamo macchina superintelligente una macchina capace di superare di molto l’attività intellettuale di un uomo comunque molto intelligente. Poiché la progettazione di macchine è una delle attività intellettuali dell’uomo, se un computer molto avanzato diventasse in grado esso stesso di progettare strumenti meglio della mente umana si creerebbe un’ “esplosione dell’intelligenza” il cui primo risultato sarebbe che l’invenzione di questa macchina superintelligente sarebbe l’ultima invenzione che l’uomo avrebbe bisogno di fare”.
Ma è possibile calcolare quando avverrà tutto ciò? Secondo i calcoli di Raymond Kurzweil, unanimemente ritenuto il massimo teorico della singularity, questo mutamento epocale avverrà fra 35 anni. Kurzweil stima che, alla fine degli anni ’20 di questo millennio i computer saranno capaci di prestazioni a livello della mente umana. E nel 2045, grazie al vasto incremento della potenza dei computer e ai loro bassi costi, la quantità di intelligenza artificiale creata sarà circa un miliardo di volte la somma di tutte le intelligenze umane esistenti oggi.
Definire Kurzveil un mitomane e le sue ipotesi follie forse potrebbe essere un errore: Bill Gates, che di fiuto sulle previsioni ha dimostrato averne parecchio, lo ha definito la persona più qualificata per poter avanzare una previsione sul futuro e sull’intelligenza artificiale. E Bill Gates non è l’unico a credere nella singularity: da tre anni, la NASA ospita nella sua sede i corsi di studio interdisciplinari per laureati e manager della Singularity University.
Ma cosa accadrebbe se tutto ciò dovesse davvero realizzarsi? Come abbiamo visto, la singularity ci dice che è estremamente difficile, se non impossibile, predire il comportamento di queste superintelligenze artificiali con le quali potremmo dover condividere il pianeta. Eppure qualcuno ha provato ad immaginare cosa accadrebbe se tutto ciò dovesse realizzarsi. Potremmo doverci parzialmente fondere con esse (o con loro?) per potenziare le nostre capacità mentali così come oggi potenziamo le nostre capacità fisiche entrando nelle nostre auto e nei nostri aerei. Alcuni pensano che le intelligenze artificiali ci aiuteranno a gestire gli effetti dell’età e della morte prolungando indefinitamente la nostra aspettativa di vita. Altri pensano che un supercomputer potrà riscrivere e correggere il genoma umano. Qualcuno ipotizza addirittura che potremo scannerizzare le nostre coscienze dentro un computer e vivere virtualmente all’infinito, in forma di software. Ma, secondo altri ancora, i computer potrebbero decidere che sia ora di fare a meno dell’umanità, e distruggerla. E quest’ultima ipotesi non è propriamente campata in aria: non c’è bisogno di essere computer superintelligenti per capire che introdurre una forma di vita superiore nella nostra biosfera è un macroscopico errore darwiniano che potrebbe portare all’estinzione della specie umana, divenuta inutile, inadeguata, e magari scomoda. E’questo lo scenario ipotizzato più di dieci anni fa nella saga filmica di Matrix.
Gli scenari possibili sono molti, spesso in contrasto fra loro. Ma quello che queste teorie hanno in comune è la trasformazione della nostra specie in qualcosa di irriconoscibile rispetto all’ umanità dell’inizio del terzo millennio.
Per la verità le critiche non mancano: molti ritengono che la Singularity sia un nonsenso. Gli scettici si domandano se un computer potrà mai replicare la complessità della biochimica di un cervello umano e divenire realmente intelligente. Ma soprattutto si chiedono cosa si intenda per intelligenza, nel caso di un computer. Qualcuno ha la risposta già bella pronta: un computer potrà dire di possedere un’ intelligenza artificiale, per così dire forte, quando sarà capace di superare il test di Turing. Cioè, a spiegarla molto semplicemente, un computer dovrebbe essere capace di spacciarsi per un uomo in un test cieco, per esempio parlare a telefono convincendo l’ascoltatore che sta parlando con un vero essere umano, magari la nostra cameriera che spiega a un creditore che il suo datore di lavoro è partito all’estero per un lungo viaggio.
I computer potranno mai riprodurre la complessità della mente umana? Difficile dirlo, ma non possiamo escluderlo dogmaticamente. Nel frattempo una risposta a questa domanda sta cercando di darla l’Ecole Politechnique di Losanna, in Svizzera, dove dal 2005 si sta lavorando al Blue Brain project: un tentativo di creare una simulazione, neurone per neurone, del cervello di un mammifero usando un supercomputer Bue gene IBM. Ad oggi sembra che siano riusciti a riprodurre una piccola parte della neocorteccia di un topo, contenente circa 10.000 neuroni. Il programma è di riprodurre per intero un cervello umano nei prossimi dieci anni. Resta da capire a questo punto a chi spetterà il compito di educare questo cervello e quanto tempo si dovrà impiegare.
Nel frattempo è già bell’e pronto il supercomputer Watson, un sistema che prende il nome dal fondatore di IBM. Si tratta di un esempio della tecnologia Deep Question Answering, capace di comprendere il linguaggio umano su innumerevoli argomenti e in grado di giudicare consapevolmente in base a quanto ascoltato. Come il supercomputer IBM Deep Blue che ha battuto il campione mondiale di scacchi Kasparow nel 1977, Watson è stato messo alla prova sfidando e battendo due campioni storici del seguitissimo telequiz americano Jeopardy (una specie del nostrano Chi vuol esser milionario).
Dunque, il mondo scientifico, o almeno una parte di esso, si preoccupa di non poter più essere in grado, fra qualche anno, di prevedere e programmare lo sviluppo della scienza e della tecnologia. La preoccupazione è degna di lode, ma risulta un po’ curiosa, se si pensa che sono almeno trecento anni che la scienza, tranne rarissime eccezioni, ha rinunciato al compito di interrogarsi seriamente sulle sue prospettive future. Quei pochi che lo hanno fatto, operavano spesso in contesti del tutto teorici e, comunque, lontanissimi dalla realtà scientifica corrente.
D’altronde gli stessi esperti della singularity ammettono che nessuno aveva previsto l’enorme sviluppo attuale della tecnologia. Ma, aggiungerei io, per caso qualcuno aveva previsto la crisi di credibilità in cui versano oggi le scienze mediche, pure all’apice del loro progresso? E dopo aver considerato negli anni ’60 dello scorso secolo in via di estinzione tutte le malattie infettive, qualcuno aveva previsto che a cinquant’anni di distanza, saremmo stati preda di centinaia di malattie infettive pressoché incurabili? E ancora, dopo il boom demografico del dopoguerra che tanto aveva allarmato gli intellettuali dell’epoca, qualcuno aveva previsto che il mondo occidentale sarebbe rimasto senza figli? E infine, dopo gli entusiasmi per lo sbarco sulla luna nel 1969, qualcuno aveva forse previsto che un presidente americano avrebbe rinunziato ad ogni progetto di conquista dello spazio?
Dunque il disinteresse ad interrogarsi sulla direzione, sul criterio e sul senso da dare al progresso scientifico, è un vezzo ormai antico e radicato. Gli scienziati e i tecnici oggi, barricati nei loro laboratori, stanno perdendo l’intelligenza complessiva della scienza e della tecnica nella storia e nella società. E questo è un errore che potremmo pagare ad un prezzo assai elevato. Come quello di non essere in grado di prevedere e di governare un fenomeno così complesso come quello della singularity che, però, potrebbe essere solo una questione, appunto, di intelligenza complessiva del progresso. Perché, indubbiamente, la singularity così come alcuni la prefigurano, può essere anche molto pericolosa. Ma eliminarne i rischi potenziali fermando il progresso della tecnologia non sarebbe etico, e forse sarebbe ancor più pericoloso. Forse è meglio accettare la sfida. Ma possediamo le armi per poterla vincere?
L’intelligenza complessiva della scienza non è più considerata oggi prerogativa del singolo, ma è stata avocata a sé dalle chiese, o dai partiti, o quel che resta di loro, che esercitano il loro potere di previsione e di programmazione, anche piuttosto male, forse più preoccupati di mantenere il controllo sulla scienza, che da altre ragioni filosofiche.
Possedere l’intelligenza complessiva del proprio ruolo è una caratteristica di quei pochi che sono ancora capaci di coltivare campi diversi del sapere umano, e che riescono a sottrarsi alla marea montante dell’analfabetismo culturale, che oggi ci vorrebbe tutti superesperti nel nostro ristrettissimo campo d’interesse e totalmente ignoranti di tutto il resto.
Tornare ad avere l’intelligenza complessiva della scienza, vuol dire tornare considerare l’uomo di scienza come punto di incontro e di sintesi tra sapere scientifico e sapere umanistico, riuscire a individuare come il proprio campo di conoscenza si colloca nella società e nella storia. Questa prerogativa, considerata imprescindibile in età pregalileiana, si è progressivamente perduta nei secoli successivi. Nella cultura dell’antico scienziato filosofia, religione, letteratura, scienza erano collegati tra loro, come in quel gioco in cui si uniscono tanti punti tra loro, per delineare sul foglio un’unica immagine. Lo scienziato pregalileiano conosceva bene il mito cinquecentesco del Golem, che ammonisce l’uomo a non costruire mostri, a non generare prodotti la cui potenza non si abbia la capacità di dominare. Mi chiedo quanti giovani scienziati oggi sanno cos’era il Golem.

5 Risposte to “Singularity: chi ha paura della singolarità?”

  1. beppe ragusa Says:

    ciao Paolo,
    quanto mi piacerebbe far leggere questa tua ,chiamiamola dissertazione, a qualche somaro del nostro governo.
    Personalmente mi ha fatto pensare alla mia nullità in un mondo di tanti pixel.E adesso ,se me lo consenti,una semplice forma di adulazione (o sviolinata, se preferisci):sono contento di essere tuo paziente non solo per la tua professionalità, a me già nota da ben 23 anni, ma anche per questa dote letteraria, che non avrei mai sospettato tu avessi.
    Grazie Paolo
    p.s. continuerò a leggere il resto
    beppe

    • paolomaggi Says:

      Ogni mio atto medico nei tuoi confronti è stato da sempre ripagato dalle inestimabili lezioni di cultura e di umanità che mi hai dato. Se ho fatto qualcosa di buono lo devo anche ai miei incontri con persone come te.

  2. LexMat Says:

    http://areeweb.polito.it/didattica/polymath/htmlS/Interventi/Odifreddi/Kasparov/Kasparov.htm

    Comunque Deep Blue non batté Kasparov, fu truccato risistemando il software durante le partite mano a mano.

    Un ottimo articolo.
    Ti seguo.

    Saluti.

  3. Shumann Says:

    Speriamo che prima “che esploda l’intelligenza” esploda pure la galassia.


Scrivi una risposta a beppe ragusa Cancella risposta