eBook

La Mia Storia

Ad un certo punto di questo secolo, le macchine sorpasseranno i livelli umani di intelligenza ed abilità. Questo evento—la “esplosione di intelligenza”—sarà l’evento più importante nella nostra storia, e navigare saggiamente in quelle acque sarà la cosa più importante che potremmo mai fare.

Luminari come Alan Turing1 e I. J. Good oppure Bill Joy e Stephen Hawking ci hanno già avvertito a riguardo. Perché penso che Hawking e compagnia bella abbiano ragione, e cosa possiamo fare a riguardo?

Affrontare l’esplosione d’intelligenza è il mio tentativo di rispondere a queste domande.

Storia Personale

Inizierò con la mia storia personale. Vi aiuterà a sapere chi sono e da dove arrivo. Queste informazioni vi daranno qualche indicazione su come reagire alle altre cose che vi dico.

Quando le mie convinzioni religiose finalmente cedettero alla realtà, persi la fede e aprii un blog per spiegare agli altri l’ateismo ed il naturalismo. Common Sense Atheism diventò uno dei più popolari blog sull’ateismo in internet. Mi piaceva “tradurre” i paper dei filosofi professionisti in un inglese comprensibile, e parlare con gli esperti del ramo nel mio podcast Conversazioni dal Piccolo Punto Blu. Inoltre, perdere la fede non mi suggerii cosa avrei dovuto credere o fare nella mia vita, e usai il mio blog per cercare delle risposte.

Mi sono inoltre occupato di razionalità, almeno a partire dalla mia deconversione, durante la quale scoprii che potevo facilmente confidare in cose su cui non avevo prove, cose che erano state dimostrate false, e persino delle assurdità totali. Come poteva il cervello umano farsi fuorviare tanto facilmente? Ovviamente, non ero l’”animale razionale” di Aristotele. Semmai, ero l’animale razionalizzante di Gazzaniga. Il pensiero critico era uno dei temi principali di Common Sense Atheism, e spesi nella confutazione delle fallacie degli atei tanto sforzo quanto confutare le fallacie dei credenti.

L’esplosione di intelligenza

Il mio interesse nella razionalità mi portò inevitabilmente (a metà del 2010, suppongo) a scoprire una miniera di articoli sulla scienza della razionalità: il sito Less Wrong. Fu lì che incontrai per la prima volta il concetto di esplosione di intelligenza:

Definiamo ultraintelligente una macchina che può sorpassare di parecchie lunghezze le capacità intellettive di qualunque essere umano, per quanto intelligente. Poiché la progettazione di macchine è una di tali attività intellettive, una macchina ultraintelligente potrebbe progettare macchine ancora migliori; ci sarebbe indiscutibilmente una “esplosione di intelligenza,” e l’intelligenza umana finirebbe per mangiare la polvere…. Pertanto, la prima macchina ultraintelligente è l’ultima invenzione che gli uomini dovranno mai fare.2

Racconto qui la storia del mio primo incontro con quel famoso paragrafo. In breve,

Il paragrafo di I.J.Good mi investì come un treno. Non perché fosse assurdo, ma perché era chiaramente vero. L’esplosione di intelligenza era una diretta conseguenza di cose in cui già credevo, ma semplicemente non le avevo notate! Gli umani non estendono automaticamente le loro convinzioni, perciò non aveto notato che la mia visione del mondo implicava già l’esplosione di intelligenza.

Dedicai una settimana a cercare contro-argomenti, controllare se mi mancasse qualcosa, e alla fine accettai come probabile l’esplosione di intelligenza (finché fosse continuato il progresso scientifico). E sebbene non avessi letto i paper di Eliezer sulla complessità del valore, certamente avevo letto David Hume e Joshua Greene. Avevo perciò già capito che un’intelligenza artificiale scelta a caso quasi certamente non condividerebbe i nostri valori.

La mia risposta a questa scoperta fu immediata e trasformativa.

Misi in pausa gli altri miei progetti e spesi il mese successivo a leggere quasi tutto ciò che Eliezer aveva scritto. Trovai inoltre articoli di Nick Bostrom e Steve Omohundro. Iniziai a scrivere articoli per Less Wrong e ad imparare dalla comunità. Feci domanda per il programma Visiting Fellow [del Machine Intelligence Research Institute] e mi presero. Lasciai L.A., mi spostai a Berkeley, mi diedi da fare, mi feci assumere, e iniziai a raccogliere materiale di ricerca collegato alla razionalità e all’esplosione di intelligenza.

Come disse una volta il mio amico Will Newsom, “Luke sembra avere due copie del gene ‘Prendo le idee seriamente’.”

Fanatismo?

Ovviamente, quello a cui alcune persone plaudono come “Prendere le idee serie seriamente,” per altri è solo un’innata tendenza al fanatismo. Ecco un commento che immagino qualcuno potrebbe fare:

La cosa non mi sorprende. Luke è cresciuto credendo di essere in missione cosmica per salvare l’umanità prima che il mondo finisca con l’arrivo di un essere superpotente (il ritorno di Cristo). Perse la fede e, con essa, il suo senso di uno scopo epico. La sua paura del nichilismo lo rese suscettibile alla seduzione di qualcosa che sembrava realismo morale, ed il suo bisogno di uno scopo epico lo rese sensibile alla seduzione di limitare il rischio esistenziale.

Una delle risposte che potrei dare, a riguardo, sarebbe liquidare il tutto come una “psicologizzazione” che non cambia lo stato delle prove per le affermazioni che ora difendo a proposito dell’esplosione di intelligenza. Il che è vero, ma ancora: verità plausibili sulla mia psicologia certamente forniscono alcune prove Bayesiane su come dovreste reagire alle parole scritte in questo libro.

Un’altra risposta che potrei dare sarebbe spiegare perché le cose non siano affatto andate così, sebbene in questa analisi vi sia del vero. (Per esempio, non ricordo di aver sentito che il ritorno di Cristo fosse imminente o che mi trovassi in missione cosmica per salvare fino all’ultima anima, sebbene da Cristiano evangelico fossi teologicamente impegnato su questioni simili. Ma è certamente vero che sono attirato da cose “epiche”, come la rock band Muse ed il film Avatar.) Ma non voglio riempire questo capitolo con ulteriori dettagli sulla mia psicologia personale.

Una terza risposta farebbe appello alla prova sociale. Sembra esserci una classe di lettori di Common Sense Atheism che hanno letto i miei scritti con tanta attenzione da sviluppare un forte rispetto per il mio impegno all’onestà intellettuale e a cambiare idea quando mi sbagliavo, e così quando iniziai a scrivere su questioni legate all’esplosione di intelligenza pensavano, “Be’, ero solito pensare che tutta la roba collegata all’esplosione di intelligenza fosse da bizzarri, ma se Luke la sta prendendo sul serio allora forse c’è del vero, più di quanto non mi renda conto ora,” e mi raggiungevano su Less Wrong (dove a quel punto già postavo regolarmente). Menzionerò inoltre che un significativo fattore causale, nel mio nuovo ruolo di Direttore Esecutivo del Machine Intelligence Research Institute, assunto a così breve distanza dall’ingresso nell’organizzazione, era il fatto che il personale notava quanto seriamente mi dedicassi alla razionalità e al “debiasing”, a dire “oops”, cambiare idea e affrontare l’argomento, e agendo sulla base di una teoria delle decisioni più spesso che potevo, piuttosto che in base all’abitudine e all’emozione, come sarei propenso a fare.

Nella cernita delle mie possibili risposte alla critica del “fanatismo” di cui sopra, ho già abbozzato una specie di risposta. Ma non andrò oltre. Voglio che le persone prendano quanto dico con una generosa dose di sale. Dopotutto, sono solo un umano. Spero che i miei lettori terranno conto non solo della mia umanità ma anche della forza degli argomenti e delle prove che più avanti fornirò riguardo all’arrivo della superintelligenza artificiale.

* * *

1A. M. Turing, “Intelligent Machinery, A Heretical Theory” (A lecture given to ’51 Society’ at Manchester, 1951).

2Irving John Good, “Speculations Concerning the First Ultraintelligent Machine,” in Advances in Computers, ed. Franz L. Alt and Morris Rubinoff, vol. 6 (New York: Academic Press, 1965), 31–88, doi:10.1016/S0065-2458(08)60418-0.