eBook

Non siamo fatti per pensare all’IA

Nei film della serie Terminator, la AI Skynet diventa consapevole di sé, uccide miliardi di persone, e semina robot killer per spazzare i focolai residui di resistenza umana.

Il che sembra orribile. Ma in un intervento alla National Public Radio sull’esplosione di intelligenza, il programmatore di eBay Keefe Roedersheimer ha spiegato che la creazione di una superintelligenza artificiale reale sarebbe molto peggiore di così.

MARTIN KASTE (NPR): Molto peggiore di Terminator?

KEEFE ROEDERSHEIMER: Molto, molto peggiore.

KASTE:… È un disastro, con persone che si nascondono sotto edifici in fiamme, colpiti da laser. Voglio dire, come potrebbe essere peggiore di così?

ROEDERSHEIMER: Con tutte le persone morte.1

Perché ha detto questo? Perché per la maggior parte degli scopi che un’AI potrebbe avere— siano essi provare l’ipotesi di Riemann o massimizzare la produzione di petrolio—la semplice ragione è che “l’AI non vi ama, né vi odia, ma siete fatti di atomi che può usare per qualcos’altro.”2 E quando una AI superumana nota che noi umani probabilmente resisteremmo a vedere i nostri atomi usati per “qualcos’altro”, e quindi poniamo una minaccia all’AI e ai suoi scopi, sarà motivata a spazzarci via il più in fretta possibile—non in un modo che espone la sua debolezza critica a un intrepido team di eroi che potrebbero salvare il mondo se solo mettessero da parte le loro differenze… No. Per la maggior parte degli obiettivi di un’AI, spazzare la minaccia umana ai suoi obiettivi nel modo più efficiente possibile, massimizzerà la sua utilità attesa.

E diciamolo: ci sono modi più semplici di uccidere gli umani che mandare robot umanoidi che camminano e sembrano divertirsi a scagliare gli umani contro il muro invece di spezzargli semplicemente il collo. È molto meglio se l’attacco è improvviso, ha effetti simultanei in tutto il mondo, è rapidamente letale, e dribbla le contromisure disponibili. Per esempio: perché non usare semplicemente tutta quella superintelligenza per mettere a punto un supervirus che si diffonde nell’aria, ed è altamente contagioso e fatale? Una mutazione del virus dell’influenza del 1918 uccise il 3% della popolazione terrestre, e questo avvenne prime che i viaggi aerei (che diffondono malattie in tutto il mondo) fossero comuni, e senza che un’oncia di intelligenza partecipasse alla progettazione del virus. Aggiungete una punta di intelligenza, e avete una squadra di olandesi che creano una variante dell’influenza aviaria che “potrebbe uccidere metà della umanità.”3 Una superintelligenza potrebbe creare qualcosa di molto peggiore. Oppure l’AI potrebbe nascondersi sottoterra, o sfrecciare nello spazio e ucciderci con tecnologia esistente: qualche migliaio di armi nucleari.

Il punto non è che uno qualunque di questi particolari scenari è probabile. Sto solo cercando di evidenziare che la realtà della situazione può essere, ovviamente, molto diversa da quella necessaria per confezionare una storia interessante. Nelle parole del filosofo Oxfordiano Nick Bostrom:

Quand’è stata l’ultima volta che avete visto un film sull’improvvisa estinzione dell’umanità (senza preavviso e senza essere sostituita da un’altra civiltà)?4

La storia migliora se la lotta può essere plausibilmente vinta da una qualunque parte. Il Signore degli anelli non avrebbe venduto altrettante copie se Frodo avesse fatto la cosa più ragionevole e avesse fatto cadere l’anello nel vulcano dal dorso di una gigantesca aquila. E non è una storia interessante se gli umani improvvisamente perdono, punto e basta.

Quando pensiamo all’AI, non dovremmo generalizzare quello che racconta la fiction. Purtroppo, i nostri cervelli lo fanno automaticamente.

Un famoso studio del 1978 chiese a dei soggetti di giudicare quale, tra due pericoli, occorresse più spesso. I soggetti pensavano che gli incidenti causassero tante morti quanto la malattia, e che l’omicidio fosse frequente quanto il suicidio.5 In realtà, le malattie causano SEDICI volte più morti degli incidenti, e il suicidio è due volte più frequente dell’omicidio. Cos’è successo?

Dozzine di studi sulla euristica della disponibilità suggeriscono che noi giudichiamo la frequenza o la probabilità degli eventi da quanto facilmente si presentano alla mente. Non è un male in sé che si siano evolute delle euristiche nel nostro ambiente ancestrale, in cui non potevamo controllare le effettive frequenze su Wikipedia o determinare le effettive probabilità con il Teorema di Bayes. L’euristica del cervello è rapida, economica, e spesso ci azzecca.

Ma, come molte delle nostre euristiche cognitive evolute, l’euristica della disponibilità produce spesso risultati errati. Gli incidenti sono più vividi delle malattie, e quindi vengono in mente più facilmente, portandoci a sopravvalutare la loro frequenza rispetto alle malattie. Lo stesso vale per omicidio e suicidio.

L’ euristica della disponibilità spiega anche perché la gente pensa che volare sia più pericoloso che guidare, quando è vero il contrario: solo che un incidente aereo è più vivido e viene coperto ampiamente dai media, quando accade, quindi lo richiamiamo meglio alla memoria e il cervello stesso è portato a pensare che la disponibilità di un evento indichi la sua probabilità.

Che cosa fa il vostro cervello quando si pensa all’intelligenza artificiale sovrumana? Molto probabilmente, controlla tutte le istanze di AI sovrumana che ha incontrato – che, a peggiorare le cose, sono tutte le fiction che avete visto – e la probabilità assegnata a ciascun scenario è determinata da quanto bene si abbina con gli scenari che vengono in mente più facilmente (perché li avee incontrati nelle fiction). In altre parole, “le fiction irrompono e pensano al posto vostro”.

Quindi, se avete delle intuizioni su come saranno le IA sovrumane, sono probabilmente basate sulle fiction, senza che nemmeno ve ne rendiate conto.

Ecco perché ho iniziato “Affrontare l’Esplosione di Intelligenza” parlando di razionalità. Il momento in cui cominciamo a pensare all’AI è anche il momento in cui ci imbattiamo direttamente nell’insieme di modalità comuni in cui gli umani tipicamente falliscono. Generalizzare a partire dalle prove immaginarie è uno di quei metodi. Eccone alcuni altri:

  • A causa dell’euristica della disponibilità, il cervello vi dirà che un’AI che spazza via l’umanità è incredibilmente improbabile solo perché non avete mai incontrato un caso simile prima. Inoltre anche quando le cose vanno tanto male come, diciamo, nei film sulle invasioni aliene, un pugno di coraggiosi eroi umani trovano sempre, all’ultimo minuto, un modo di vincere.
  • Siccome sovrastimiamo la probabilità di eventi congiuntivi ma sottostimiamo la probabilità di eventi disgiuntivi,6 probabilmente sovrastimeremo la probabilità che un’AI superumana si riveli benevola perché X, Y, e Z accadranno simultaneamente, e probabilmente sottostimeremo la probabilità che una AI superumana si riveli ostile perché ci sono tanti modi in cui una AI superumana può rivelarsi ostile che non dipendono dal contemporaneo avverarsi di molti altri eventi.
  • A causa dell’ancoraggio e dell’euristica dell’adattamento, il vostro giudizio su una data situazione sarà condizionato da informazioni palesemente irrilevanti. Per esempio, il numero che appare su una ruota della fortuna cambierà la vostra stima di quante nazioni ci sono in Africa. Anche se vi ho appena parlato di come la fiction Terminator non ci dà alcuna previsione dell’aspetto che avrà l’AI superumana, il vostro cervello sarà tentato di ancorarsi a Terminator e poi correggere – ma non abbastanza – via via.
  • A causa dell’euristica dell’affetto, giudichiamo le cose in base alla sensazione che generano. Le persone belle ci fanno sentire bene, perciò presumiamo che le persone belle siano anche intelligenti e lavorino duro. Abbiamo un’ottima opinione dell’intelligenza, quindi ci aspettiamo che una macchina intelligente sia necessariamente benevola. (Ma no, non necessariamente lo è)
  • A causa dell’insensibilità allo scopo, non siamo più motivati ad impedire centomila morti che ad impedirne cento.
  • Chiaramente, non siamo progettati per pensare all’AI.

    Per pensare in modo saggio all’AI, dovremo continuare a cercare—e resistervi attivamente— molti tipi di errori comuni di pensiero. Dovremo usare le leggi del pensiero razionale, piuttosto della ”normale follia umana per pensare all’AI.

    Oppure, per dirla in un altro modo, un’AI superumana avrà un enorme impatto sul nostro mondo, quindi vogliamo assolutamente lo scenario “vincita” invece del “perdita”. La razionalità tecnica, implementata a dovere, è un sistema per la vincita ottimale—invero, è il sistema che una perfetta AI userebbe per vincere il più possibile.7 Perciò, se vogliamo trionfare sulla AI superumana, dovremmo usare la razionalità umana per farlo.

    Ed è proprio quello ciò che inizieremo a fare nel prossimo capitolo.

    * * *

    1Martin Kaste, “The Singularity: Humanity’s Last Invention?,” NPR, All Things Considered (January 11, 2011), accessed November 4, 2012, http://www.npr.org/2011/01/11/132840775/The-Singularity-Humanitys-Last-Invention.

    2Eliezer Yudkowsky, “Artificial Intelligence as a Positive and Negative Factor in Global Risk,” in Global Catastrophic Risks, ed. Nick Bostrom and Milan M. Ćirković (New York: Oxford University Press, 2008), 308–345.

    3RT, “Man-Made Super-Flu Could Kill Half Humanity,” RT, November 24, 2011,http://www.rt.com/news/bird-flu-killer-strain-119/.

    4Nick Bostrom, “Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards,” Journal of Evolution and Technology 9 (2002), http://www.jetpress.org/volume9/risks.html.

    5Sarah Lichtenstein et al., “Judged Frequency of Lethal Events,” Journal of Experimental Psychology: Human Learning and Memory 4 (6 1978): 551–578, doi:10.1037/0278-7393.4.6.551.

    6Tversky and Kahneman, “Judgment Under Uncertainty.”

    7Stephen M. Omohundro, “Rational Artificial Intelligence for the Greater Good,” in The Singularity Hypothesis: A Scientific and Philosophical Assessment, ed. Amnon Eden et al. (Berlin: Springer, 2012), Preprint at,http://selfawaresystems.files.wordpress.com/2012/03/rational_ai_greater_good.pdf.