eBook

Il problema dell’IA, e le sue soluzioni

Ci troviamo in un momento cruciale, nella Storia della Terra. Come un masso in bilico sulla cima di una montagna, stiamo in un punto instabile. Non possiamo restare dove siamo: l’AI arriverà, se il progresso scientifico continua. Presto rotoleremo da un lato della montagna o dall’altro, fino a un nuovo punto di pace duratura.

Una possibile soluzione resta l’estinzione umana. Un’altra potrebbe essere un totalitarismo globale stabile che ferma il progresso scientifico, per quanto improbabile sembri.1

Che dire dell’intelligenza artificiale? L’AI porta all’esplosione di intelligenza e, poiché non sappiamo come dare a un’AI obiettivi benevoli, di default un’esplosione di intelligenza ottimizzerà il mondo per conclusioni accidentalmente disastrose. Un’esplosione di intelligenza controllata, d’altro canto, potrebbe ottimizzare il mondo a fin di bene. (Approfondirò il punto nel prossimo capitolo.)

Per quanto mi riguarda, sto dedicando tutti i miei sforzi nella direzione di questo risultato: un’esplosione di intelligenza controllata.

Per una breve parentesi storica, siamo in grado di comprendere (per quanto confusamente) la nostra situazione attuale e influenzare il lato della montagna su cui probabilmente cadremo. Che cosa faremo, quindi?

Progresso Intellettuale Differenziale

Quel che fa per noi è un progresso intellettuale differenziale:

Il progresso intellettuale differenziale consiste nel dare la priorità al progresso intellettuale che riduce i rischi, rispetto al progresso intellettuale che li aumenta. Applicato ai rischi AI in particolare, un piano di progresso intellettuale differenziale vorrebbe che il nostro progresso sui problemi scientifici, filosofici e tecnologici della sicurezza AI surclassi il nostro progresso sui problemi delle capacità dell’AI, così da sviluppare un’AI superumana sicura prima di sviluppare un’AI superumana qualsiasi. La nostra prima AI superumana dev’essere sicura, perché potremmo non avere una seconda chance.

Per semplificare molto, la ricerca sulla sicurezza dell’AI è in gara con quella sulle capacità dell’AI. In questi momento, è il secondo filone di ricerca a vincere, e in realtà sta continuamente progredendo. L’umanità sta puntando di più nella ricerca sulle capacità dell’AI che sulla sicurezza dell’AI.

Solo che se la gara la vince la ricerca sulle capacità AI, l’umanità perde.
Se la vince quella sulla sicurezza, l’umanità vince.

Sono in molti a sapere cosa significa fare ricerca sulle capacità AI. È la maggior parte del lavoro di cui avete letto sull’AI. Ma cosa significa puntare sulla sicurezza AI?

Questo articolo contiene una lunga lista di categorie di problemi nella ricerca sulla sicurezza AI, ma per il momento lasciate che vi faccia qualche esempio. (Saltate questa lista, se volete evitare lo spaventoso gergo tecnico.)

  • Quando un agente prende in considerazione una modifica radicale del suo meccanismo decisionale, come possiamo essere sicuri che così facendo massimizzi la sua utilità attesa? Le attuali teorie della decisione, sul punto, inciampano sul Teorema di Löb, pertanto serve una nuova teoria della decisione “riflessivamente coerente”.
  • Una funzione di utilità di un agente può riferirsi agli stati della (o alle entità interne alla) sua ontologia. Ma come Peter de Blanc fa notare, “Se l’agente è in grado di aggiornare o sostituitre la sua ontologia, deve affrontare una crisi: la [funzione di utilità] originale di un agente potrebbe non essere ben definita per quanto riguarda la sua nuova ontologia.”2 Dobbiamo capire come assicurarci che dopo aver dato a un’AI dei buoni obiettivi, questi non saranno “corrotti” una volta che l’AI aggiorna la sua ontologia.
  • Come possiamo costruire una funzione di utilità desiderabile a partire da quello che gli umani “vogliono”? Gli attuali metodi di acquisizione delle preferenze, nella ricerca AI, sono inadeguati: sono necessari algoritimi universali più nuovi e potenti per l’acquisizione di preferenze. O forse dobbiamo permettere agli umani in carne ed ossa di riflettere sulle loro preferenze molto a lungo, finché non raggiungono una specie di “equilibrio riflessivo” nelle loro preferenze..
  • Quest’ultimo filone potrebbe coinvolgere l’emulazione cerebrale completa—ma come possiamo costruirla impedendo al contempo la creazione di AI ostili ad automiglioramento ispirate al design del cervello?

  • Potremmo non risolvere i problemi legati alla teoria del valore prima di creare l’AI. Pertanto, forse ci serve una teoria su come maneggiare questa incertezza normativa, per esempio qualcosa come il Modello Parlamentare proposto da Nick Bostrom.
  • Al di là di questi problemi tecnici di ricerca, potremmo anche prendere in considerazione il progresso intellettuale differenziale per raccomandare il progresso in una varietà di problemi strategici di ricerca. Su quali tecnologie l’umanità dovrebbe continuare ad investire, e da quali dovrebbe allontanarsi? Cosa possiamo fare per ridurre il rischio di una corsa alle armi AI? Ridurrà il rischio di scoraggiare una diffusa formazione alla razionalità o alla benevolenza? A quali interventi dovremmo dare la priorità?

    Azione, Oggi

    Una parte della soluzione al problema del rischio AI, dunque, è il progresso intellettuale differenziale. Un’altra parte della soluzione è quella di agire sulla base delle raccomandazioni della nostra migliore ricerca strategica. Per esempio, le seguenti azioni probabilmente riducono il rischio AI:

  • Persuadete le persone a prendere il tema della sicurezza AI seriamente, specialmente i ricercatori AI, i filantropi, i più intelligenti tra i giovani, e le persone influenti.
  • Opportunità

    Finora ho parlato dei rischi legati all’AI, ma è importante non scordarsi le opportunità dell’AI:

    Normalmente non associamo la cura del cancro o al stabilità economica con l’intelligenza artificiale, ma curare il cancro è in definitiva un problema di essere abbastanza intelligenti da capire come curarlo, e ottenere la stabilità economica è in definitiva un problema di essere abbastanza intelligenti da capire come ottenerla. Per quanti desideri abbiamo, possono essere soddisfatti in maggior misura usando un’intelligenza suficientemente avanzata.

    Nel mio capitolo finale, cercherò di spiegare quanto bene le cose possano andare se decidiamo di passare all’azione e occuparci dell’AI in modo giusto.

    Sì, dobbiamo ricordarci del fatto che nulla, in fisica, proibisce l’arrivo di esiti terribili. Ma non dobbiamo nemmeno dimenticare che nulla, in fisica, proibisce l’arrivo di una gioia e un’armonia maggiore di quanto i nostri cervelli primitivi possano immaginare.

    * * *

    1Bryan Caplan, “The Totalitarian Threat,” in Bostrom and Ćirković, Global Catastrophic Risks, 504–519.

    2Peter de Blanc, Ontological Crises in Artificial Agents’ Value Systems (The Singularity Institute, San Francisco, CA, May 19, 2011), http://arxiv.org/abs/1105.3821.