Il problema dell’IA, e le sue soluzioni
Ci troviamo in un momento cruciale, nella Storia della Terra. Come un masso in bilico sulla cima di una montagna, stiamo in un punto instabile. Non possiamo restare dove siamo: l’AI arriverà, se il progresso scientifico continua. Presto rotoleremo da un lato della montagna o dall’altro, fino a un nuovo punto di pace duratura.
Una possibile soluzione resta l’estinzione umana. Un’altra potrebbe essere un totalitarismo globale stabile che ferma il progresso scientifico, per quanto improbabile sembri.1
Che dire dell’intelligenza artificiale? L’AI porta all’esplosione di intelligenza e, poiché non sappiamo come dare a un’AI obiettivi benevoli, di default un’esplosione di intelligenza ottimizzerà il mondo per conclusioni accidentalmente disastrose. Un’esplosione di intelligenza controllata, d’altro canto, potrebbe ottimizzare il mondo a fin di bene. (Approfondirò il punto nel prossimo capitolo.)
Per quanto mi riguarda, sto dedicando tutti i miei sforzi nella direzione di questo risultato: un’esplosione di intelligenza controllata.
Per una breve parentesi storica, siamo in grado di comprendere (per quanto confusamente) la nostra situazione attuale e influenzare il lato della montagna su cui probabilmente cadremo. Che cosa faremo, quindi?
Progresso Intellettuale Differenziale
Quel che fa per noi è un progresso intellettuale differenziale:
Il progresso intellettuale differenziale consiste nel dare la priorità al progresso intellettuale che riduce i rischi, rispetto al progresso intellettuale che li aumenta. Applicato ai rischi AI in particolare, un piano di progresso intellettuale differenziale vorrebbe che il nostro progresso sui problemi scientifici, filosofici e tecnologici della sicurezza AI surclassi il nostro progresso sui problemi delle capacità dell’AI, così da sviluppare un’AI superumana sicura prima di sviluppare un’AI superumana qualsiasi. La nostra prima AI superumana dev’essere sicura, perché potremmo non avere una seconda chance.
Per semplificare molto, la ricerca sulla sicurezza dell’AI è in gara con quella sulle capacità dell’AI. In questi momento, è il secondo filone di ricerca a vincere, e in realtà sta continuamente progredendo. L’umanità sta puntando di più nella ricerca sulle capacità dell’AI che sulla sicurezza dell’AI.
Solo che se la gara la vince la ricerca sulle capacità AI, l’umanità perde.
Se la vince quella sulla sicurezza, l’umanità vince.
Sono in molti a sapere cosa significa fare ricerca sulle capacità AI. È la maggior parte del lavoro di cui avete letto sull’AI. Ma cosa significa puntare sulla sicurezza AI?
Questo articolo contiene una lunga lista di categorie di problemi nella ricerca sulla sicurezza AI, ma per il momento lasciate che vi faccia qualche esempio. (Saltate questa lista, se volete evitare lo spaventoso gergo tecnico.)
- Quando un agente prende in considerazione una modifica radicale del suo meccanismo decisionale, come possiamo essere sicuri che così facendo massimizzi la sua utilità attesa? Le attuali teorie della decisione, sul punto, inciampano sul Teorema di Löb, pertanto serve una nuova teoria della decisione “riflessivamente coerente”.
Quest’ultimo filone potrebbe coinvolgere l’emulazione cerebrale completa—ma come possiamo costruirla impedendo al contempo la creazione di AI ostili ad automiglioramento ispirate al design del cervello?
Al di là di questi problemi tecnici di ricerca, potremmo anche prendere in considerazione il progresso intellettuale differenziale per raccomandare il progresso in una varietà di problemi strategici di ricerca. Su quali tecnologie l’umanità dovrebbe continuare ad investire, e da quali dovrebbe allontanarsi? Cosa possiamo fare per ridurre il rischio di una corsa alle armi AI? Ridurrà il rischio di scoraggiare una diffusa formazione alla razionalità o alla benevolenza? A quali interventi dovremmo dare la priorità?
Azione, Oggi
Una parte della soluzione al problema del rischio AI, dunque, è il progresso intellettuale differenziale. Un’altra parte della soluzione è quella di agire sulla base delle raccomandazioni della nostra migliore ricerca strategica. Per esempio, le seguenti azioni probabilmente riducono il rischio AI:
- Donate ad organizzazioni che fanno il tipo di ricerca tecnica e strategica nella sicurezza AI che abbiamo discusso in precedenza—organizzazioni come il Machine Intelligence Research Institute ed il Future of Humanity Institute.
Opportunità
Finora ho parlato dei rischi legati all’AI, ma è importante non scordarsi le opportunità dell’AI:
Normalmente non associamo la cura del cancro o al stabilità economica con l’intelligenza artificiale, ma curare il cancro è in definitiva un problema di essere abbastanza intelligenti da capire come curarlo, e ottenere la stabilità economica è in definitiva un problema di essere abbastanza intelligenti da capire come ottenerla. Per quanti desideri abbiamo, possono essere soddisfatti in maggior misura usando un’intelligenza suficientemente avanzata.
Nel mio capitolo finale, cercherò di spiegare quanto bene le cose possano andare se decidiamo di passare all’azione e occuparci dell’AI in modo giusto.
Sì, dobbiamo ricordarci del fatto che nulla, in fisica, proibisce l’arrivo di esiti terribili. Ma non dobbiamo nemmeno dimenticare che nulla, in fisica, proibisce l’arrivo di una gioia e un’armonia maggiore di quanto i nostri cervelli primitivi possano immaginare.
* * *
1Bryan Caplan, “The Totalitarian Threat,” in Bostrom and Ćirković, Global Catastrophic Risks, 504–519.
2Peter de Blanc, Ontological Crises in Artificial Agents’ Value Systems (The Singularity Institute, San Francisco, CA, May 19, 2011), http://arxiv.org/abs/1105.3821.