L’esplosione di intelligenza
Supponiamo che siate uno spirito disincarnato che guarda l’Universo evolversi. Per i primi nove milioni di anni, non avviene quasi nulla.
“Dio, questo è così noioso!” vi lamentate.
“Che intendi dire?” chiede il vostro partner.
“Non c’è profondità o complessità di nessun genere perché nulla ambisce a niente. Nulla ottimizza per nulla. Non c’è una trama. È solo un mucchio di merda causale che semplicemente capita. È peggio di Seinfeld.”
“Davvero? Cosa sta succedendo laggiù?”
Seguite lo sguardo del vostro partner e notate una piccola molecola in una pozza d’acqua su un pianeta roccioso. Davanti ai suoi occhi, produce una copia di sé stessa. E poi un’altra. E poi anche le copie realizzano copie di sé stesse.
“Un replicatore!” esclamate. “Entro mesi potrebbero essercene milioni, di cose come queste.”
“Mi chiedo se questo porterà a realizzare scoiattoli.”
“Cosa sono gli scoiattoli?”
Il vostro partner vi spiega a quel punto la complessità funzionale degli scoiattoli, che ha incontrato nell’Universo 217.
“Ma è assurdo! A un tasso di ottimizzazione simile a questo, non vedremo alcuno scoiattolo apparire per caso fino a molto dopo la morte calda dell’Universo.”
Ma presto notate qualcosa di ancora più importante: alcune delle copie sono errori. Le copie esplorano le regioni circostanti dello spazio concettuale di ricerca. Alcune di queste regioni contengono replicatori migliori, e questi replicatori migliori finiscono a produrre più copie di sé dei replicatori originali, ed esplorano i loro circondari.
I miliardi di anni successivi sono di gran lunga i più esaltanti che abbiate mai visto. Replicatori semplici portano ad organismi semplici, che portano a una vita complessa, che porta ai cervelli, che porta alla linea Homo di scimmie.
All’inizio, Homo assomiglia molto a un qualunque altro animale dotato di cervello. Condivide il 99% del suo DNA codificante con gli scimpanzé. Vi si può perdonare per aver pensato che il cervello umano non fosse proprio un granché—forse permetterebbe un 50% di miglioramento nella velocità di ottimizzazione, o qualcosa del genere. Dopo tutto, i cervelli animali sono in giro da miliardi di anni, e sono evoluti gradualmente senza alcun drammatico incremento delle funzionalità.
Ma poi una cosa conduce all’altra. Davanti ai vostri occhi, gli umani diventano abbastanza intelligenti da addomesticare i raccolti, il che porta a uno stile di vita sedentario e a un commercio ripetibile, il che porta a una scrittura che tenga traccia di crediti e debiti. La coltivazione genera inoltre un surplus alimentare, il che porta a una specializzazione professionale, che da alla gente la possibilità di concentrarsi sulla soluzione di problemi diversi dal trovar cibo e sesso. La specializzazione professionale porta a scienza e tecnologia e alla Rivoluzione Industriale, che portano ai viaggi spaziali e agli iPhone.
La differenza tra scimpanzé ed umani illustra quanto possa essere potente (l’effetto di) riscrivere gli algoritmi cognitivi di un agente. Ma, naturalmente, l’origine dell’algoritmo in questo caso è stata la mera evoluzione, cieca e stupida. Un processo intelligente, con un barlume di previsione, può espandersi nello spazio di ricerca in modo più efficiente. Un programmatore umano può realizzare invenzioni in un giorno che l’evoluzione non avrebbe scoperto in miliardi di anni.
Ma per la maggior parte del tempo, gli umani non hanno capito come funzionassero i propri algoritmi cognitivi, o come riscriverli. E nemmeno i computer che programmiamo comprendono (gran parte de)i propri algoritmi cognitivi. Ma un giorno lo faranno.
Il che significa che il futuro contiene un loop di feedback che il passato non ha visto.
Se siete EURISKO, riuscite a modificare alcune delle vostre metaeuristiche, e le metaeuristiche funzionano notevolmente meglio, e riescono anche a fare alcune ulteriori modifiche a sé stesse, ma poi l’intero processo finisce per esaurirsi.
È stata l’intelligenza umana a produrre questi manufatti per cominciare. Il loro potere di ottimizzazione è così limitatamente umano – così incredibilmente debole che, dopo essersi spinti in là ancora un po’, non possono progredire ulteriormente. Peggio ancora, la loro ottimizzazione in ogni livello è caratterizzato da un numero limitato di opportunità, che una volta colte si perdono, sicché i rendimenti decrescono estremamente in fretta…
Quando costruisci una AI per la prima volta, è come un bambino—se dovesse migliorare sé stessa, si arriverebbe a uno stallo quasi immediatamente. Perciò la spingi in avanti con la tua cognizione… e conoscenza—senza avere alcun beneficio della ricorsione nel farlo, solo il tradizionale idioma umano della conoscenza che si alimenta da sé e le intuizioni che producono altre intuizioni. Alla fine l’AI diventa abbastanza sofisticata da iniziare a migliorarsi da sola—non solo miglioramenti minimi, ma grandi abbastanza da riflettersi in altri miglioramenti…. E a quel punto ottieni quello che I. J. Good chiamò “esplosione di intelligenza.”
… e l’AI lascia le abilità umane di gran lunga indietro.
A quel punto, potremmo essere come stupidi scimpanzé che guardano come quei moderni “umani” inventano il fuoco, la coltivazione, la scrittura e la scienza e le armi e gli aerei e prendono il controllo del mondo. E come gli scimpanzé, a quel punto non saremo nella posizione di negoziare con i nostri superiori. Il nostro futuro dipenderà da quello che loro vorranno.