{"id":244,"date":"2012-03-03T07:38:45","date_gmt":"2012-03-03T15:38:45","guid":{"rendered":"http:\/\/facingthesing.wpengine.com\/?p=244"},"modified":"2014-12-06T14:44:36","modified_gmt":"2014-12-06T22:44:36","slug":"ai-the-problem-with-solutions","status":"publish","type":"post","link":"https:\/\/intelligenceexplosion.com\/it\/2012\/ai-the-problem-with-solutions\/","title":{"rendered":"Il problema dell&#8217;IA, e le sue soluzioni"},"content":{"rendered":"<p><\/p>\n<p><img decoding=\"async\" src=\"cid:Image_5.jpg\" \/>Ci troviamo in un momento cruciale, nella Storia della Terra. Come un masso in bilico sulla cima di una montagna, stiamo in un punto instabile. Non possiamo restare dove siamo: <u><a href=\"http:\/\/facingthesing.wpengine.com\/2011\/superstition-in-retreat\/\" rel=\"nofollow\">l<\/a><\/u><u><a href=\"http:\/\/www.google.com\/url?q=http%3A%2F%2Ffacingthesing.wpengine.com%2F2011%2Fsuperstition-in-retreat%2F&#038;sa=D&#038;sntz=1&#038;usg=AFQjCNEx2DIBuMZu_dzRvj3oz-jX8toVrQ\" rel=\"nofollow\">\u2019A<\/a><\/u><u><a href=\"http:\/\/facingthesing.wpengine.com\/2011\/superstition-in-retreat\/\" rel=\"nofollow\">I arriver\u00e0<\/a><\/u>, se il progresso scientifico continua. Presto rotoleremo da un lato della montagna o dall\u2019altro, fino a un nuovo punto di pace duratura.<\/p>\n<p>Una possibile soluzione resta l\u2019estinzione umana. Un\u2019altra potrebbe essere <u><a href=\"http:\/\/books.google.com\/books?id=X5jdMyJKNL4C&#038;lpg=PP1&#038;dq=global%20catastrophic%20risks&#038;pg=PT822#v=onepage&#038;q&#038;f=false\" rel=\"nofollow\">un totalitarismo globale stabile<\/a><\/u> che ferma il progresso scientifico, per quanto improbabile sembri.<u><a href=\"http:\/\/intelligenceexplosion.com\/2012\/ai-the-problem-with-solutions\/#fn1x17\" rel=\"nofollow\">1<\/a><\/u><\/p>\n<p>Che dire dell\u2019intelligenza artificiale? L\u2019AI porta all\u2019<u><a href=\"http:\/\/facingthesing.wpengine.com\/2012\/intelligence-explosion\/\" rel=\"nofollow\">esplosione di intelligenza<\/a><\/u> e, poich\u00e9 non sappiamo come dare a un\u2019AI obiettivi benevoli, di default un\u2019esplosione di intelligenza ottimizzer\u00e0 il mondo per conclusioni <u><a href=\"http:\/\/facingthesing.wpengine.com\/2012\/ai-the-problem-with-solutions\/\" rel=\"nofollow\">accidentalmente disastrose<\/a><\/u>. Un\u2019esplosione di intelligenza <i>controllata<\/i>, d\u2019altro canto, potrebbe ottimizzare il mondo a fin di bene. (Approfondir\u00f2 il punto nel prossimo capitolo.)<\/p>\n<p>Per quanto mi riguarda, sto dedicando tutti i <i>miei<\/i> sforzi nella direzione di questo risultato: un\u2019esplosione di intelligenza controllata.<\/p>\n<p>Per una breve parentesi storica, siamo in grado di comprendere (per quanto confusamente) la nostra situazione attuale e influenzare il lato della montagna su cui probabilmente cadremo. Che cosa faremo, quindi?<\/p>\n<h3>Progresso Intellettuale Differenziale<\/h3>\n<p>Quel che fa per noi \u00e8 un <u><a href=\"http:\/\/intelligence.org\/files\/IE-EI.pdf\" rel=\"nofollow\">progresso intellettuale differenziale<\/a><\/u>:<\/p>\n<p>Il progresso intellettuale differenziale consiste nel dare la priorit\u00e0 al progresso intellettuale che <i>riduce<\/i> i rischi, rispetto al progresso intellettuale che li <i>aumenta<\/i>. Applicato ai rischi AI in particolare, un piano di progresso intellettuale differenziale vorrebbe che il nostro progresso sui problemi scientifici, filosofici e tecnologici della <i>sicurezza<\/i> AI surclassi il nostro progresso sui problemi delle <i>capacit\u00e0<\/i> dell\u2019AI, cos\u00ec da sviluppare un\u2019AI superumana <i>sicura<\/i> prima di sviluppare un\u2019AI superumana <i>qualsiasi<\/i>. La nostra prima AI superumana dev\u2019essere sicura, perch\u00e9 potremmo non avere una seconda chance.<\/p>\n<p><img decoding=\"async\" src=\"cid:Image_6.jpg\" \/><\/p>\n<p>Per semplificare molto, la ricerca sulla sicurezza dell\u2019AI \u00e8 in gara con quella sulle capacit\u00e0 dell\u2019AI. In questi momento, \u00e8 il secondo filone di ricerca a vincere, e in realt\u00e0 sta continuamente progredendo. L\u2019umanit\u00e0 sta puntando di pi\u00f9 nella ricerca sulle capacit\u00e0 dell\u2019AI che sulla sicurezza dell\u2019AI.<\/p>\n<p>Solo che se la gara la vince la ricerca sulle capacit\u00e0 AI, l\u2019umanit\u00e0 perde.<br \/>\nSe la vince quella sulla sicurezza, l\u2019umanit\u00e0 vince.<\/p>\n<p>Sono in molti a sapere cosa significa fare ricerca sulle capacit\u00e0 AI. \u00c8 la <i>maggior parte<\/i> del lavoro di cui avete letto sull\u2019AI. Ma cosa significa puntare sulla sicurezza AI?<\/p>\n<p><u><a href=\"http:\/\/lukeprog.com\/SaveTheWorld.html\" rel=\"nofollow\">Questo articolo<\/a><\/u> contiene una lunga lista di categorie di problemi nella ricerca sulla sicurezza AI, ma per il momento lasciate che vi faccia qualche esempio. (Saltate questa lista, se volete evitare lo spaventoso gergo tecnico.)<\/p>\n<ul class=\"small\">\n<li>Quando un agente prende in considerazione una modifica radicale del suo meccanismo decisionale, come possiamo essere sicuri che cos\u00ec facendo massimizzi la sua utilit\u00e0 attesa? Le attuali teorie della decisione, sul punto, <u><a href=\"http:\/\/www.youtube.com\/watch?v=MwriJqBZyoM\" rel=\"nofollow\">inciampano sul Teorema di L\u00f6b<\/a><\/u>, pertanto serve una nuova teoria della decisione \u201criflessivamente coerente\u201d.<\/li>\n<\/ul>\n<li>Una funzione di utilit\u00e0 di un agente pu\u00f2 riferirsi agli stati della (o alle entit\u00e0 interne alla) sua ontologia. Ma come Peter de Blanc <u><a href=\"http:\/\/arxiv.org\/pdf\/1105.3821v1.pdf\" rel=\"nofollow\">fa notare<\/a><\/u>, \u201cSe l\u2019agente \u00e8 in grado di aggiornare o sostituitre la sua ontologia, deve affrontare una crisi: la [funzione di utilit\u00e0] originale di un agente potrebbe non essere ben definita per quanto riguarda la sua nuova ontologia.\u201d<u><a href=\"http:\/\/intelligenceexplosion.com\/2012\/ai-the-problem-with-solutions\/#fn2x17\" rel=\"nofollow\">2<\/a><\/u> Dobbiamo capire come assicurarci che dopo aver dato a un\u2019AI dei buoni obiettivi, questi non saranno \u201ccorrotti\u201d una volta che l\u2019AI aggiorna la sua ontologia.<\/li>\n<li>Come possiamo costruire una funzione di utilit\u00e0 desiderabile a partire da quello che gli umani \u201cvogliono\u201d? Gli attuali <u><a href=\"http:\/\/lesswrong.com\/r\/discussion\/lw\/a73\/a_brief_tutorial_on_preferences_in_ai\/\" rel=\"nofollow\">metodi di acquisizione delle preferenze<\/a><\/u>, nella ricerca AI, sono inadeguati: sono necessari algoritimi universali pi\u00f9 nuovi <u><a href=\"http:\/\/lesswrong.com\/lw\/9jh\/the_humans_hidden_utility_function_maybe\/\" rel=\"nofollow\">e potenti<\/a><\/u> per l\u2019acquisizione di preferenze. O forse dobbiamo permettere agli umani in carne ed ossa di riflettere sulle loro preferenze molto a lungo, finch\u00e9 non raggiungono una specie di <u><a href=\"http:\/\/intelligence.org\/files\/CEV.pdf\" rel=\"nofollow\">\u201cequilibrio riflessivo\u201d nelle loro preferenze<\/a><\/u>..<\/li>\n<\/ul>\n<p>Quest\u2019ultimo filone potrebbe coinvolgere <u><a href=\"http:\/\/www.fhi.ox.ac.uk\/__data\/assets\/pdf_file\/0019\/3853\/brain-emulation-roadmap-report.pdf\" rel=\"nofollow\">l<\/a><\/u><u><a href=\"http:\/\/www.google.com\/url?q=http%3A%2F%2Fwww.fhi.ox.ac.uk%2F__data%2Fassets%2Fpdf_file%2F0019%2F3853%2Fbrain-emulation-roadmap-report.pdf&#038;sa=D&#038;sntz=1&#038;usg=AFQjCNGngWNVTBtHPHEnPGP60fKb0p5wJA\" rel=\"nofollow\">\u2019emulazione cerebrale completa<\/a><\/u>\u2014ma come possiamo costruirla impedendo al contempo la creazione di AI ostili ad automiglioramento ispirate al design del cervello?<\/p>\n<li>Potremmo non risolvere i problemi legati alla teoria del valore prima di creare l\u2019AI. Pertanto, forse ci serve una teoria su come maneggiare questa incertezza normativa, per esempio qualcosa come il <u><a href=\"http:\/\/www.overcomingbias.com\/2009\/01\/moral-uncertainty-towards-a-solution.html\" rel=\"nofollow\">Modello<\/a><\/u> <u><a href=\"http:\/\/www.overcomingbias.com\/2009\/01\/moral-uncertainty-towards-a-solution.html\" rel=\"nofollow\">Parlamentare<\/a><\/u> proposto da Nick Bostrom.<\/li>\n<\/ul>\n<p>Al di l\u00e0 di questi problemi tecnici di ricerca, potremmo anche prendere in considerazione il progresso intellettuale differenziale per raccomandare il progresso in una variet\u00e0 di problemi strategici di ricerca. Su quali tecnologie l\u2019umanit\u00e0 dovrebbe continuare ad investire, e da quali dovrebbe allontanarsi? Cosa possiamo fare per ridurre il rischio di una corsa alle armi AI? Ridurr\u00e0 il rischio di scoraggiare una diffusa <u><a href=\"http:\/\/lesswrong.com\/lw\/9hb\/position_design_and_write_rationality_curriculum\/\" rel=\"nofollow\">formazione alla razionalit\u00e0<\/a><\/u> o alla <u><a href=\"http:\/\/lesswrong.com\/lw\/7nl\/moral_enhancement\/\" rel=\"nofollow\">benevolenza<\/a><\/u>? A quali interventi dovremmo dare la priorit\u00e0?<\/p>\n<h3>Azione, Oggi<\/h3>\n<p>Una parte della soluzione al problema del rischio AI, dunque, \u00e8 il progresso intellettuale differenziale. Un\u2019altra parte della soluzione \u00e8 quella di <i>agire<\/i> sulla base delle raccomandazioni della nostra migliore ricerca strategica. Per esempio, le seguenti azioni probabilmente riducono il rischio AI:<\/p>\n<ul class=\"small\">\n<li><b>Donate<\/b> ad organizzazioni che fanno il tipo di ricerca tecnica e strategica nella sicurezza AI che abbiamo discusso in precedenza\u2014organizzazioni come il <u><a href=\"http:\/\/intelligence.org\/donate\/\" rel=\"nofollow\">Machine Intelligence Research Institute<\/a><\/u> ed il <u><a href=\"http:\/\/www.fhi.ox.ac.uk\/donate\" rel=\"nofollow\">Future of Humanity Institute<\/a><\/u>.<\/li>\n<\/ul>\n<li><b>Persuadete le persone a prendere il tema della sicurezza AI seriamente<\/b>, specialmente i ricercatori AI, i filantropi, i pi\u00f9 intelligenti tra i giovani, e le persone influenti.<\/li>\n<\/ul>\n<h3>Opportunit\u00e0<\/h3>\n<p>Finora ho parlato dei <i>rischi<\/i> legati all\u2019AI, ma \u00e8 importante <u><a href=\"http:\/\/intelligence.org\/files\/IE-EI.pdf\" rel=\"nofollow\">non scordarsi<\/a><\/u> le <i>opportunit\u00e0<\/i> dell\u2019AI:<\/p>\n<p>Normalmente non associamo la cura del cancro o al stabilit\u00e0 economica con l\u2019intelligenza artificiale, ma curare il cancro \u00e8 in definitiva un problema di essere abbastanza intelligenti da capire come curarlo, e ottenere la stabilit\u00e0 economica \u00e8 in definitiva un problema di essere abbastanza intelligenti da capire come ottenerla. Per quanti desideri abbiamo, possono essere soddisfatti in maggior misura usando un\u2019intelligenza suficientemente avanzata.<\/p>\n<p>Nel mio capitolo finale, cercher\u00f2 di spiegare quanto <i>bene<\/i> le cose possano andare se decidiamo di passare all\u2019azione e occuparci dell\u2019AI in modo <i>giusto<\/i>.<\/p>\n<p>S\u00ec, dobbiamo ricordarci del fatto che <u><a href=\"http:\/\/facingthesing.wpengine.com\/2012\/intelligence-explosion\/\" rel=\"nofollow\">nulla, in fisica, proibisce l<\/a><\/u><u><a href=\"http:\/\/www.google.com\/url?q=http%3A%2F%2Ffacingthesing.wpengine.com%2F2012%2Fintelligence-explosion%2F&#038;sa=D&#038;sntz=1&#038;usg=AFQjCNFAU2ymyAh7jEiz9-SU2vTgwUZXBw\" rel=\"nofollow\">\u2019arrivo <\/a><\/u><u><a href=\"http:\/\/facingthesing.wpengine.com\/2012\/intelligence-explosion\/\" rel=\"nofollow\">di esiti terribili<\/a><\/u>. Ma non dobbiamo nemmeno dimenticare che nulla, in fisica, proibisce l\u2019arrivo di una gioia e un\u2019armonia maggiore di quanto i nostri cervelli primitivi possano immaginare.<\/p>\n<p>* * *<\/p>\n<p><u><a href=\"http:\/\/intelligenceexplosion.com\/2012\/ai-the-problem-with-solutions\/#fn1x17-bk\" rel=\"nofollow\">1<\/a><\/u>Bryan Caplan, \u201cThe Totalitarian Threat,\u201d in Bostrom and \u0106irkovi\u0107, <i>Global Catastrophic Risks<\/i>, 504\u2013519.<\/p>\n<p><u><a href=\"http:\/\/intelligenceexplosion.com\/2012\/ai-the-problem-with-solutions\/#fn2x17-bk\" rel=\"nofollow\">2<\/a><\/u>Peter de Blanc, <i>Ontological Crises in Artificial Agents\u2019 Value Systems<\/i> (The Singularity Institute, San Francisco, CA, May 19, 2011), <u><a href=\"http:\/\/arxiv.org\/abs\/1105.3821\" rel=\"nofollow\">http:\/\/arxiv.org\/abs\/1105.3821<\/a><\/u>.<\/p>\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Ci troviamo in un momento cruciale, nella Storia della Terra. Come un masso in bilico sulla cima di una montagna, stiamo in un punto instabile. Non possiamo restare dove siamo: l\u2019AI arriver\u00e0, se il progresso scientifico continua. Presto rotoleremo da&hellip;  <a href=\"https:\/\/intelligenceexplosion.com\/it\/2012\/ai-the-problem-with-solutions\/\">continue reading<\/a> &raquo;<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[4],"tags":[],"class_list":["post-244","post","type-post","status-publish","format-standard","hentry","category-chapter"],"_links":{"self":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/posts\/244","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/comments?post=244"}],"version-history":[{"count":0,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/posts\/244\/revisions"}],"wp:attachment":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/media?parent=244"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/categories?post=244"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/tags?post=244"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}