{"id":131,"date":"2011-12-15T17:56:24","date_gmt":"2011-12-16T01:56:24","guid":{"rendered":"http:\/\/facingthesing.wpengine.com\/?p=131"},"modified":"2014-12-01T13:48:07","modified_gmt":"2014-12-01T21:48:07","slug":"playing-taboo-with-intelligence","status":"publish","type":"post","link":"https:\/\/intelligenceexplosion.com\/it\/2011\/playing-taboo-with-intelligence\/","title":{"rendered":"Giocare a &#8220;Tab\u00f9&#8221; con la parola Intelligenza"},"content":{"rendered":"<p><\/p>\n<h1>Giocare a &#8220;Tab\u00f9&#8221; con la parola Intelligenza<\/h1>\n<p>Eliezer Yudkowsky <u><a href=\"http:\/\/lesswrong.com\/lw\/vb\/efficient_crossdomain_optimization\/\" rel=\"nofollow\">racconta<\/a><\/u>:<\/p>\n<p>Anni fa, durante un panel con <u><a href=\"http:\/\/en.wikipedia.org\/wiki\/Jaron_Lanier\" rel=\"nofollow\">Jaron Lanier<\/a><\/u>, Jaron aveva offerto alcuni elaborati argomenti che nessuna macchina potrebbe essere intelligente, perch\u00e9 era solo una macchina e definirla \u201cintelligente\u201d era cattiva poesia, o qualcosa del genere. Stufo, finalmente sbottai: \u201cIntendi dire che se scrivo un programma, e quel programma si riscrive e si riscrive di continuo e costruisce la sua nanotecnologia e vola su Alpha Centauri e si costruisce la sua Sfera Dyson, quel programma non \u00e8 intelligente?\u201d<\/p>\n<p>Molta della confusione sull\u2019AI viene dal disaccordo sulle definizioni di \u201cintelligenza.\u201d<\/p>\n<p>Lasciate che chiarisca il punto con una <u><a href=\"http:\/\/lesswrong.com\/lw\/np\/disputing_definitions\/\" rel=\"nofollow\">parabola<\/a><\/u>:<\/p>\n<blockquote><p>Se un albero cade nella foresta, e nessun altro lo sente, produce un suono?<\/p><\/blockquote>\n<p>ALBERT: \u201cCertamente s\u00ec. Che razza di domanda \u00e8 questa? Ogni volta che ho sentito un albero cadere, ha prodotto un suono, quindi presumo che anche gli altri alberi in caduta producano suoni. Non credo che il mondo intorno a me cambi, quando non sono nei paraggi.\u201d<\/p>\n<p>BARRY: \u201cBe\u2019, aspetta. Se nessuno lo sente, come pu\u00f2 essere un suono?\u201d<\/p>\n<p>Come potete vedere, Albert e Barry non stanno discutendo sui fatti, ma sulle <u><a href=\"http:\/\/lesswrong.com\/lw\/no\/how_an_algorithm_feels_from_inside\/\" rel=\"nofollow\">definizioni<\/a><\/u>.<\/p>\n<p>La prima persona parla come se \u201csuono\u201d significasse vibrazioni acustiche nell\u2019aria; la seconda come se \u201csuono\u201d significasse un\u2019esperienza uditiva nel cervello. Se chiedi \u201cCi sono vibrazioni acustiche?\u201d o \u201cCi sono esperienze uditive?\u201d, la risposta si fa all\u2019improvviso ovvia. Quindi la discussione verte in realt\u00e0 sulla definizione della parola \u201csuono.\u201d<\/p>\n<p>Non dobbiamo litigare sulle definizioni. Forse potremmo assegnare differenti significati alle parole, ma possiamo andare dritti al punto <u><a href=\"http:\/\/lesswrong.com\/lw\/nv\/replace_the_symbol_with_the_substance\/\" rel=\"nofollow\">sostituendo<\/a><\/u> il <i>simbolo<\/i> confondente (una parola) con il <i>significato<\/i> inteso.<\/p>\n<p>\u00c8 un po\u2019 come giocare a <i><u><a href=\"http:\/\/en.wikipedia.org\/wiki\/Taboo_(game)\" rel=\"nofollow\">Tab\u00f9<\/a><\/i><\/u> (della Hasbro). In <i>Tab\u00f9<\/i>, dovete descrivere qualcosa al vostro partner <u><a href=\"http:\/\/lesswrong.com\/lw\/nu\/taboo_your_words\" rel=\"nofollow\">senza usare una certa lista di parole<\/a><\/u>:<\/p>\n<p>Per esempio, potresti far dire \u201ccalcio\u201d senza usare le parole \u201csport,\u201d \u201cpalla,\u201d \u201csquadra,\u201d \u201cgiocatore,\u201d \u201ccampo,\u201d n\u00e9, naturalmente, \u201ccalcio.\u201d<\/p>\n<p>\u00c8 una buona pratica per una discussione sull\u2019AI. Se due persone notano di usare diverse definizioni di \u201cintelligenza,\u201d non dovrebbero litigare su quale definizione sia \u201cgiusta.\u201d Possono invece rendere tab\u00f9 la parola \u201cintelligenza\u201d e parlare dell\u2019\u201cabilit\u00e0 analitica\u201d o della \u201cabilit\u00e0 nel problem solving\u201d o qualunque cosa intendano per \u201cintelligenza.\u201d Ora sono pi\u00f9 vicini a discutere sui fatti, anzich\u00e9 sulle definizioni.<\/p>\n<p>Shane Legg una volta ha raccolto settantuno definizioni di intelligenza.<u><a href=\"http:\/\/intelligenceexplosion.com\/2011\/playing-taboo-with-intelligence\/#fn1x10\" rel=\"nofollow\">1<\/a><\/u> Passando in rassegna le definizioni pi\u00f9 comuni, nota che le persone ritengono che l\u2019intelligenza sia:<\/p>\n<ul class=\"small\">\n<li>Una propriet\u00e0 che un agente individuale ha man mano che interagisce con i suoi ambienti.<\/li>\n<\/ul>\n<li>&#8230; collegata all\u2019abilit\u00e0 di un agente di ottenere successo o profitto rispetto a un qualche scopo o obiettivo&#8230;<\/li>\n<li>\u2026 dipende[nte] da quanto \u00e8 abile [l\u2019] agente ad adattarsi a differenti obiettivi e ambienti.<\/li>\n<\/ul>\n<p>Se uniamo queste caratteristiche, otteniamo qualcosa del genere:<\/p>\n<p>L\u2019intelligenza misura l\u2019abilit\u00e0 di un agente di conseguire obiettivi in un ampio range di ambienti.<u><a href=\"http:\/\/intelligenceexplosion.com\/2011\/playing-taboo-with-intelligence\/#fn2x10\" rel=\"nofollow\">2<\/a><\/u><\/p>\n<p>\u00c8 questo, dopo tutto, il tipo di intelligenza che ha permesso agli umani di dominare tutte le specie sul pianeta, e svettare sulle macchine (almeno per ora). Le termiti costruiscono citt\u00e0 pi\u00f9 grandi (rispetto alla dimensione del loro corpo) e le balene hanno cervelli pi\u00f9 grandi, ma gli umani hanno avuto l\u2019intelligenza di adattarsi a quasi ogni ambiente terrestre e costruire utensili, lance, barche e fattorie. <u><a href=\"http:\/\/en.wikipedia.org\/wiki\/Watson_(computer)\" rel=\"nofollow\">Watson<\/a><\/u> pu\u00f2 batterci a <i>Jeopardy!<\/i> e <i><u><a href=\"http:\/\/www.wolframalpha.com\/\" rel=\"nofollow\">WolframAlpha<\/a><\/i><\/u> pu\u00f2 processare conoscenza computabile meglio di noi, ma buttate uno dei due in un lago, o lasciate che si procurino l\u2019elettricit\u00e0 da soli, e non avranno scampo. A differenza di Watson e <i>WolframAlpha<\/i>, gli umani hanno una capacit\u00e0 <i>multi-disciplinare<\/i> nell\u2019ottimizzare gli obiettivi. <u><a href=\"http:\/\/lesswrong.com\/lw\/vb\/efficient_crossdomain_optimization\/\" rel=\"nofollow\">Oppure<\/a><\/u>:<\/p>\n<p>Un\u2019ape costruisce nidi, e un castoro costruisce dighe; ma un\u2019ape non costruisce dighe e un castoro non costruisce nidi. Un umano, guardando, pensa: \u201cOh, capisco come si fa\u201d e va a costruire una diga usando una struttura a nido d\u2019ape, che migliora la resistenza.<\/p>\n<p>Ma aspetta un minuto. Supponiamo che Bill Gates mi dia dieci miliardi di dollari. Ora sono <i>molto<\/i> pi\u00f9 in grado di \u201cconseguire obiettivi in un\u2019ampia gamma di ambienti,\u201d ma questo significa che la mia \u201cintelligenza\u201d \u00e8 aumentata? Ne dubito. Se vogliamo misurare l\u2019\u201cintelligenza\u201d di un agente, dovremmo prendere l\u2019abilit\u00e0 di quell\u2019agente nell\u2019ottimizzare i suoi obiettivi in un ampio range di ambienti\u2014il suo \u201cpotere di ottimizzazione,\u201d per cos\u00ec dire\u2014e <i>dividerlo<\/i> per le risorse utilizzate nell\u2019ottenerlo:<\/p>\n<p><img decoding=\"async\" src=\"cid:Image_2.png\" \/><\/p>\n<p>Questa definizione vede l\u2019intelligenza come un\u2019ottimizzazione multi-dominio <i>efficiente<\/i>. L\u2019intelligenza \u00e8 quello che permette a un agente di dirigere il futuro, un potere amplificato dalle risorse a sua disposizione.<\/p>\n<p>Questo potrebbe somigliare, oppure no, alla vostra definizione intuitiva di \u201cintelligenza.\u201d Ma non importa. Ho reso la parola \u201cintelligenza\u201d tab\u00f9, come ricorderete. Ho sostituito il simbolo con la sostanza. Quando parliamo della AI, posso parlare solo di \u201cottimizzazione efficiente multi-dominio\u201d, e nulla della vostra definizione prediletta di \u201cintelligenza\u201d conter\u00e0, in tutto quel che dico.<\/p>\n<p>Ora, \u201cintelligenza\u201d \u00e8 pi\u00f9 breve, quindi preferirei utilizzare semplicemente <i>quella<\/i> parola. Ma sarebbe meglio se leggeste sempre la parola \u201cintelligenza\u201d (quando la uso) come \u201cottimizzazione efficiente interdisciplinare.\u201d<\/p>\n<p>E ora che abbiamo capito cosa intendo per \u201cintelligenza,\u201d siamo pronti a parlare dell\u2019AI.<\/p>\n<p>* * *<\/p>\n<p><u><a href=\"http:\/\/intelligenceexplosion.com\/2011\/playing-taboo-with-intelligence\/#fn1x10-bk\" rel=\"nofollow\">1<\/a><\/u>Shane Legg and Marcus Hutter, <i>A Collection of Definitions of Intelligence<\/i> (Manno-Lugano, Switzerland: IDSIA, July 15, 2007), <u><a href=\"http:\/\/www.idsia.ch\/idsiareport\/IDSIA-07-07.pdf\" rel=\"nofollow\">http:\/\/www.idsia.ch\/idsiareport\/IDSIA-07-07.pdf<\/a><\/u>.<\/p>\n<p><u><a href=\"http:\/\/intelligenceexplosion.com\/2011\/playing-taboo-with-intelligence\/#fn2x10-bk\" rel=\"nofollow\">2<\/a><\/u>Shane Legg and Marcus Hutter, <i>A Formal Measure of Machine Intelligence<\/i> (Manno-Lugano, Switzerland: IDSIA, April 12, 2006), <u><a href=\"http:\/\/www.idsia.ch\/idsiareport\/IDSIA-10-06.pdf\" rel=\"nofollow\">http:\/\/www.idsia.ch\/idsiareport\/IDSIA-10-06.pdf<\/a><\/u>.<\/p>\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Giocare a &#8220;Tab\u00f9&#8221; con la parola Intelligenza Eliezer Yudkowsky racconta: Anni fa, durante un panel con Jaron Lanier, Jaron aveva offerto alcuni elaborati argomenti che nessuna macchina potrebbe essere intelligente, perch\u00e9 era solo una macchina e definirla \u201cintelligente\u201d era cattiva&hellip;  <a href=\"https:\/\/intelligenceexplosion.com\/it\/2011\/playing-taboo-with-intelligence\/\">continue reading<\/a> &raquo;<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[4],"tags":[],"class_list":["post-131","post","type-post","status-publish","format-standard","hentry","category-chapter"],"_links":{"self":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/posts\/131","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/comments?post=131"}],"version-history":[{"count":0,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/posts\/131\/revisions"}],"wp:attachment":[{"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/media?parent=131"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/categories?post=131"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/it\/wp-json\/wp\/v2\/tags?post=131"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}