{"id":117,"date":"2011-12-15T13:17:44","date_gmt":"2011-12-15T21:17:44","guid":{"rendered":"http:\/\/facingthesing.wpengine.com\/?p=117"},"modified":"2014-12-01T13:46:52","modified_gmt":"2014-12-01T21:46:52","slug":"not-built-to-think-about-ai","status":"publish","type":"post","link":"https:\/\/intelligenceexplosion.com\/fr\/2011\/not-built-to-think-about-ai\/","title":{"rendered":"Pas con\u00e7us pour penser \u00e0 l&rsquo;IA"},"content":{"rendered":"<p><\/p>\n<p><span class=\"dropcap\">D<\/span>ans la saga <em>Terminator<\/em>, l&rsquo;IA <a href=\"http:\/\/fr.wikipedia.org\/wiki\/Personnages_de_Terminator#S\">Skynet<\/a> devient consciente d&rsquo;elle-m\u00eame, tue des milliards d&rsquo;\u00eatres humains, et d\u00e9ploie des robots tueurs pour \u00e9liminer les derniers groupes de r\u00e9sistants. Cela semble assez horrible, mais dans <a href=\"http:\/\/www.npr.org\/2011\/01\/11\/132840775\/The-Singularity-Humanitys-Last-Invention\">cet article sur la Singularit\u00e9<\/a>, Keef Roedersheimer (programmeur chez Ebay) explique que la cr\u00e9ation d&rsquo;une <em>vraie<\/em>\u00a0machine super-intelligente serait <em>bien pire<\/em> que \u00e7a.<\/p>\n<p>\u00ab\u00a0Pire que <em>Terminator<\/em> ?\u00a0\u00bb a demand\u00e9 Martin Kaste, de <em>NPR<\/em>.<\/p>\n<p>\u00ab\u00a0Pire, bien pire\u00a0\u00bb a r\u00e9pondu Keefe.<\/p>\n<p>\u00ab\u00a0C&rsquo;est un paysage lunaire avec des gens qui se cachent sous des b\u00e2timents en ruines et qui re\u00e7oivent des tirs de lasers. Qu&rsquo;est-ce qui pourrait bien est pire que <em>\u00e7a<\/em> ?<\/p>\n<p>\u00ab\u00a0Que tout le monde meurt.\u00a0\u00bb<\/p>\n<p>Pourquoi a-t-il dit \u00e7a ? Parmi tous les objectifs qu&rsquo;une IA pourrait avoir \u2014 que ce soit de r\u00e9soudre <a href=\"http:\/\/fr.wikipedia.org\/wiki\/Hypoth%C3%A8se_de_Riemann\">l&rsquo;hypoth\u00e8se de Riemann<\/a> ou de maximiser la production de p\u00e9trole \u2014 la simple raison\u00a0<a href=\"http:\/\/singinst.org\/upload\/artificial-intelligence-risk.pdf\">est que<\/a>\u00a0\u00ab\u00a0l&rsquo;IA ne vous aime pas, pas plus qu&rsquo;elle ne vous hait, mais vous \u00eates faits d&rsquo;atomes et elle peut s&rsquo;en servir pour autre chose\u00a0\u00bb. Et quand une IA surhumaine se rendra compte que les humains vont probablement r\u00e9sister \u00e0 cette id\u00e9e, elle aura int\u00e9r\u00eat \u00e0 nous \u00e9liminer <em>aussi vite que possible<\/em> \u2014 et pas d&rsquo;une fa\u00e7on qui va exposer ses faiblesses critiques \u00e0 une \u00e9quipe de h\u00e9ros intr\u00e9pides qui peuvent sauver le monde \u00e0 condition qu&rsquo;ils mettent de c\u00f4t\u00e9 leurs diff\u00e9rences\u00a0\u00bb. Non. Pour la plupart des objectifs qu&rsquo;une IA pourrait avoir, \u00e9liminer la menace humaine, aussi efficacement que possible, maximisera <a href=\"http:\/\/facingthesing.wpengine.com\/2011\/the-laws-of-thought\/\">l&rsquo;esp\u00e9rance d&rsquo;utilit\u00e9<\/a> de l&rsquo;IA.<\/p>\n<p><a href=\"http:\/\/facingthesing.wpengine.com\/wp-content\/uploads\/2011\/12\/mushroomcloud.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-134\" title=\"mushroomcloud\" src=\"http:\/\/facingthesing.wpengine.com\/wp-content\/uploads\/2011\/12\/mushroomcloud-300x223.jpg\" alt=\"\" width=\"300\" height=\"223\" srcset=\"https:\/\/intelligenceexplosion.com\/wp-content\/uploads\/2011\/12\/mushroomcloud-300x223.jpg 300w, https:\/\/intelligenceexplosion.com\/wp-content\/uploads\/2011\/12\/mushroomcloud.jpg 545w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Et soyons honn\u00eates : il y a de meilleurs moyens pour nous tuer que d&rsquo;envoyer des robots <em>de forme humaine<\/em>\u00a0qui <em>marchent<\/em> sur le <em>sol<\/em>\u00a0et semblent prendre plaisir \u00e0 projeter des humains contre les murs plut\u00f4t que de simplement leur briser la nuque. Il serait bien plus efficace si l&rsquo;attaque \u00e9tait soudaine, avec des effets simultan\u00e9s partout dans le monde, d&rsquo;une l\u00e9talit\u00e9 rapide, et d\u00e9fiant toute contre-mesure possible. Par exemple : pourquoi ne pas utiliser toute cette super-intelligence pour concevoir un super-virus a\u00e9roport\u00e9, tr\u00e8s contagieux et mortel ? Une <a href=\"http:\/\/fr.wikipedia.org\/wiki\/Grippe_de_1918\"> mutation de la grippe en 1918<\/a> a tu\u00e9 3% de la population de la Terre, et c&rsquo;\u00e9tait avant que les transports a\u00e9riens (qui \u00e9tendent les maladies \u00e0 travers le monde) soient r\u00e9pandus, et sans que la moindre intelligence ait \u00e9t\u00e9 impliqu\u00e9e dans la conception du virus. Appliquez-y un brin d&rsquo;intelligence, et vous obtenez la cr\u00e9ation par une \u00e9quipe des Pays-Bas d&rsquo;une variante de la grippe aviaire qui \u00ab\u00a0<a href=\"http:\/\/rt.com\/news\/bird-flu-killer-strain-119\/?utm_medium=referral&#038;utm_source=pulsenews\">pourrait tuer la moiti\u00e9 de l&rsquo;humanit\u00e9<\/a>\u00ab\u00a0. Une super-intelligence pourrait cr\u00e9er quelque chose de bien pire. Ou bien, l&rsquo;IA pourrait se cacher sous terre ou s&rsquo;\u00e9jecter dans l&rsquo;espace et tous nous tuer avec des technologies <em>existantes<\/em> : <a href=\"http:\/\/lesswrong.com\/lw\/8f0\/existential_risk\/\">quelques milliers d&rsquo;armes nucl\u00e9aires<\/a>.<\/p>\n<p>Je ne dis pas que ces sc\u00e9narios <em>particuliers<\/em>\u00a0sont probables. J&rsquo;essaye juste d&rsquo;indiquer que la r\u00e9alit\u00e9 de la situation peut \u00eatre bien diff\u00e9rente de ce qui permet de faire de la bonne fiction. Comme <a href=\"http:\/\/www.nickbostrom.com\/existential\/risks.html\">le dit<\/a> le philosophe d&rsquo;Oxford Nick Bostrom :<\/p>\n<blockquote>\n<p>A quand remonte la derni\u00e8re fois que vous avez vu un film o\u00f9 l&rsquo;humanit\u00e9 s&rsquo;\u00e9teignait soudainement (sans avertissement et sans \u00eatre remplac\u00e9e par une autre civilisation) ?<\/p>\n<\/blockquote>\n<p>L&rsquo;intrigue est meilleure si le combat peut \u00eatre remport\u00e9 par chacun des deux clans de mani\u00e8re plausible. <em>Le Seigneur des Anneaux<\/em> ne se serait pas vendu \u00e0 autant d&rsquo;exemplaires si Frodo avait fait la chose la plus sens\u00e9e et avait <a href=\"http:\/\/www.youtube.com\/watch?v=1yqVD0swvWU\">jet\u00e9 l&rsquo;anneau dans le volcan<\/a> en chevauchant un aigle g\u00e9ant. Et ce n&rsquo;est pas non plus une histoire int\u00e9ressante si les humains <em>perdent soudainement<\/em>, et point final.<\/p>\n<p>Quand nous r\u00e9fl\u00e9chissons \u00e0 l&rsquo;IA, nous ne devons pas\u00a0<a href=\"http:\/\/lesswrong.com\/lw\/k9\/the_logical_fallacy_of_generalization_from\/\">g\u00e9n\u00e9raliser \u00e0 partir d&rsquo;\u00e9l\u00e9ments de fiction<\/a>. Malheureusement, <em>nos cerveaux le font automatiquement.<\/em><\/p>\n<p><em><\/em>Lors d&rsquo;une <a href=\"http:\/\/commonsenseatheism.com\/wp-content\/uploads\/2011\/12\/Lichtenstein-et-al-Judged-frequency-of-lethal-events.pdf\">\u00e9tude bien connue de 1978<\/a>, on a demand\u00e9 \u00e0 des sujets de deviner lequel de deux dangers arrivait le plus souvent. Les sujets pensaient que les accidents causaient environ autant de morts que les maladies, et que les meurtres \u00e9taient plus fr\u00e9quents que les suicides. En r\u00e9alit\u00e9, les maladies causent 16 fois plus de morts que les accidents, et le suicide est deux fois plus fr\u00e9quent que le meurtre. Que s&rsquo;est-il pass\u00e9 ?<\/p>\n<p>Des dizaines d&rsquo;\u00e9tudes sur <a href=\"http:\/\/fr.wikipedia.org\/wiki\/Heuristique_de_disponibilit%C3%A9\">l&rsquo;heuristique de disponibilit\u00e9<\/a> sugg\u00e8rent que nous jugeons la fr\u00e9quence ou la probabilit\u00e9 d&rsquo;\u00e9v\u00e9nements par leur <em>facilit\u00e9 \u00e0 nous venir en t\u00eate<\/em>. Ce n&rsquo;\u00e9tait pas un heuristique si terrible \u00e0 avoir dans notre environnement ancestral o\u00f9 nous ne pouvions pas v\u00e9rifier les <em>vraies<\/em> fr\u00e9quences sur Wikipedia ni d\u00e9terminer les <em>vraies<\/em>\u00a0probabilit\u00e9s avec le <a href=\"http:\/\/fr.wikipedia.org\/wiki\/Th%C3%A9or%C3%A8me_de_Bayes\">Th\u00e9or\u00e8me de Bayes<\/a>. Les heuristiques du cerveau sont rapides, peu couteux, et souvent corrects.<\/p>\n<p>Mais comme beaucoup de nos heuristiques cognitifs naturels, l&rsquo;heuristique de disponibilit\u00e9 donne souvent les mauvais r\u00e9sultats. Les accidents sont plus marquants, et donc viennent \u00e0 l&rsquo;esprit plus facilement, ce qui nous pousse \u00e0 surestimer leur fr\u00e9quence par rapport aux maladies. Il en va de m\u00eame pour les meurtres et les suicides.<\/p>\n<p>L&rsquo;heuristique de disponibilit\u00e9 <a href=\"http:\/\/www.psychologytoday.com\/articles\/200712\/10-ways-we-get-the-odds-wrong\">explique aussi<\/a> pourquoi les gens pensent que voler est plus dangereux que conduire alors que l&rsquo;inverse est vrai : un crash d&rsquo;avion est plus marquant et est signal\u00e9 plus largement lorsqu&rsquo;il arrive, donc il est davantage disponible dans notre m\u00e9moire, et le cerveau se pi\u00e8ge lui-m\u00eame en pensant que la\u00a0<em>disponibilit\u00e9<\/em> de l&rsquo;\u00e9v\u00e9nement indique sa <em>probabilit\u00e9<\/em>.<\/p>\n<p>Que fait votre cerveau quand il pense \u00e0 une IA surhumaine ? Tr\u00e8s probablement, il v\u00e9rifie toutes les instances d&rsquo;IA surhumaines que vous avez rencontr\u00e9es \u2014 qui, pour ne rien arranger, sont toutes <em>fictives<\/em>\u00a0\u2014 et juge la probabilit\u00e9 de certains sc\u00e9narios en fonction de leur compatibilit\u00e9 avec les sc\u00e9narios qui lui viennent le plus facilement \u00e0 l&rsquo;esprit (ceux que votre esprit a rencontr\u00e9 dans des fictions). En <a href=\"http:\/\/lesswrong.com\/lw\/k9\/the_logical_fallacy_of_generalization_from\/\">d&rsquo;autres termes<\/a> : \u00ab\u00a0Les fictions dont vous vous souvenez d\u00e9barquent et r\u00e9fl\u00e9chissent pour vous\u00a0\u00bb.<\/p>\n<p>Donc si vous avez des intuitions sur ce \u00e0 quoi vont ressembler des IA surhumaines, elles sont probablement bas\u00e9es sur de la <em>fiction<\/em>, sans m\u00eame que vous le r\u00e9alisiez.<\/p>\n<p>C&rsquo;est pourquoi j&rsquo;ai commenc\u00e9 <em>Face \u00e0 la Singularit\u00e9<\/em>\u00a0en parlant de <a href=\"http:\/\/facingthesing.wpengine.com\/2011\/from-skepticism-to-technical-rationality\/\">rationalit\u00e9<\/a>.\u00a0D\u00e8s l&rsquo;instant o\u00f9 nous pensons \u00e0 l&rsquo;IA, nous fon\u00e7ons droit dans un mur de d\u00e9faillances humaines bien connues. G\u00e9n\u00e9raliser \u00e0 partir d&rsquo;\u00e9l\u00e9ments de fiction en fait partie. En voici <a href=\"http:\/\/fr.wikipedia.org\/wiki\/Liste_de_biais_cognitifs\">quelques autres<\/a> :<\/p>\n<ul>\n<li>A cause de l&rsquo;heuristique de disponibilit\u00e9, votre cerveau va vous dire qu&rsquo;une IA \u00e9liminant l&rsquo;humanit\u00e9 est extr\u00eamement improbable car vous n&rsquo;avez jamais rencontr\u00e9 \u00e7a auparavant. De plus, m\u00eame quand les \u00e9v\u00e9nements se passent aussi mal qu&rsquo;ils le font dans, disons, les films <a href=\"http:\/\/tvtropes.org\/pmwiki\/pmwiki.php\/Main\/AlienInvasion\">d&rsquo;invasion alienne<\/a>, les courageux h\u00e9ros humains finissent toujours par trouver un moyen de gagner \u00e0 la derni\u00e8re minute.<\/li>\n<li>Du fait de notre tendance \u00e0 surestimer la probabilit\u00e9 des \u00e9v\u00e9nements regroup\u00e9s et \u00e0 sous-estimer la probabilit\u00e9 des \u00e9v\u00e9nements isol\u00e9s (<a href=\"http:\/\/fiesta.bren.ucsb.edu\/~costello\/courses\/ESM204\/ESM204_10\/Readings\/Judgment%20under%20uncertainty.pdf\">voici l&rsquo;\u00e9tude<\/a>), nous avons plus de chances de <em>surestimer<\/em> la probabilit\u00e9 qu&rsquo;une IA surhumaine s&rsquo;av\u00e8re b\u00e9n\u00e9fique \u00e9tant donn\u00e9 que X, Y, et Z vont tous survenir, et nous avons plus de chances de <em>sous-estimer<\/em> la probabilit\u00e9 qu&rsquo;une IA surhumaine s&rsquo;av\u00e8re n\u00e9faste car en r\u00e9alit\u00e9 une IA surhumaine peut devenir n\u00e9faste de multiples fa\u00e7ons ne d\u00e9pendant pas de l&rsquo;arriv\u00e9e de nombreux autres \u00e9v\u00e9nements.<\/li>\n<li>A cause des heuristiques <a href=\"http:\/\/lesswrong.com\/lw\/j7\/anchoring_and_adjustment\/\">d&rsquo;ancrage et d&rsquo;ajustement<\/a> de notre cerveau, notre jugement sur une situation va <em>s&rsquo;ancrer<\/em> sur des informations sans int\u00e9r\u00eat. (Le nombre qui tombe \u00e0 la roulette va influencer notre estimation du nombre de pays se trouvant en Afrique.) Bien que je vienne d&rsquo;expliquer pourquoi <em>Terminator<\/em>\u00a0n&rsquo;est qu&rsquo;une fiction sans pertinence sur ce que les IA surhumaines vont devenir, votre cerveau va \u00eatre tent\u00e9 de s&rsquo;ancrer sur <em>Terminator<\/em> et va ensuite s&rsquo;en \u00e9carter un peu, mais pas suffisamment.<\/li>\n<li>Etant donn\u00e9 <a href=\"http:\/\/lesswrong.com\/lw\/lg\/the_affect_heuristic\/\">l&rsquo;heuristique d&rsquo;affect<\/a>, on juge les choses en se basant sur ce qu&rsquo;elles nous font ressentir. On appr\u00e9cie les gens qui sont beaux, alors on assume qu&rsquo;ils sont aussi intelligents et travailleurs. On appr\u00e9cie l&rsquo;intelligence, alors on pourrait s&rsquo;attendre \u00e0 ce qu&rsquo;une machine intelligente soit bienveillante. (Mais, <a href=\"http:\/\/singinst.org\/upload\/ECAPFoxShulman.pdf\">non<\/a>.)<\/li>\n<li>De par notre tendance \u00e0 <a href=\"http:\/\/fr.wikipedia.org\/wiki\/Oubli_de_la_fr%C3%A9quence_de_base\">n\u00e9gliger la taille de l&rsquo;\u00e9chantillon<\/a>, on ne se sent pas plus motiv\u00e9s pour emp\u00eacher 10 milliards de morts que pour en emp\u00eacher 10 millions.<\/li>\n<\/ul>\n<p>Clairement, nous ne somme pas con\u00e7us pour penser \u00e0 l&rsquo;IA.<\/p>\n<p>Pour r\u00e9fl\u00e9chir raisonnablement au sujet de l&rsquo;IA, nous devrons faire attention \u2013 et r\u00e9sister activement \u2013 \u00e0 de nombreuses erreurs communes de r\u00e9flexion. Nous devrons utiliser <a href=\"http:\/\/facingthesing.wpengine.com\/2011\/the-laws-of-thought\/\">les lois de la pens\u00e9e<\/a> plut\u00f4t que <a href=\"http:\/\/facingthesing.wpengine.com\/2011\/the-crazy-robots-rebellion\/\">la folie humaine habituelle<\/a>.<\/p>\n<p>Ou, en d&rsquo;autres termes : l&rsquo;IA surhumaine aura un impact immense sur notre monde, donc nous avons vraiment besoin de \u00ab\u00a0gagner\u00a0\u00bb face \u00e0 une IA surhumaine. La <a href=\"http:\/\/facingthesing.wpengine.com\/2011\/from-skepticism-to-technical-rationality\/\">Rationalit\u00e9 Technique<\/a>, <a href=\"http:\/\/facingthesing.wpengine.com\/2011\/why-spock-is-not-rational\/\">appliqu\u00e9e correctement<\/a> est <a href=\"http:\/\/lesswrong.com\/lw\/7i\/rationality_is_systematized_winning\/\">un syst\u00e8me optimal pour r\u00e9ussir<\/a>\u00a0\u2014 en effet, c&rsquo;est <a href=\"http:\/\/selfawaresystems.files.wordpress.com\/2011\/10\/rationally_shaped_ai.pdf\">le syst\u00e8me qu&rsquo;une IA parfaite utiliserait pour gagner le plus possible<\/a>. Donc si nous voulons gagner avec une IA surhumaine, nous devons utiliser la rationalit\u00e9.<\/p>\n<p>Et c&rsquo;est ce que je vais commencer \u00e0 faire dans le chapitre suivant.<\/p>\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>ans la saga Terminator, l&rsquo;IA Skynet devient consciente d&rsquo;elle-m\u00eame, tue des milliards d&rsquo;\u00eatres humains, et d\u00e9ploie des robots tueurs pour \u00e9liminer les derniers groupes de r\u00e9sistants. Cela semble assez horrible, mais dans cet article sur la Singularit\u00e9, Keef Roedersheimer (programmeur&hellip;  <a href=\"https:\/\/intelligenceexplosion.com\/fr\/2011\/not-built-to-think-about-ai\/\">continue reading<\/a> &raquo;<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[4],"tags":[],"class_list":["post-117","post","type-post","status-publish","format-standard","hentry","category-chapter"],"_links":{"self":[{"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/posts\/117","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/comments?post=117"}],"version-history":[{"count":0,"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/posts\/117\/revisions"}],"wp:attachment":[{"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/media?parent=117"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/categories?post=117"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/intelligenceexplosion.com\/fr\/wp-json\/wp\/v2\/tags?post=117"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}