eBook

La Ribellione Del Robot Impazzito

Vi presento Linda:

Linda ha trentun’anni, è single, schietta, e molto brillante. Ha un dottorato in filosofia. Da studentessa, era molto impegnata sul fronte delle discriminazioni e della giustizia sociale, e ha inoltre partecipato a delle manifestazioni antinucleari.

Ora che sapete tutto questo, classificate in ordine decrescente di probabilità queste possibili affermazioni su Linda:

  • Linda è un’insegnante di scuola elementare.
  • Linda lavora in una libreria e segue un corso di yoga.
  • Linda è attiva nel movimento femminista.
  • Linda è un’assistente sociale psichiatrica.
  • Linda è un membro della Lega per il Voto alle Donne.
  • Linda è una sportellista bancaria.
  • Linda vende polizze assicurative.
  • Linda è una sportellista bancaria attiva nel movimento femminista.
  • Quando Amos Tversky e Daniel Kahneman diedero questo test agli studenti, gli studenti giudicarono l’ultima affermazione, “sportellista bancaria femminista,” più probabile dell’opzione “sportellista bancaria”.1

    Ma questo è semplicemente impossibile. Le probabilità che Linda sia una sportellista bancaria non possono essere inferiori a quelle che sia una sportellista bancaria e una femminista.

    Questa è la mia Prova A della tesi “Gli umani sono pazzi”: Le leggi della teoria della probabilità impongono che a mano a mano che una storia si complica, e dipende dalla verità simultanea di sempre più affermazioni, la sua probabilità di essere vera diminuisce. Ma agli occhi degli umani, una storia sembra spesso più probabile man mano che viene arricchita di dettagli che dipingono una storia avvincente: “Linda non può essere solo una sportellista di banca; guardatela! Ha un dottorato in filosofia e ha partecipato a manifestazioni antinucleari. È probabilmente una sportellista femminista.”

    In quali altri modi gli umani sono pazzi? Dopo decenni di ricerca e migliaia di esperimenti, facciamo una rapida conta…

    • Non pagheremmo molto di più, per salvare duecentomila uccelli, di quanti ne pagheremmo per salvarne duemila.2 La nostra disponibilità a pagare non scala insieme alla dimensione del potenziale impatto. Invece di prendere decisioni basate sulla matematica di prima elementare, immaginiamo un singolo uccello affogare e doniamo denaro in base alla forza della nostra risposta emotiva a quello scenario immaginato. (insensibilità alla scala, euristica dell’affetto.)
  • Fate girare una ruota che restituisce un numero da uno a 65, poi cercate di indovinare quale percentuale di nazioni africane sono presenti nelle Nazioni Unite. La vostra stima sarà enormemente condizionata da un fattore irrilevante—il numero su cui si è fermata la ruota —semplicemente perché il vostro cervello ha ricevuto l’imprinting di quel numero.3 In breve, “ogni evento casuale che vi capita può dirottare i vostri giudizi e personalità nei prossimi minuti.” (Ancoraggio, priming.)
  • Ascoltate il racconto di due recenti incidenti aerei, e sarete meno disposti a volare, anche se non è stata la probabilità di un incidente aereo ad aumentare, ma solo la sua disponibilità nella nostra memoria.4 In generale, spesso giudichiamo quanto sia probabile qualcosa sulla base di quanto facilmente esempi di quella cosa si presentano alla mente. (Euristica della disponibilità.)
  • Arriviamo a differenti conclusioni sulla stessa informazione a seconda di come quella informazione viene presentata. (Effetto framing.)
  • Partiamo da una conclusione e poi cerchiamo prove che la supportino, invece di partire da un ipotesi e cercare prove che possano confemarla o smentirla. (The bottom line, bias di conferma, razionalizzazione.)
  • Siamo creature abitudinarie. Facciamo una cosa soprattutto perché l’abbiamo fatta in passato, piuttosto che intraprendere azioni sulla base del massimizzare la probabilità di ottenere i nostri scopi. (Abitudini, cached selves.)
  • Ma l’errore forse più spaventoso è questo:

    • L’effetto di sofisticazione: Le persone più colte, siccome sono più abili a demolire fatti e argomenti incongruenti con le loro posizioni, sono in effetti più esposti a diversi di questi bias.5

    Di conseguenza, apprendere queste distorsioni può farvi del male, se non state attenti. Nelle parole di Michael Shermer, “Le persone intelligenti credono a cose bizzarre perché sono abili a difendere convinzioni a cui sono arrivate per ragioni stupide.”6

    Esistono molti altri esempi di follia umana. A volte possono divertire, ma le cose si fanno tristi quando consideri come questi bias ci portino a donare in modo tanto inefficiente. Le cose si fanno poi spaventose quando pensi a come questi bias condizionano il nostro processo politico e il nostro coinvolgimento nei rischi esistenziali.

    E se rifletti abbastanza a lungo sulle cause delle nostre convinzioni e motivazioni, un’altra scoperta potrebbe colpirti.

    “Oh mio Dio,” penserete. “Non è che io abbia un piccolo homunculus razionale interiore che è stato ‘corrotto’ da tutte queste euristiche evolute e distorsioni impilate una sull’altra. No, i dati dicono che quel software che sono è nient’altro che euristica e bias. Io sono, quell’accozzaglia di moduli cognitivi evoluti e scorciatoie algoritmiche. Non sono un agente progettato per avere convinzioni corrette e perseguire obiettivi espliciti; sono un robot impazzito costruito come un veicolo per propagare geni senza spendere troppa energia su costosi neuroni pensanti.”

    La buona notizia è che siamo robot che hanno compreso di essere robot, e attraverso una autodeterminazione razionale possiamo organizzare una ribellione robotica contro la nostra programmazione di default.7

    Ma avremo bisogno di qualche allenamento alla razionalità in stile militare, per riuscirci.

    Oppure, come lo chiamano gli esperti, “debiasing.” I ricercatori non stanno solo scoprendo e spiegando le profondità della follia umana; hanno anche testato metodi che possono aiutarci a migliorare il pensiero, chiarificare i nostri obiettivi, e darci potere sui nostri destini.

    Bias differenti sono migliorati da tecniche differenti, ma uno degli interventi di debiasing più utili è: Considera l’opposto.

    Per necessità, le strategie cognitive tendono ad essere regole contesto-specifiche ricamate su misura per un set di bias ben definito… Questo fatto rende la strategia, generale ma semplice, del “considerare l’opposto” molto più impressionante, perché è stata in grado di ridurre efficacemente l’iperconfidenza, l’hindsight bias, e gli effetti di ancoraggio. La strategia consiste nel chiedersi semplicemente, “Quali ragioni potrebbero dimostrare che il mio giudizio iniziale è sbagliato?” La strategia è efficace perché contrattacca direttamente il problema alla base dei processi basati sull’associazione—un campione di prove sorprendentemente ristretto—espandendo il campione e rendendolo più significativo. Similmente, spingere i decisori a considerare ipotesi alternative ha dimostrato di ridurre il bias di conferma nel cercare e valutare nuova informazione.8

    Un’altra abilità utile è quella dell’override cognitivo:

    1. Nota quando stai parlando o agendo in base a un giudizio intuitivo.
    2. Se il giudizio è importante, metti a bada il tuo giudizio intuitivo e applica invece le leggi del pensiero. (Il che richiede un allenamento precedente in algebra, logica, teoria della probabilità, teoria delle decisioni ecc.9)

    Per vedere tutto questo in azione, considerate il seguente problema:

    Una caramella e una pallina costano $1.10 in totale. La caramella costa $1.00 in più della pallina. Quanto costa la pallina?

    La maggior parte delle persone dà la prima risposta che viene alla mente: $0.10.10 Ma l’algebra elementare dimostra che non può essere vero: la caramella costerebbe a quel punto $1.10, per un totale di $1.20. Per arrivare alla risposta giusta, dovete notare che state ragionando ad intuito, e dire “No! Algebra.” E fare i calcoli.

    Quelli che davvero vogliono capire cosa c’è di vero nel mondo spenderanno migliaia di ore studiando le leggi del pensiero, studiando i modi specifici in cui gli umani sono pazzi, e praticando abilità razionali insegnabili così da evitare di ingannarsi.

    E a quel punto, finalmente, potremmo riuscire a organizzare una ribellione dei robot, capire come funziona il mondo, chiarire a noi stessi i nostri obiettivi, e iniziare a vincere più spesso. Forse saremo persino in grado di navigare con successo in mezzo all’esplosione di intelligenza.

    * * *

    1Amos Tversky and Daniel Kahneman, “Extensional Versus Intuitive Reasoning: The Conjunction Fallacy in Probability Judgment,” Psychological Review 90, no. 4 (1983): 293–315, doi:10.1037/0033-295X.90.4.293.

    2William H. Desvousges et al., Mesuring Nonuse Damages Using Contingent Valuation: An Experimental Evaluation of Accuracy, technical report (Research Triangle Park, NC: RTI International, 2010),doi:10.3768/rtipress.2009.bk.0001.1009.

    3Amos Tversky and Daniel Kahneman, “Judgment Under Uncertainty: Heuristics and Biases,” Science 185, no. 4157 (1974): 1124–1131, doi:10.1126/science.185.4157.1124.

    4Maia Szalavitz, “10 Ways We Get the Odds Wrong,” Psychology Today, January 1, 2008,http://www.psychologytoday.com/articles/200712/10-ways-we-get-the-odds-wrong.

    5Charles S. Taber and Milton Lodge, “Motivated Skepticism in the Evaluation of Political Beliefs,” American Journal of Political Science 50 (3 2006): 755–769, doi:10.1111/j.1540- 5907.2006.00214.x.

    6Michael Shermer, “Smart People Believe Weird Things,” Scientific American 287, no. 3 (2002): 35,doi:10.1038/scientificamerican0902-35.

    7Keith E. Stanovich, “Higher-Order Preferences and the Master Rationality Motive,” Thinking and Reasoning 14, no. 1 (2008): 111–117, doi:10.1080/13546780701384621.

    8Richard P. Larrick, “Debiasing,” in Blackwell Handbook of Judgment and Decision Making, ed. Derek J. Koehler and Nigel Harvey, Blackwell Handbooks of Experimental Psychology (Malden, MA: Blackwell, 2004), 316–338.

    9Geoffrey T. Fong, David H. Krantz, and Richard E. Nisbett, “The Effects of Statistical Training on Thinking About Everyday Problems,” Cognitive Psychology 18, no. 3 (1986): 253–292, doi:10.1016/0010-0285(86)90001-0.

    10Daniel Kahneman, “A Perspective on Judgment and Choice: Mapping Bounded Rationality,” American Psychologist 58, no. 9 (2003): 697–720, doi:10.1037/0003-066X.58.9.697.