La Ribellione Del Robot Impazzito
Vi presento Linda:
Linda ha trentun’anni, è single, schietta, e molto brillante. Ha un dottorato in filosofia. Da studentessa, era molto impegnata sul fronte delle discriminazioni e della giustizia sociale, e ha inoltre partecipato a delle manifestazioni antinucleari.
Ora che sapete tutto questo, classificate in ordine decrescente di probabilità queste possibili affermazioni su Linda:
- Linda è un’insegnante di scuola elementare.
Quando Amos Tversky e Daniel Kahneman diedero questo test agli studenti, gli studenti giudicarono l’ultima affermazione, “sportellista bancaria femminista,” più probabile dell’opzione “sportellista bancaria”.1
Ma questo è semplicemente impossibile. Le probabilità che Linda sia una sportellista bancaria non possono essere inferiori a quelle che sia una sportellista bancaria e una femminista.
Questa è la mia Prova A della tesi “Gli umani sono pazzi”: Le leggi della teoria della probabilità impongono che a mano a mano che una storia si complica, e dipende dalla verità simultanea di sempre più affermazioni, la sua probabilità di essere vera diminuisce. Ma agli occhi degli umani, una storia sembra spesso più probabile man mano che viene arricchita di dettagli che dipingono una storia avvincente: “Linda non può essere solo una sportellista di banca; guardatela! Ha un dottorato in filosofia e ha partecipato a manifestazioni antinucleari. È probabilmente una sportellista femminista.”
In quali altri modi gli umani sono pazzi? Dopo decenni di ricerca e migliaia di esperimenti, facciamo una rapida conta…
- Non pagheremmo molto di più, per salvare duecentomila uccelli, di quanti ne pagheremmo per salvarne duemila.2 La nostra disponibilità a pagare non scala insieme alla dimensione del potenziale impatto. Invece di prendere decisioni basate sulla matematica di prima elementare, immaginiamo un singolo uccello affogare e doniamo denaro in base alla forza della nostra risposta emotiva a quello scenario immaginato. (insensibilità alla scala, euristica dell’affetto.)
Ma l’errore forse più spaventoso è questo:
- L’effetto di sofisticazione: Le persone più colte, siccome sono più abili a demolire fatti e argomenti incongruenti con le loro posizioni, sono in effetti più esposti a diversi di questi bias.5
Di conseguenza, apprendere queste distorsioni può farvi del male, se non state attenti. Nelle parole di Michael Shermer, “Le persone intelligenti credono a cose bizzarre perché sono abili a difendere convinzioni a cui sono arrivate per ragioni stupide.”6
Esistono molti altri esempi di follia umana. A volte possono divertire, ma le cose si fanno tristi quando consideri come questi bias ci portino a donare in modo tanto inefficiente. Le cose si fanno poi spaventose quando pensi a come questi bias condizionano il nostro processo politico e il nostro coinvolgimento nei rischi esistenziali.
E se rifletti abbastanza a lungo sulle cause delle nostre convinzioni e motivazioni, un’altra scoperta potrebbe colpirti.
“Oh mio Dio,” penserete. “Non è che io abbia un piccolo homunculus razionale interiore che è stato ‘corrotto’ da tutte queste euristiche evolute e distorsioni impilate una sull’altra. No, i dati dicono che quel software che sono è nient’altro che euristica e bias. Io sono, quell’accozzaglia di moduli cognitivi evoluti e scorciatoie algoritmiche. Non sono un agente progettato per avere convinzioni corrette e perseguire obiettivi espliciti; sono un robot impazzito costruito come un veicolo per propagare geni senza spendere troppa energia su costosi neuroni pensanti.”
La buona notizia è che siamo robot che hanno compreso di essere robot, e attraverso una autodeterminazione razionale possiamo organizzare una ribellione robotica contro la nostra programmazione di default.7
Ma avremo bisogno di qualche allenamento alla razionalità in stile militare, per riuscirci.
Oppure, come lo chiamano gli esperti, “debiasing.” I ricercatori non stanno solo scoprendo e spiegando le profondità della follia umana; hanno anche testato metodi che possono aiutarci a migliorare il pensiero, chiarificare i nostri obiettivi, e darci potere sui nostri destini.
Bias differenti sono migliorati da tecniche differenti, ma uno degli interventi di debiasing più utili è: Considera l’opposto.
Per necessità, le strategie cognitive tendono ad essere regole contesto-specifiche ricamate su misura per un set di bias ben definito… Questo fatto rende la strategia, generale ma semplice, del “considerare l’opposto” molto più impressionante, perché è stata in grado di ridurre efficacemente l’iperconfidenza, l’hindsight bias, e gli effetti di ancoraggio. La strategia consiste nel chiedersi semplicemente, “Quali ragioni potrebbero dimostrare che il mio giudizio iniziale è sbagliato?” La strategia è efficace perché contrattacca direttamente il problema alla base dei processi basati sull’associazione—un campione di prove sorprendentemente ristretto—espandendo il campione e rendendolo più significativo. Similmente, spingere i decisori a considerare ipotesi alternative ha dimostrato di ridurre il bias di conferma nel cercare e valutare nuova informazione.8
Un’altra abilità utile è quella dell’override cognitivo:
- Nota quando stai parlando o agendo in base a un giudizio intuitivo.
- Se il giudizio è importante, metti a bada il tuo giudizio intuitivo e applica invece le leggi del pensiero. (Il che richiede un allenamento precedente in algebra, logica, teoria della probabilità, teoria delle decisioni ecc.9)
Per vedere tutto questo in azione, considerate il seguente problema:
Una caramella e una pallina costano $1.10 in totale. La caramella costa $1.00 in più della pallina. Quanto costa la pallina?
La maggior parte delle persone dà la prima risposta che viene alla mente: $0.10.10 Ma l’algebra elementare dimostra che non può essere vero: la caramella costerebbe a quel punto $1.10, per un totale di $1.20. Per arrivare alla risposta giusta, dovete notare che state ragionando ad intuito, e dire “No! Algebra.” E fare i calcoli.
Quelli che davvero vogliono capire cosa c’è di vero nel mondo spenderanno migliaia di ore studiando le leggi del pensiero, studiando i modi specifici in cui gli umani sono pazzi, e praticando abilità razionali insegnabili così da evitare di ingannarsi.
E a quel punto, finalmente, potremmo riuscire a organizzare una ribellione dei robot, capire come funziona il mondo, chiarire a noi stessi i nostri obiettivi, e iniziare a vincere più spesso. Forse saremo persino in grado di navigare con successo in mezzo all’esplosione di intelligenza.
* * *
1Amos Tversky and Daniel Kahneman, “Extensional Versus Intuitive Reasoning: The Conjunction Fallacy in Probability Judgment,” Psychological Review 90, no. 4 (1983): 293–315, doi:10.1037/0033-295X.90.4.293.
2William H. Desvousges et al., Mesuring Nonuse Damages Using Contingent Valuation: An Experimental Evaluation of Accuracy, technical report (Research Triangle Park, NC: RTI International, 2010),doi:10.3768/rtipress.2009.bk.0001.1009.
3Amos Tversky and Daniel Kahneman, “Judgment Under Uncertainty: Heuristics and Biases,” Science 185, no. 4157 (1974): 1124–1131, doi:10.1126/science.185.4157.1124.
4Maia Szalavitz, “10 Ways We Get the Odds Wrong,” Psychology Today, January 1, 2008,http://www.psychologytoday.com/articles/200712/10-ways-we-get-the-odds-wrong.
5Charles S. Taber and Milton Lodge, “Motivated Skepticism in the Evaluation of Political Beliefs,” American Journal of Political Science 50 (3 2006): 755–769, doi:10.1111/j.1540- 5907.2006.00214.x.
6Michael Shermer, “Smart People Believe Weird Things,” Scientific American 287, no. 3 (2002): 35,doi:10.1038/scientificamerican0902-35.
7Keith E. Stanovich, “Higher-Order Preferences and the Master Rationality Motive,” Thinking and Reasoning 14, no. 1 (2008): 111–117, doi:10.1080/13546780701384621.
8Richard P. Larrick, “Debiasing,” in Blackwell Handbook of Judgment and Decision Making, ed. Derek J. Koehler and Nigel Harvey, Blackwell Handbooks of Experimental Psychology (Malden, MA: Blackwell, 2004), 316–338.
9Geoffrey T. Fong, David H. Krantz, and Richard E. Nisbett, “The Effects of Statistical Training on Thinking About Everyday Problems,” Cognitive Psychology 18, no. 3 (1986): 253–292, doi:10.1016/0010-0285(86)90001-0.
10Daniel Kahneman, “A Perspective on Judgment and Choice: Mapping Bounded Rationality,” American Psychologist 58, no. 9 (2003): 697–720, doi:10.1037/0003-066X.58.9.697.