Avete mai partecipato a delle elezioni? Io no, faccio parte dell’NWO quindi non c’è bisogno che mi sbatta a capire i programmi dei partiti. Inoltre se poco poco uno conosce la teoria dei giochi, in particolare Arrow, sa bene quanto imperfetta sia la rappresentanza politica, anche in un sistema perfetto.
Eppure le elezioni esistono e la gente vota. Vota il candidato che rappresenta le loro idee… a volte. Eh si, perché succede, in rari casi, che i candidati cambino idea, tipo: “usciamo dall’euro, rimaniamo nell’euro”, “no ai vaccini, si ai vaccini”, “non facciamo accordi con nessuno, magari facciamo accordi con qualcuno”, “non eleggiamo gente disonesta, in realtà anche si”, e così via.
Nota tutti gli esempi sopra sono inventati.
Ma questo comportamento ha senso?
Ovviamente nessuno di noi sa la risposta, ma la Teoria dei Giochi si, quindi in questa novella puntata de gli economisti sono troppo pigri leggere i programmi elettorali e si danno un tono con i pipponi tutto quello che non volevo sapere sui giuochi, parleremo di politica, diritti delle minoranze e Battlestar Galactica, tutte cose che, a prima vista, sembrerebbero avere in comune solo il gran numero di ragazze discinte, e chiederemo alla Teoria dei Giochi se ha senso cambiare idea, sperando che per una volta non ci tratti male.
Spoiler: lo farà.
Flip Flop
Quando lessi di questa modellizzazione l’autore usava come esempio Battlestar Galactica, io non ero ancora arrivato alla puntata citata quindi sono stato malamente spoilerato.
È così, essere economisti è una vita dura, non iniziate. Se non avete ancora visto BSG evitate di leggere questo articolo, BSG è molto meglio.
C’è una puntata di BSG (season 2 ep. 17, The Captain’s Hand) in cui la presidente Roslin (che già stava antipatica a tutti) si trova davanti a un problema, una ragazzina è incinta e ha provato ad abortire.
Roslin è sempre stata pro-choice, ma le fanno notare che se si continua così i Cylon saranno l’ultimo dei loro problemi in quanto l’umanità di estinguerà di suo.
Così Roslin cambia idea e da paladina dei diritti civili diventa una peggio repubblicana del Missouri imponendo il ban sull’aborto.
Abbiamo quindi un politico che, messo dinanzi ai fatti, cambia radicalmente idea “tradendo” i suoi elettori (anche se non è mai stata eletta!11!). Una persona di buon senso probabilmente sarebbe d’accordo con questo comportamento, i fatti sono fatti e solo gli stupidi non cambiano mai idea.
Ma un elettore? Beh qui le cose cambiano.
Infatti gli elettori sono molto più propensi a votare qualcuno che rimane fedele ai propri principi anche se errati piuttosto che a qualcuno che cambia idea, anche se in maniera motivata.
E, giusto per essere chiari, questo è un comportamento tutt’altro che stupido.
The CWOL Model
Come tutti sappiamo la Teoria dei Giochi modella i comportamenti umani e gli esseri umani sono molto interessati a cosa qualcuno pensa oltre che a cosa qualcuno fa.
Quindi modellizziamo la situazione.
Per giocare abbiamo bisogno delle seguenti cose:
- una busta misteriosa contenente un incentivo misterioso
- due bigliettini con scritto “cooperare” e “tradire”
- due giocatori
- quattro
- un sacchetto pieno di un numero sconosciuto di reiterazioni
Nota: non provate questo gioco a casa vostra o in un paese democratico.
Il gioco si svolge nelle seguenti fasi: Il giocatore 1 (Alice) è il politico, il giocatore 2 (Bob) è l’insieme degli elettori che da il potere ad Alice (o, nel caso il sistema sia una monarchia assoluta, Bob è Dio).
Alice ha due scelte: cooperare e quindi ottenere un vantaggio per se e un vantaggio per Bob, oppure tradire e quindi ottenere un vantaggio per se e danneggiare Bob.
Bob ha una sola scelta: reiterare il gioco o interromperlo.
Ecco lo schema.
Fase 1
Nella busta viene messo l’incentivo misterioso che può essere alto o basso.
Fase 2
Alice riceve la busta misteriosa, essa contiene l’incentivo a tradire, l’incentivo può essere alto o basso, non è dato di saperlo a priori.
Alice può sbirciare l’ammontare dell’incentivo se vuole, oppure allontanare sdegnosamente la busta da se.
Fase 3
Alice dichiara se coopera o se tradisce, e vengono distribuiti i payoff.
Fase 4
Bob dichiara se il gioco sarà reiterato oppure no. Se decide di continuare c’è una certa possibilità che il gioco, effettivamente, continui.
Va da sé che se il gioco avesse una sola reiterazione (o un numero conosciuto di reiterazioni) Alice tradirebbe alla prima reiterazione (perché è una persona orribile), ma il numero di reiterazioni è in parte sconosciuto e in parte stabilito da Bob, quindi Alice ha un incentivo a collaborare, così da far si che Bob continui a giocare con lei e lei ne abbia un guadagno.
Bob dal canto suo vorrebbe interrompere il gioco (per evitare il danno del tradimento, e perché Alice è matta come un cavallo) ma è ingolosito dal guadagno, quindi se Alice collabora perché non mandare avanti la baracca?
Certo, Alice per ora collabora ma cosa garantisce a Bob che un domani non tradisca, magari davanti a un incentivo alto, distruggendo tutti i guadagni di Bob e anzi, dandogli un risultato negativo?
Beh, Bob non può saperlo ovviamente, ma può avere un indizio guardando il “segnale” di Alice.
Ossia se Alice guarda o meno l’incentivo a tradire.
Il Prezzo del Tradimento
In che modo quindi Bob deciderà di continuare a dare il suo voto ad Alice, ossia di collaborare? Beh se è sicuro che Alice sarà dalla sua parte no matter what e che non lo tradisca appena le cose si fanno sugose.
CWOL significa infatti Cooperate Without Looking, se Alice non guarda l’incentivo e coopera Bob è abbastanza tranquillo che Alice non è una che cambia idea come una banderuola.
Viceversa se Alice guarda l’incentivo e poi coopera Bob penserà che l’ha fatto perché l’incentivo a tradire e basso, ma un domani chissà…
Abbiamo tutti gli ingredienti! Modellizziamo!
a payoff di Alice se coopera
cl payoff di Alice se tradisce a incentivo basso
ch payoff di Alice se tradisce a incentivo alto
ch > cl > a > 0
b payoff di Bob se Alice coopera
d payoff di Bob se Alice tradisce
b > 0 > d
p probabilità che il payoff di Alice sia cl
1-p probabilità che il payoff di Alice sia ch
w probabilità che il gioco continui
Inoltre d deve essere un danno sostanziale quindi p*b + (1-p)*d < 0 .
Ossia Bob non è incentivato a giocare se Alice collabora solo quando l’incentivo a tradire è basso.
Questo può sembrare una forzatura ma se Bob ci guadagnasse sempre (anche se in misura differente) non avrebbe motivo a non collaborare, anche se Alice scegliesse di tradire.
Quindi Alice può
- collaborare senza guardare
- collaborare ma guardare
- collaborare solo a payoff basso
- quattro
- tradire sempre
Bob dal canto suo può
- interrompere il gioco se Alice guarda
- interrompere il gioco se Alice tradisce
- interrompere il gioco sempre
- quattro
I payoff delle varie combinazioni sono espressi in questa simpatica tabella ma sono comunque abbastanza scontati.
Nota: la tabella non comprende il caso 4) / 4) che non solo è un equilibrio di Nash, ma anche un ottimo paretiano assoluto.
Concentriamoci sui più interessanti, ossia quelli che sono equilibri di Nash.
Il primo risultato interessante è Alice CWOL e Bob che blocca il gioco se Alice sbircia.
In questo caso i payoff saranno: a/(1-w) e b/(1-w).
Attenzione gli equilibri di Nash sono i punti dove le due parti non hanno interesse a cambiare comportamento perché ci rimetterebbero, e si trovano incrociando le strategie possibili, ossia se i giocatori sapessero sempre che strategia sceglie l’altro.
Questa strategia è un equilibrio di Nash se a/(1-w) >= cl*p + ch*(1-p) ossia se il payoff di continuare per Alice è superiore al payoff totale del tradimento pesato per le diverse probabilità.
Se Alice si aspetta questa situazione per lei è comodo cooperare, gli conviene e gli conviene anche che Bob cooperi se no va tutto a ramengo quindi non sbircia la busta.
A Bob, se Alice sceglie CWOL gli conviene scegliere “Interrompi se Alice sbircia”.
Perché?
Intanto perché la strategia Always End gli da un payoff inferiore, secondo poi, anche se i payoff di “blocco se Alice guarda” e “blocco se Alice tradisce” sono identici sulla singola iterazione, in generale, Bob preferisce la strategia “blocco il gioco se Alice guarda” (e magari comunque coopera per quel giro) rispetto a “blocco il gioco dopo che Alice ha tradito” (in economia quest’ultima strategia prende il nome di “chiudere la stalla dopo che i buoi sono scappati”).
Di conseguenza i due non sono incentivati a cambiare le cose e il gioco va avanti con i due che cooperano finché non si interrompe di suo (ricordiamo che l’iterazione avviene con probabilità w).
Prendiamo ora il caso Alice CWL e Bob “Interrompi se Alice tradisce”.
I payoff saranno: a/(1-w) e b/(1-w).
Questa situazione è un equilibrio di Nash se a/(1-w) >= ch ossia se per Alice continuare a collaborare è più conveniente del più alto incentivo a tradire.
Il che è abbastanza logico, ma perché Bob dovrebbe scegliere “Interrompi se Alice tradisce”?
Beh è abbastanza semplice in realtà, basta vedere i payoff di Bob, Alice sbircia ma coopera, se Bob scegliesse “interrompi se Alice sbircia” il gioco finirebbe subito con payoff minimi.
Se Bob è sicuro che Alice giocasse sempre “guardo ma coopero” allora a lui sta bene continuare la cooperazione, anche se con un certo fastidio.
C’è un ultimo equilibrio di Nash, ossia l’accoppiata “Tradisci sempre” “Termina sempre”.
+Va da se che se Bob vuole terminare no matter what ad Alice conviene tradire, questo perché il gioco si trasforma da un gioco a iterazioni ripetute (benché a numerosità sconosciuta) a un gioco a singola iterazione.
E tutti sappiamo che sulle singole iterazioni conviene tradire.
Ideali come Segnale
Bene, tutto molto bello, ma che c’entra con la politica e con il presidente Roslin?
Il presidente Roslin è ovviamente Alice (infatti sono entrambe dei diti in culo), l’incentivo a tradire è la spiegazione che la sua posizione non è quella migliore e che, se cambia idea, ci saranno dei vantaggi per tutta l’umanità (rimasta).
Bob sono le persone che la sostenevano per le sue posizioni e che vengono tradite.
Nell’episodio di BSG Roslin sceglie di cooperare finché il payoff del tradimento è basso, che è l’unica strategia che non ammette equilibrio di Nash, ossia la cooperazione non può continuare in nessun caso e che, nonostante sembri la più sensata, è anche la più infame.
Bob, ossia gli elettori, cercheranno di limitare le perdite quindi facendo terminare subito l’iterazione, aka non votando più Roslin (*giubilo degli spettatori*).
Nel mondo vero la meccanica è circa simile, se i politici cambiano idea per svariati motivi (dai più nobili ai più bassi) gli elettori sono portati a non fidarsi più di loro, interrompendo l’iterazione ossia punendoli alle elezioni successive.
Anche senza andare nella politica, che poi si litiga, questa meccanica si può ritrovare anche nella vita di tutti i giorni, ad esempio siamo più portati a collaborare con il collega che alla domanda “chi si smazza sto lavoro” risponde “io” piuttosto che con quello che risponde “fammi prima vedere quanto c’è da fare”.
Così come siamo più propensi a organizzare una serata con l’amico che dice “prendo io la macchina” piuttosto che con quello che dice “aspetta, quanti km sono?”.
Gli esseri umani cooperano fintanto che c’è del vantaggio reciproco, quando questa condizione viene a mancare la cooperazione si interrompe.
In situazione in cui una delle due parti ha maggior controllo sulla determinazione dei payoff deve esserci un meccanismo che spinga l’altra parte a collaborare, e questo meccanismo è il segnale che la prima parte lancia.
Se il nostro politicante dimostra di difendere sempre la sua posizione (e quindi la nostra), nonostante le situazioni al contorno si modifichino, gli elettori saranno più propensi a continuare a votarlo, in quanto è qualcuno che non guarda nemmeno la busta dell’incentivo e, di conseguenza, è più probabile che non tradisca.
Conclusioni
Ovviamente il mondo è più complicato di così (ma non di tanto), statisticamente non tutte le scelte prese dai politici impattano allo stesso modo.
Ad esempio gli elettori sono più propensi a tollerare e anche ad appoggiare dei cambiamenti di posizione su alcuni temi più pratici (ad esempio l’impegno in una guerra) rispetto ad altri più ideologici (ad esempio l’aborto, il matrimonio gay o, in generale, i diritti delle minoranze).
Ma il modello CWOL ci dice una cosa importante, noi cooperiamo meglio con le persone di cui ci fidiamo, il che è un po’ come dire che dal rubinetto rosso esce l’acqua calda, ma anche che ci fidiamo delle persone che non cambiano mai idea rispetto a quelle che la cambiano.
E questo è contro-intuitivo, in generale si da un valore positivo alle persone in grado di cambiare le proprie idee davanti ai fatti o al mutare delle condizioni.
Ma ogni volta che qualcuno cambia idea, ci sta danneggiando, anche se sta facendo il bene di molti, non sta facendo più il nostro.
E quindi saremo meno propensi a collaborare con lui in futuro.
Ma non solo, se qualcun altro dovesse collaborare con lui valuterà negativamente il fatto che abbia cambiato idea in passato.
Dopotutto se ha scelto una strategia, è probabile che continuerà a usarla.
Sono quasi certo che ognuno di noi sarebbe abbastanza arrabbiato se le persone che ha votato cambiassero di colpo idea, anche se motivassero la loro scelta, così come nessuno di noi voterebbe volentieri qualcuno che ha cambiato idea all’ultimo, anche se adesso la pensasse come noi.
La saggezza popolare dice che solo gli stupidi non cambiano mai idea, ma la Teoria dei Giochi ci dice che si può collaborare solo con chi mantiene fede alle proprie idee.
Lascio a ciascuno trarre le proprie conclusioni, io sono contento di andare a votare ogni volta che posso, anche se il sistema è imperfetto.
Democracy is the worst form of government, except for all the others.
W. Churchill
E se invece qualcuno dovesse chiedersi perché ci sono politici che ricevono voti nonostante cambino sempre idea si esce dal campo della matematica e si entra in campi decisamente più strani.
The best argument against Democracy is a five-minute conversation with the average voter.
W. Churchill
- Teoria dei Giochi (wikipedia.org)
- Cooperate without looking: Why we care what people think and not just what they do (pnas.org)