Se la responsabilità morale richiede il libero arbitrio dipende dalla definizione con cui si lavora. Un modo di definire il libero arbitrio, usato dai compatibilisti, è come la capacità di deliberare, selezionare una scelta, poi fissare il proprio desiderio secondo il risultato della propria deliberazione. Questa è un’idea significativa; non si ha libero arbitrio in questo senso quando non si percepisce alcuna incertezza sulle proprie decisioni (questo è da Aristotele nell’Etica Nicomachea):

L’oggetto della deliberazione e l’oggetto della scelta sono gli stessi, tranne che quando una cosa viene scelta è già stata determinata, poiché è la cosa già selezionata come risultato della nostra deliberazione che viene scelta. Perché un uomo smette di domandare come deve agire non appena ha riportato l’origine dell’azione a se stesso, e alla parte dominante di se stesso, perché è questa parte che sceglie. Ciò può essere illustrato dalle antiche costituzioni rappresentate in Omero: i re erano soliti proclamare al popolo le misure che avevano scelto di adottare.

Come allora l’oggetto della scelta è qualcosa in nostro potere che dopo aver deliberato desideriamo, la scelta sarà un desiderio deliberato di cose in nostro potere; perché prima deliberiamo, poi selezioniamo, e infine fissiamo il nostro desiderio secondo il risultato della nostra deliberazione.

Un secondo modo di definire il libero arbitrio è nell’essere la fonte ultima della propria volontà. Questa è la definizione usata dagli incompatibilisti. I libertari pensano che abbiamo il libero arbitrio in questo senso e quindi il determinismo è falso, ma sono confusi perché è impossibile avere questo tipo di libero arbitrio indipendentemente dal fatto che le leggi della fisica siano deterministiche. Questo è comprensibile perché il tempo e la causalità sono idee confuse con cui lavorare.

Queste due definizioni sono approssimativamente equivalenti alle due menzionate nell’articolo sul libero arbitrio nella Stanford Encyclopedia of Philosophy:

Una soluzione suggerita a questo enigma inizia riconsiderando la relazione di due filoni nel (molto) pensiero sulla libertà di volontà: essere capaci di fare diversamente ed essere la fonte ultima della propria volontà. Le discussioni contemporanee sul libero arbitrio enfatizzano spesso l’importanza del poter fare altrimenti. Eppure è plausibile (Kane 1996) che la caratteristica metafisica centrale della libertà sia l’essere la fonte ultima, o l’originatore, delle proprie scelte, e che essere in grado di fare altrimenti sia strettamente connesso a questa caratteristica.

La prima definizione è quella che richiede la responsabilità morale. È anche la definizione utile ai fini legali. Nel suo recente libro, Judea Pearl fa notare che è anche la definizione che è più vicina alle ragioni che l’evoluzione potrebbe aver avuto per darci una sensazione di libero arbitrio e che potrebbe essere utile per creare una forte IA:

Qualsiasi discussione sull’intento porta ad un’altra grande questione per una forte IA: il libero arbitrio. Se chiediamo ad una macchina di avere l’intenzione di fare X = x, di prenderne coscienza e di scegliere invece di fare X = x′, sembra che le stiamo chiedendo di avere il libero arbitrio. Ma come può un robot avere il libero arbitrio se si limita a seguire le istruzioni memorizzate nel suo programma?

Il filosofo di Berkeley John Searle ha definito il problema del libero arbitrio “uno scandalo in filosofia”, in parte a causa degli zero progressi fatti sul problema fin dall’antichità e in parte perché non possiamo liquidarlo come un’illusione ottica. La nostra intera concezione di “sé” presuppone che abbiamo una cosa come le scelte. Per esempio, non sembra esserci modo di conciliare la mia vivida e inequivocabile sensazione di avere un’opzione (per esempio, di toccare o non toccare il mio naso) con la mia comprensione della realtà che presuppone il determinismo causale: tutte le nostre azioni sono innescate da segnali neurali elettrici emanati dal cervello.

Mentre molti problemi filosofici sono scomparsi nel tempo alla luce del progresso scientifico, il libero arbitrio rimane ostinatamente enigmatico, così fresco come appariva ad Aristotele e Maimonide. Inoltre, mentre il libero arbitrio umano è stato talvolta giustificato su basi spirituali o teologiche, queste spiegazioni non si applicano a una macchina programmata. Quindi ogni apparenza di libero arbitrio robotico deve essere un espediente, almeno questo è il dogma convenzionale.

Non tutti i filosofi sono convinti che ci sia davvero uno scontro tra libero arbitrio e determinismo. Un gruppo chiamato “compatibilisti”, tra cui mi annovero, lo considera solo uno scontro apparente tra due livelli di descrizione: il livello neurale a cui i processi appaiono deterministici (salvo l’indeterminismo quantistico) e il livello cognitivo a cui abbiamo una vivida sensazione di opzioni. Tali scontri apparenti non sono infrequenti nella scienza. Per esempio, le equazioni della fisica sono reversibili nel tempo a livello microscopico, eppure appaiono irreversibili a livello macroscopico di descrizione; il fumo non torna mai nel camino. Ma questo apre nuove questioni: Ammesso che il libero arbitrio sia (o possa essere) un’illusione, perché è così importante per noi umani avere questa illusione? Perché l’evoluzione ha lavorato per dotarci di questa concezione? Gimmick o non gimmick, dovremmo programmare la prossima generazione di computer per avere questa illusione? Per quale motivo? Quali benefici computazionali comporta?

Penso che la comprensione dei benefici dell’illusione del libero arbitrio sia la chiave del problema ostinatamente enigmatico di conciliarlo con il determinismo. Il problema si dissolverà davanti ai nostri occhi una volta che avremo dotato una macchina deterministica degli stessi benefici.

Insieme a questa questione funzionale, dobbiamo anche affrontare le questioni della simulazione. Se i segnali neurali provenienti dal cervello innescano tutte le nostre azioni, allora il nostro cervello deve essere abbastanza occupato a decorare alcune azioni con il titolo “volute” o “intenzionali” e altre con “non intenzionali”. Quale percorso neurale fa guadagnare a un dato segnale l’etichetta “voluto”?

In molti casi, le azioni volontarie sono riconosciute da una traccia che lasciano nella memoria a breve termine, e la traccia riflette uno scopo o una motivazione. Per esempio, “Perché l’hai fatto?” “Perché volevo impressionarti” o, come rispose innocentemente Eva, “Il serpente mi ha ingannato e io ho mangiato”. La razionalizzazione delle azioni può essere un processo ricostruttivo, post-azione. Per esempio, un giocatore di calcio può spiegare perché ha deciso di passare la palla a Joe invece che a Charlie, ma è raro che queste ragioni abbiano innescato consapevolmente l’azione. Nella foga del gioco, migliaia di segnali di input competono per l’attenzione del giocatore. La decisione cruciale è a quali segnali dare la priorità, e le ragioni difficilmente possono essere ricordate e articolate.

I ricercatoriAI stanno quindi cercando di rispondere a due domande, sulla funzione e sulla simulazione, con la prima che guida la seconda. Una volta che abbiamo capito quale funzione computazionale serve il libero arbitrio nelle nostre vite, allora possiamo occuparci di dotare le macchine di tali funzioni. Diventa un problema di ingegneria, anche se difficile.

Per me, alcuni aspetti della questione funzionale emergono chiaramente. L’illusione del libero arbitrio ci dà la possibilità di parlare delle nostre intenzioni e di sottoporle a un pensiero razionale, eventualmente utilizzando la logica controfattuale. Quando l’allenatore ci tira fuori da una partita di calcio e ci dice: “Avresti dovuto passare la palla a Charlie”, consideriamo tutti i complessi significati racchiusi in queste otto parole.

In primo luogo, lo scopo di una tale istruzione “avresti dovuto” è quello di trasmettere rapidamente una preziosa informazione dall’allenatore al giocatore: in futuro, di fronte a una situazione simile, scegliere l’azione B piuttosto che l’azione A. Ma le “situazioni simili” sono troppo numerose da elencare e sono difficilmente conosciute anche dall’allenatore stesso. Invece di elencare le caratteristiche di queste “situazioni simili”, l’allenatore indica l’azione del giocatore, che è rappresentativa della sua intenzione al momento della decisione. Proclamando l’azione inadeguata, l’allenatore sta chiedendo al giocatore di identificare i pacchetti software che hanno portato alla sua decisione e poi reimpostare le priorità tra questi pacchetti in modo che “passare a Charlie” diventi l’azione preferita. C’è una profonda saggezza in questa istruzione perché chi, se non il giocatore stesso, può conoscere l’identità di questi pacchetti? Sono percorsi neurali senza nome che non possono essere referenziati dall’allenatore o da qualsiasi osservatore esterno. Chiedere al giocatore di fare un’azione diversa da quella intrapresa equivale a incoraggiare un’analisi specifica dell’intento, come quella di cui abbiamo parlato sopra. Pensare in termini di intenti, quindi, ci offre un’abbreviazione per convertire complicate istruzioni causali in istruzioni semplici.

Suppongo, quindi, che una squadra di robot giocherebbe meglio a calcio se fosse programmata per comunicare come se avesse libero arbitrio. Non importa quanto i singoli robot siano tecnicamente abili nel calcio, le prestazioni della loro squadra miglioreranno quando potranno parlare tra di loro come se non fossero robot preprogrammati ma agenti autonomi che credono di avere delle opzioni.

Anche se resta da vedere se l’illusione del libero arbitrio migliora la comunicazione da robot a robot, c’è molta meno incertezza sulla comunicazione da robot a umano. Per comunicare naturalmente con gli umani, le IA forti avranno certamente bisogno di capire il vocabolario delle opzioni e degli intenti, e quindi dovranno emulare l’illusione del libero arbitrio. Come ho spiegato sopra, potrebbero anche trovare vantaggioso “credere” nel loro stesso libero arbitrio, al punto da essere in grado di osservare il loro intento e agire diversamente.

admin

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

lg