IL PROBABILISMO RADICALE DI GARBOLINO

Una volta mi capitava più spesso di trovare libri inaspettati e interessanti spulciando su qualche bancarella o remainder. Oggi si va sempre più a colpo sicuro comprando i libri che ci servono tramite internet. Sta di fatto che in una libreria remainder a Piazza S. Silvestro a Roma ho trovato “I fatti e le opinioni” di Paolo Garbolino, Laterza, 1997, da cui ho imparato molte cose che non sapevo, anche se non condivido del tutto il punto di vista dell’autore.
Uno dei presupposti di Garbolino è convincente: la distinzione fra fatti e opinioni è solo di grado, cioè ciò che chiamiamo “fatti” non sono altro che opinioni facilmente accertabili mediante l’esperienza e che quindi hanno un alto grado di probabilità soggettiva. Meno accettabile, dal mio punto di vista, è l’approccio radicalmente soggettivista alla probabilità che l’autore propone, il quale in fin dei conti si risolve in una forma di pragmatismo: la probabilità è una misura delle nostra disposizione ad agire in un certo modo (p. 5), o anche “ciò che non possiamo conoscere possiamo prevedere” (p. 112). Sono d’accordo con Garbolino che tutte le nostre opinioni sono fallibili, ma questo non vuol dire che non ci sia una realtà rispetto alla quale, in linea di principio, le nostre opinioni sarebbero vere o false. Il fallibilismo non comporta la totale rinuncia alla verità come corrispondenza, come ci ha insegnato Popper, ma la rinuncia alla possibilità di accedere definitivamente alla verità. Inoltre, è bensì vero che a volte, come nella meccanica quantistica, i nostri enunciati probabilistici non vanno letti come soggettive probabilità che un enunciato sia vero, ma come probabilità oggettive, tuttavia in molti casi li possiamo considerare invece proprio come probabilità che siano veri.
Un altro punto su cui voglio insistere è il seguente: è chiaro che le nostre probabilità soggettive dipendono dalle informazioni che abbiamo: se Gigi ha esaminato 100 pazienti e Marina ne ha visti 10, è ovvio che la sua base di dati è diversa e quindi anche le sue probabilità soggettive saranno diverse. Ma i soggettivisti dicono di più (p. 6), cioè che la probabilità soggettiva può cambiare da individuo a individuo anche in modo del tutto arbitrario, basta che le sue scelte rispettino gli assiomi di Kolmogorov, oppure, che è lo stesso, come ha dimostrato De Finetti, che non siano in perdita sicura. Sicuramente questo capita nei casi in cui due scienziati seguono, sullo stesso dominio di oggetti, programmi di ricerca diversi, ma tra scienziati impegnati nello stesso programma di ricerca ci sono delle simmetrie nell’oggetto che guidano l’attribuzione delle probabilità soggettive, anche se non le determinano in maniera esatta. A proposito di questo “esatta” bisogna dire che Garbolino non affronta quello che a mio parere è il più grande dei problemi della probabilità come Guide of life nel senso di Butler, cioè che di fatto sarebbe ragionevole attribuire le probabilità soggettive alle ipotesi solo mediante un ordine qualitativo (come voleva Keynes) o intervallare e non con una metrica, ma questo ci impedirebbe di trovare una buona regola per l’aggiornamento delle probabilità rispetto a nuove evidenze.
Secondo l’autore l’approccio soggettivista o il probabilismo radicale sarebbe in grado di risolvere il problema dell’induzione posto da Hume. Incontriamo 100 cigni bianchi e non si capisce quale sarebbe la ragione a favore del fatto che il prossimo cigno sia anch’esso bianco. Uno potrebbe dire che finora tutte le volte, o quasi, che abbiamo agito così è andata bene n quindi per induzione anche questa volta andrà bene. E’ evidente il circolo vizioso. Carnap aveva tentato di aggirare il problema stabilendo delle regole logiche per determinare la probabilità di un ipotesi h date certe evidenze e, ma sappiamo che il suo progetto è fallito. Nell’approccio soggettivista si prende invece le mosse da una probabilità soggettiva basata sulle evidenze a disposizione e determinata senza violare le regole del calcolo delle probabilità e poi si procede aggiornando queste probabilità sulla base delle nuove evidenze e di una regola di simmetria introdotta da Richard Jeffrey: se la probabilità di una data proposizione d aumenta (o diminuisce), allora la probabilità di tutte le proposizioni a che implicano d devono aumentare (o diminuire) secondo una costante di proporzionalità pari al rapporto fra la nuova e la vecchia probabilità di d (p. 39):

P2(a)/P1(a)=P2(d)/P1(d)

Il teorema di Bayes, però, viene introdotto 50 pagine dopo a p. 96. Non si capisce bene il nesso fra la regola di simmetria e il teorema di Bayes che normalmente si adopera per aggiornare le probabilità.
Al di là di questo, la domanda che occorre fare è: che cosa giustifica la regola di simmetria. L’autore risponde che le regole non sono né vere né false, ma solo buone o cattive, cioè funzionano o non funzionano. Si vede quindi che di fatto la soluzione del problema di Hume è di tipo pragmatico.
Il testo è pieno di deliziose citazioni e di splendidi esempi storici. Fra l’altro Garbolino mostra con chiarezza come il fallibilismo è nato ben prima di Popper, nella riflessione teologica inglese. A p. 24 si parla del minimax, principio seguito dalla teologia medioevale e chiamato tuziorista, cioè che occorre minimizzare la perdita massima. Qui bisognerebbe aggiungere che tale principio è alla base della teoria della giustizia di Joh Rawls.
Bellissimo il passo nella prefazione al Trattato sulla luce di Huygens nel quale viene enunciato quello che noi chiamiamo metodo ipotetico-deduttivo e che si imporrà solo dopo Einstein. In effetti, come nota Garbolino, sulla base di Lakatos, dalla fine del Seicento all’inizio del Novecento si istituirà la cosiddetta pax newtoniana, per cui il fallibilismo e il metodo ipotetico-deduttivo, che erano moneta abbastanza corrente nella seconda metà del Seicento, per due secoli scompariranno dalla scena.
La regola di simmetria ha il vantaggio che la probabilità della nuova evidenza d può essere diversa da 1, come capita quasi sempre nella pratica della scienza, eliminando così il mito neopositivista degli enunciati protocollari.
Dalla regola di simmetria discende quella che Garbolino chiama la regola di Huygens, cioè che se da un’ipotesi h deriva e ed e viene verificato, allora la probabilità di h aumenta. Nonché la regola della falsificazione, secondo cui se h implica e ed e viene falsificata, allora anche h viene falsificata. Deriva anche la regola di Popper (la corroborazione): Se h implica e ed e viene confermata la probabilità di h aumenterà tanto più e era improbabile prima dell’osservazione. La regola della falsificazione è un caso particolare della regola di Huygens, così la regola di Popper è un caso particolare della regola della conferma: se la probabilità condizionata di e dato h è maggiore di e, ed e viene verificata, allora il grado di conferma di h sulla base di e è positivo. Dove il grado di conferma è dato dalla differenza della probabilità fra prima e dopo. Poi c’è la regola della smentita: se la probabilità di e dato h è maggiore della probabilità di e ed e viene falsificata, allora il grado di conferma di h sulla base di e è negativo. Le regole della conferma e della smentita sono più morbide del falsificazionismo di Popper e ci permettono di dire che l’astrologia è semplicemente meno probabile dell’astronomia, ma non si sa mai, come diceva Eduardo!
All’inizio del terzo capitolo c’è la classica trattazione del problema di Duhem, che è una delle migliori frecce all’arco dei soggettivisti. Si dimostra infatti che se T è una teoria e H un’ipotesi ausiliare e T+H viene falsificato, allora se all’inizio T era più probabile di H, dopo la falsificazione di T+H, è più probabile che T sia vero e H falso piuttosto che il contrario.
Nelle pagine 64-71 l’autore tratta una delle difficoltà maggiori del soggettivismo, cioè il cosiddetto problema della vecchia evidenza sollevato da Glymour. L’esempio classico è quello di Einstein che si rende conto che la relatività generale, che sta mettendo a punto, spiega la deviazione del perielio di mercurio, che invece la meccanica newtoniana non era in grado di spiegare. In effetti bisogna confrontare P(R), cioè la probabilità della relatività, con la probabilità della teoria newtoniana e di una qualche ipotesi S che spieghi l’effetto, cioè P(R&S); quest’ultima è minore o uguale a P(S), per cui per quanto P(R) sia bassa, perché è una teoria appena formulata, P(R&S) è ancora più bassa. Soprattutto se, come è successo effettivamente, S viene falsificata. In pratica R viene confermata mediante il processo di eliminazione. Questo è ciò che suggerisce Earman, cioè per risolvere il problema della vecchia evidenza bisogna aggiungere al soggettivismo un principio di induzione per eliminazione.
A p. 79 Garbolino sostiene che il probabilismo radicale rispetta il concetto di oggettività scientifica, contro le derive relativiste di Feyerabend e Kuhn. Non sono del tutto d’accordo, perché il suo approccio manca del principio secondo cui la verità esiste, anche se non possiamo mai essere sicuri di averla colta. Infatti l’autore non cita neanche il celebre teorema di Gaifman e Snir secondo cui, assunto che una certa ipotesi sia vera e sperimentalmente discriminabile, che a essa sia stato dato un valore a priori diverso da 0, con una serie infinita di osservazioni tutte le probabilità a priori scelte per quell’ipotesi aggiornate mediante il teorema di Bayes convergono a 1.
Ho fatto molta fatica a seguire il capitolo 4, dove si parla del teorema dei grandi numeri di Bernoulli e va bene. Di quello che Garbolino chiama “la regola di Bernoulli per la previsione”, che mi sembra sia identica a quello che oggi chiamiamo il Principal Principle di Lewis. Accenna al difficile problema della falsificazione delle ipotesi statistiche. Di quanto deve discostarsi la frequenza relativa osservata dal valore dell’ipotesi perché l’ipotesi sia falsificata? La scelta della distanza continua a sembrarmi arbitraria: 1% o 5%?
Interessante la ricostruzione della confutazione humeana della prova teleologica. Io la metterei così.
Tutte le volte che incontriamo una macchina molto complessa scopriamo che ha un autore. L’universo è una macchina molto complessa quindi ha un autore.
Il punto è che in realtà noi incontriamo un numero immenso di macchine, piante e animali, delle quali non siamo in grado di trovare l’autore. Allora potremmo radunarle in un’unica macchina naturale che si contrappone a tutte le macchine artificiali costruite dall’uomo. Il problema è allora che per spiegare queste macchine non c’è solo il caso e l’opera di un’intelligenza – umana o divina – ma anche le leggi della materia, come poi dimostrerà Darwin.
Poi l’autore introduce il teorema di Bayes seguendo l’argomento originale dell’ecclesiastico inglese. E conclude che alla base del soggettivismo, oltre alla regola di simmetria sta il criterio di scambiabilità: cioè due sequenze di risultati con la stessa frequenza relativa sono scambiabili dal punto di vista logico. Ma questa è una forma nascosta del famigerato principio di indifferenza o di ragion insufficiente!
Il libro è comunque bello e avvincente.

Advertisements

Lascia un commento

Archiviato in FILOSOFIA DELLA SCIENZA

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...