lunedì 8 febbraio 2010

COSA STIAMO DICENDO QUANDO PARLIAMO DI PROBABILITÀ?


Quando consultate il vostro sito internet preferito per le previsioni del tempo e leggete che domani c’è una probabilità del 50% che cada sulla vostra zona una certa quantità di pioggia, cosa significa tutto questo?
Quando il vostro consulente finanziario vi assicura che il rendimento del fondo azionario in cui avete investito il 90% dei vostri risparmi, quest’anno sarà molto probabilmente simile a quello dell’anno scorso, che grado di fiducia accordate a questa affermazione?
Se leggete su un quotidiano che, ad esempio, fra 20 anni, è prevista una collisione fra un asteroide e il nostro pianeta, cosa pensate? Se la probabilità di impatto fosse piccolissima, ma l’asteroide così grande da garantire – in caso di collisione – la distruzione di ogni forma di vita sul pianeta Terra, quali sarebbero i cambiamenti che andreste ad introdurre nella vostra vita attuale e futura?


Ci sarebbe bisogno di una definizione di probabilità che fosse univoca e matematicamente rigorosa: solo in questo modo potreste prendere delle buone decisioni nella vostra vita, in tutti i casi di pioggia, investimenti, asteroidi e simili.

Una prima definizione è quella secondo cui la probabilità è il rapporto fra il numero di casi favorevoli (all’evento in questione) e il numero di casi possibili, a condizione che i casi possibili siano tutti “ugualmente possibili”. Ciò implica l’esistenza di un criterio per accertare che nessuno dei casi esaminati sia favorito. Purtroppo talvolta tale criterio non esiste e non è possibile, in sostanza, verificare il cosiddetto principio di “equiprobabilità dei casi possibili”.

Come se non bastasse, l’applicazione della prima definizione di probabilità, detta probabilità a priori (perché si calcola prima che si verifichi l’evento) ed elaborata in maniera sistematica da Laplace nel 1812, richiede un’ulteriore condizione restrittiva: deve essere possibile identificare con precisione e contare sia i casi favorevoli che quelli possibili.

A causa di questo limite la prima definizione di probabilità non è applicabile a qualunque caso. Per quanto invece riguarda il vincolo di equiprobabilità dei casi possibili, è possibile “superarlo” (in modo approssimativo, non certo in modo matematico) tramite il “principio di ragione non sufficiente”. Ciò significa che, se non esistono ragioni sufficienti per ritenere che qualche caso sia favorito, allora tutti i casi vengono considerati equiprobabili.

Se è vero che la prima definizione di probabilità non è universalmente applicabile, è anche vero che ne esiste una seconda, le cui basi sono state elaborate soprattutto da Richard Von Mises. Si tratta della cosiddetta “probabilità a posteriori”, nel senso che è conoscibile solo dopo che l’evento si è verificato. A posteriori, infatti, è possibile sapere quante volte un certo evento si è verificato (cioè quale è stata la sua frequenza) rispetto al numero di prove effettuate. Il problema è che calcolare la frequenza non significa calcolare la probabilità. Tuttavia occorre riflettere sul numero di prove effettuate: se tale numero fosse gigantesco, ci sentiremmo sicuramente più tranquilli quando usiamo la frequenza come approssimazione della probabilità. E in effetti la cosiddetta “legge empirica del caso” dice proprio che la probabilità di un determinato evento è pari al rapporto fra la frequenza di quell’evento e il numero di prove effettuate, se esso tende a più infinito.

“Più infinito” è, in buona sostanza, un luogo irraggiungibile: un numero gigantesco è comunque una buona approssimazione di un numero infinito.

Oltretutto occorre rilevare che la probabilità calcolata in questo modo, all’aumentare del numero delle prove, diventa molto simile (con linguaggio matematico si dice che converge) alla probabilità calcolata a priori.

La terza ed ultima definizione di probabilità viene detta “soggettiva”, nel senso che varia da soggetto a soggetto. Ciò in quanto, secondo questo approccio – a cui diede contributi molto importanti Bruno De Finetti – la probabilità di un evento “E” è la misura del grado di fiducia che un individuo coerente attribuisce, secondo le sue opinioni ed informazioni, all’avverarsi di “E”. Tale grado di fiducia viene reso “oggettivo” (o meglio meno soggettivo) da De Finetti con la condizione che l’individuo che stima una certa probabilità deve anche essere disposto a scommettere sull’evento in questione.

Fin qui la probabilità resta un concetto accessibile a tutti. Poi però, negli anni Trenta del Novecento, le cose si complicano perché la probabilità diventa vera matematica, grazie all’opera di Kolmogorov. Ma questa è un’altra storia: ve ne parlerò quindi in una prossima puntata.

3 commenti:

Michele Filannino ha detto...

Non vedo l'ora di leggere il prossimo articolo. :)

Ho studiato Kolgomorov in materia di reti neurali; riuscì a dimostrare che qualsiasi funzione complessa (continua, limitata, monotona, crescente) può essere rappresentata come somma di funzioni elementari.

Grazie alla sua dimostrazione, Cybenco ed Hornik dimostrarono che esiste idealmente una rete neurale capace di funzionare come approssimatore universale di qualsiasi funzione.

Ovviamente non attiene alla sua attività di ricerca nel campo della teoria della probabilità, ma in quella di complessità computazionale.

E' stato uno scienziato molto produttivo e soprattutto impegnato su più fronti. E' molto affascinante come personaggio storico.

Con stima,
michele.

dioniso ha detto...

Complimenti. Bella introduzione. Chiara e concisa.
Il mio professore di Calcolo delle probabilità era stato un allievo di De Finetti. Era molto bravo. Mi portò ad amare questa affascinante materia.

Walter Caputo ha detto...

Grazie Michele,
Kolmogorov è un soggetto di sicuro interesse, spero di trovare il tempo di scrivere la seconda puntata...

Grazie Dioniso,
effettivamente la probabilità è un concetto davvero affascinante: basta leggere "La lettera di Pascal" di Keith Devlin...