Calcolo delle probabilità nel discreto: probabilità di un evento, assiomi della probabilità, unione logica (somma logica), intersezione logica (prodotto logico), probabilità condizionata e teorema di Bayes

Ciao ragazzi e benvenuti al paragrafo dedicato al calcolo delle probabilità! In queste 5 lezioni parleremo di probabilità di un evento, assiomi della probabilità, unione logica (somma logica), intersezione logica, probabilità condizionata e teorema di Bayes!

Prima di riepilogare in questa descrizione i vari argomenti che tratteremo nella lezione, ti mostro sinteticamente cosa contiene questo PACCHETTO

1) cinque LEZIONI DI TEORIA sull’argomento trattato

2) un PDF TEORIA scritto da me seguendo fedelmente la lezione fatta (potrai utilizzare questo PDF per prendere i tuoi appunti ed integrare ulteriori tue riflessioni)

3) un PDF ESERCIZI svolti e commentati. Se sei un abbonato allora potrai seguire la LIVE esclusiva in cui risolverò e commenterò gli esercizi di questo PDF (leggi data ed ora della LIVE in bacheca nel corso oppure andando direttamente nella sezione streaming)

4) un TEST DI VERIFICA che svolgerai quando avrai completato lo studio di teoria di esercizi e ti servirà per fissare ulteriormente i concetti che hai studiato in modo da essere preparato per le interrogazioni, i compiti in classe, i test che dovrai affrontare.

Ora passiamo ad un riepilogo scritto di tutto quello che vedremo relativamente a questo argomento.

Calcolo delle probabilità nel discreto

Il calcolo delle probabilità ha le sue radici nel XII secolo e si deve al matematico Blaise Pascal ed il calcolo delle probabilità nacque dallo studio della frequenza con la quale un certo evento si presentava. Per affrontare questo paragrafo bisogna conoscere bene il calcolo combinatorio perchè entrerà in gioco nell’ambito del calcolo delle probabilità di un evento. Cosa è e cosa significa calcolare la probabilità di un evento? Il calcolo delle probabilità è la scienza che studia con quale possibilità possiamo fare delle previsioni future su un certo esperimento casuale, quindi ci preoccupiamo di capire quale tra tutti i possibili risultati dell’esperimento la probabilità con il quale si venga a verificare e quindi osserviamo uno di questi risultati. In questo paragrafo trattiamo il caso discreto, si intende con questo termine che l’insieme di tutti i possibili esiti è finito e sono tutti equiprobabili. Diamo alcune definizioni importanti per entrare nell’argomento.

Spazio campionario:

Lo spazio campionario è l’insieme di tutti i possibili esiti che possiamo avere riguardo l’esperimento aleatorio e lo indichiamo con la lettera \Omega. Gli spazi campionari possono essere discreti (finiti o infiniti) oppure continui.

Evento:

Un evento è l’esito di un particolare esperimento, quello che ci chiediamo che accada, ad esempio l’evento “esce T” lanciando una moneta. Osserviamo che di un evento aleatorio non sappiamo se si verrà a verificare, non ne abbiamo la certezza, sappiamo però qual è l’insieme di tutti i possibili esiti, ad esempio nel lancio di una moneta gli esiti possibili sono {T,C}. Si definisce evento aleatorio un sottoinsieme proprio dello spazio campionario quindi un evento che potrebbe verificarsi, tuttavia può succedere che coincida con tutto lo spazio campionario in tal caso parliamo di evento certo, oppure può anche succedere che coincida con l’insieme vuoto, in questo caso parliamo di evento impossibile. In probabilità per rappresentare un evento e le operazioni possibili tra eventi si utilizza la rappresentazione insiemistica dei diagrammi di Venn, vediamo quindi le operazioni possibili.

Operazioni tra eventi

1) Probabilità complementare: Sia A un evento e A^c l’evento complementare ovvero “non A” allora P(A^c)=1-P(A)

2) Unione logica o somma logica: Siano A e B due eventi disgiunti (cioè con intersezione nulla), allora P(A \cup B)= P(A)+P(B). Se in due eventi invece sono compatibili ovvero hanno elementi in comune allora P(A \cup B)= P(A)+P(B)-P(A \cap B)

3)Intersezione logica o prodotto logico: siano A e B due eventi indipendenti allora P(A \cap B)= P(A)\cdot P(B). Nel caso in cui i due eventi siano dipendenti dobbiamo ricorrere alla formula della probabilità condizionata ovvero P(A \cap B)= P(A|B)\cdot P(B).

Probabilità di un evento

Dato un certo evento A, la probabilità che si verifichi A si indica con P(A) è data dal rapporto tra il numero di casi favorevoli su il numero di tutti i casi possibili, P(A)=\frac{n.casi favorevoli}{n.possibili}. Ad esempio nel lancio di un dato la probabilità dell’evento “esce un dispari minore di 5”, i casi favorevoli sono due infatti sono i risultati {1,3}, il numero dei casi possibili invece è sei ovvero il numero di tutte le facce del dado che potrebbero verificarsi con ugual probabilità, dunque P(“esce un dispari minore di 5”)=2/6=1/3.

Assiomi della probabilità

1)Sia A un evento e A^c l’evento complementare ovvero “non A” allora P(A^c)=1-P(A)

2) P(\Omega)=1 dove \Omega è lo spazio campionario o insieme Universo.

3)P(Evento impossibile)=0

4) Siano A_1, A_2,..,A_n eventi a due a due incompatibili (disgiunti) allora P(\bigcup_{i=1}^n A_i)=\sum_{i=1}^n P(A_i)

Unione logica di eventi (teorema della probabilità totale)

Per calcolare la probabilità di due eventi A e B è importantissimo distinguere logicamente tra unione ed intersezione di eventi. Infatti per capire quale formula utilizzare bisogna saper fare questa distinzione interpretando correttamente il testo del problema. Il teorema della probabilità totale di dice che calcolare la probabilità dell’unione di due eventi, significa calcolare la probabilità che si verifichi almeno uno dei due eventi quindi che si verifichi o l’evento A oppure l’evento B, quindi l’unione logica è legata alla congiunzione italiana “o, oppure”.  Per procedere al calcolo però dobbiamo distinguere due casi, ovvero distinguere se A e B sono eventi disgiunti (o incompatibili ) oppure compatibili.

Eventi disgiunti (o incompatibili)

A e B si dicono eventi disgiunti o incompatibili se questi non hanno intersezione, ovvero non c’è nessuna intersezione tra i possibili esiti dell’evento A e i possibili esiti dell’evento B, A \cap B = \emptyset .  Dagli assiomi della probabilità sappiamo che la probabilità dell’unione di eventi disgiunti è data dalla somma delle probabilità degli eventi, quindi P(A \cup B)=P(A)+P(B)

Eventi compatibili

A.e B si dicono eventi compatibili se hanno intersezione, ovvero se esiste almeno un elemento comune tra i possibili esiti dell’evento A e i possibili esiti dell’evento B. In questo caso la probabilità dell’unione dei due eventi è data: P(A \cup B)= P(A)+P(B)-P(A \cap B).

Intersezione logica di eventi

Un concetto fondamentale per calcolare la probabilità di un evento è quello intersezione logica di eventi o prodotto logico di eventi, che permette di stabilire con quale probabilità due eventi A e B si vengano a verificare contemporaneamente, quindi che si vengano a verificare entrambe le condizioni per un certo esperimento che stiamo conducendo. Quindi l’intersezione logica è legata alla congiunzione italiana “e” perchè deve valere A e B. Per procedere al calcolo della probabilità dell’intersezione cioè P(A \cap B), dobbiamo distinguere tra eventi indipendenti o dipendenti, questa sarà la chiave per la risoluzione dei problemi.

Eventi indipendenti

Il concetto di indipendenza di eventi è alla base del calcolo delle probabilità, saperli individuare è fondamentale per entrare nella logica del calcolo delle probabilità ed individuare subito la strada risolutiva. A e B sono detti eventi  indipendenti se il verificarsi di uno dei due non incide sull’esito dell’altro evento. Un esempio tipico per capire l’indipendenza tra eventi è il lancio ripetuto di una moneta o di un dado, oppure le estrazioni con rimpiazzo. Infatti se lanciamo un dado una volta, al secondo lancio lo spazio degli esiti possibili saranno tutte e sei le facce indipendentemente dal risultato ottenuto al primo lancio! Quindi l’informazione parziale che possiamo avere non influenza in alcun modo la probabilità dell’evento successivo. Nel caso di eventi indipendenti quindi la probabilità della loro intersezione, ovvero che si verifichino entrambi, è data dal prodotto delle singole probabilità: P(A \cap B)=P(A)\cdot P(B).

Eventi dipendenti

A e B sono detti eventi dipendenti se il verificarsi di uno incide sul risultato dell’altro evento, quindi nel caso di eventi dipendenti l’informazione parziale che abbiamo quindi un evento che già si è verificato modifica la probabilità che si verifichi l’evento successivo. Giochi tipici legati ad eventi dipendenti sono le estrazioni senza rimpiazzo, il gioco televisivo dei pacchi è un esempio di questo oppure un’ estrazione dei sei numeri al superenalotto. Nel caso di eventi dipendenti per poter calcolare la probabilità che si verifichino entrambi gli eventi dobbiamo ricorrere all’uso della probabilità condizionata: P(A \cap B)=P(A|B)\cdot P(B) ovvero la probabilità che si verifichi l’evento A e B è uguale alla probabilità che si verifichi l’evento A sapendo che si è già verificato B per la probabilità che si verifichi B. Vediamo nel dettaglio cosa è la probabilità condizionata.

Probabilità condizionata

La probabilità condizionata ci permette di determinare la probabilità che si osservare l’evento A sapendo che si è già verificato un altro evento B, lo indichiamo con P(A|B). La probabilità condizionata si usa nel caso di eventi dipendenti, quindi nel caso in cui l’informazione parziale che abbiamo influenza il risultato dell’esperimento ovvero la probabilità che si verifichi l’evento A. La formula della probabilità condizionata è quindi la seguente: P(A|B)=\frac{P(A \cap B)}{P(B)}, con P(B \neq 0). Esempi tipici legati al calcolo delle probabilità con l’uso della probabilità condizionata sono giochi di carte come ad esempio il poker.

Teorema di Bayes

Il teorema di Bayes è uno dei teoremi fondamentali per il calcolo delle probabilità, prende il nome dal matematico Thomas Bayes che lo formulò e permette di calcolare la probabilità di un evento se si conoscono le cause che lo hanno generato. Il teorema di Bayes quindi entra in gioco ogni volta che c’è una corrispondenza causa-effetto. Il teorema di Bayes nacque proprio dall’esigenza di capire come trarre informazioni dall’esperienza ovvero da una serie di raccolta di dati e come poterli utilizzare. Il teorema di Bayes è utile in tante applicazioni nella realtà quotidiana ad esempio si utilizza per calcolare il rischio di un’assicurazione, le previsioni meteo o dei terremoti oppure l’efficacia di un farmaco. Analizziamo nel dettaglio il teorema di Bayes, i prerequisiti fondamentali sono aver capito la distinzione tra unione ed intersezione logica, tra eventi disgiunti, compatibili, indipendenti e dipendenti e la regola della probabilità condizionata. Il teorema di Bayes ci permette di calcolare una probabilità a posteriori, ovvero calcolare la probabilità che si verifichi un certo evento nota un’informazione parziale, ovvero un evento accaduto precedentemente. Quindi possiamo utilizzare il concetto di probabilità condizionata. Un’ipotesi importantissima che dobbiamo per poter utilizzare il teorema di Bayes nel caso discreto, è che l’evento A si possa scrivere come una partizione di n eventi disgiunti A_i, dove ogni A_i è misurabile e l’unione dei quali coincide con A quindi A=A_1 \cup A_2 \cup ... \cup A_n e di conseguenza possiamo scrivere la probabilità che si verifichi l’evento A come (1) P(A)=P({A\cap A_1}\cup {A\cap A_2} \cup ...\cup {A\cap A_n})=P(A \cap A_1)+P(A \cap A_2)+...+P(A \cap A_n) Il teorema di Bayes afferma che dato un evento che si è verificato A  (informazione parziale), la probabilità che A_i sia una causa dell’evento A, con P(A) \neq 0 è data da: P(A_i | A)= \frac{P(A_i)\cdot P(A | A_i)}{P(A)} dove per la (1) usando la definizione di probabilità condizionata  possiamo scrivere P(A)=\sum_{i=1}^n P(A | A_i)\cdot P(A_i) Osserviamo che al numeratore abbiamo la probabilità che si verifichi l’evento A sapendo che si è verificata una certa causa A_i per la probabilità che si sia verificata A_i. Al denominatore invece abbiamo la probabilità totale di A, quindi la probabilità che si verifichi A è data dal totale delle cause che hanno concorso al verificarsi di A. Quindi il teorema di Bayes permette di pesare la probabilità di ogni causa A_i per l’evento A. Quindi in quali casi è utile il teorema di Bayes? Come facciamo a capire quando applicare il teorema? Nei problemi ogni volta che ci viene data un’informazione parziale e ci viene chiesto di calcolare la probabilità di un evento sapendo qualcosa che è successo prima e questo evento può esser stato causato da diversi fattori, siamo nel caso del teorema di Bayes. Un altro trucchetto utile per capire se dobbiamo utilizzare il teorema di Bayes è di osservare la probabilità che ci viene chiesta di calcolare quindi P(A_i | A) ma noi sappiamo rispondere alla domanda P(A | A_i).

Buon lavoro,

prof. Barbara

Questa sezione al momento non è attiva

aggiungi alla lista dei desideri