2.8.1 Soluzioni
Transcript
2.8.1 Soluzioni
79 2.8. ALTRI ESERCIZI 2.8.1 Soluzioni Soluzione 2.24. x1 x2 x3 y1 0.02 0.03 0.05 0.1 y2 0.06 0.09 0.15 0.3 y3 0.12 0.18 0.3 0.6 0.2 0.3 0.5 1 ♣ Soluzione 2.26. Indichiamo con Xa la variabile aleatoria ”guadagno in una partita seguendo la strategia a”; analogamente per le v.a. Xb e Xc . Lo spazio degli eventi è Ω = {CCC, CCT, CT C, CT T, T CC, T CT, T T C, T T T }; per l’ipotesi di regolarità della moneta, si assume che gli eventi siano tutti equiprobabili con p = 1/8. In corrispondenza di ciascun evento ω = (ω1 , ω2 , ω3 ) ∈ Ω, i valori di Xa , Xb , Xc sono riportati nella seguente tabella: (ω1 , ω2 , ω3 ) CCC CCT CTC CTT TCC TCT TTC TTT Xa (ω) −7 1 1 1 1 1 1 1 Xb (ω) −3 −1 −1 1 1 1 1 1 Xb (ω) −3 −1 −1 1 −1 1 1 3 Calcolando i valori attesi di Xa , Xb , Xc , si ottiene: E(Xa ) = E(Xb ) = E(Xc ) = 0 . Pertanto le tre strategie di gioco sono mediamente equivalenti. Per quanto riguarda la variabilità, tenendo conto del risultato precedente, si ha: 56 1 Var(Xa ) = E(Xa2 ) = [(−7)2 + 12 + 12 + 12 + 12 + 12 + 12 + 12 ] = =7 8 8 1 16 Var(Xb ) = E(Xb2 ) = [(−3)2 + (−1)2 + (−1)2 + 12 + 12 + 12 + 12 + 12 ] = =2 8 8 1 24 Var(Xc ) = E(Xc2 ) = [(−3)2 + (−1)2 + (−1)2 + 12 + (−1)2 + 12 + 12 + 32 ] = =3 8 8 e quindi la strategia a è quella che presenta la maggiore variabilità. ♣ 80 CAPITOLO 2. VARIABILI ALEATORIE DISCRETE Soluzione 2.27. Bisogna calcolare dapprima la probabilità p che una prova venga annullata; successivamente il numero atteso N di prove annullate sarà dato da N = 40p. La prova di uno studente viene annullata se, in almeno uno dei tre tentativi, lo studente viene scoperto dal docente, dove in ciascuna delle tre prove lo studente viene scoperto con probabilità 0.1 e non viene scoperto con probabilità 0.9. In questo caso per calcolare la probabilità p richiesta, è conveniente calcolare la probabilità 1−p dell’evento complementare che lo studente non venga scoperto, che è data da: 1 − p = 0.93 = 0.7290 ♣ da cui p = 0.2710 e N = 10.84. Soluzione 2.28. Innanzitutto è bene osservare che le due opzioni A e B hanno la stessa speranza matematica. Infatti, denotato con X la v.a. ”ricavo finale per ciascun euro investito”, in base ai dati del problema risulta E[X] = 1.1 e Var(X) = 0.5. Denotate poi con A e B i guadagni ottenuti rispettivamente in base alle due strategie A e B, si ha: A := 1000Xs + 1500Xt + 2500Xu B := 5000Xv dove Xs , Xt , Xu e Xv sono le quantità aleatorie ”ricavo per ciascun euro investito nel titolo azionario considerato (s, t, u, v)” aventi tutte la stessa speranza matematica e la stessa varianza. da cui E[A] = 1000E[Xs ] + 1500E[Xt ] + 2500E[Xu ] = 1000 · 1.1 + 1500 · 1.1 + 2500 · 1.1 = 5500 E[B] = 5000 · E[Xv ] = 5000 · 1.1 = 5500 . Sono invece diverse invece le varianze. Poichè la varianza della somma di v.a. indipendenti è uguale alla somma delle varianze delle rispettive v.a., tenento conto che Var(X) = 0.52 = 0.25: Var(A) = Var(1000Xs + 1500Xt + 2500Xu ) = 10002 Var(Xs ) + 15002 Var(Xt ) + 25002 Var(Xu ) = 106 · 0.25 + 2.25 · 106 · 0.25 + 6.25 · 106 · 0.25 = 9.5 · 106 · 0.25 = 2.375 · 106 Var(B) = Var(5000Xv ) = 50002 Var(Xv ) = 25 · 106 · 0.25 = 6.25 · 106 . Quindi, sebbene mediamente le due opzioni siano equivalenti, la seconda è maggiormente rischiosa: statisticamente può consentire perdite o ricavi maggiori della prima. ♣ Soluzione 2.29. Lo spazio degli eventi Ω è il seguente: Ω = {T T, CT, T C, CC} . ciascuno con probabilità 41 in quanto assumiamo l’indipendenza degli eventi elementari {C, T } associati a ciascun lancio, cioè ad esempio P (T T ) = P (T ) · P (T ) = 12 12 = 14 . 81 2.8. ALTRI ESERCIZI Considerata la v.a. X=”numero di teste ottenute in due lanci consecutivi di una moneta equilibrata”, ne segue che la funzione di densità assume valori strettamente positivi nell’insieme X = {0, 1, 2}: f (0) = P (X = 0) = P (CC) = 1 = 0.25 4 f (1) = P (X = 1) = P (CT ) + P (T C) = f (2) = P (X = 2) = P (T T ) = 1 = 0.5 2 1 = 0.25 . 4 Si ha pertanto: f (x) = 0.25 per x = 0 0, 50 per x = 1 0, 25 per x = 2 0 altrove. f (x) 6 1/2 1/4 1/4 - 0 1 2 x La funzione di ripartizione F (x) viene costruita a partire dalla funzione di densità in base alla sua definizione: F (t) = P (X ≤ t). 82 CAPITOLO 2. VARIABILI ALEATORIE DISCRETE Si ha pertanto: 0 0.25 F (x) = 0.75 1.00 per x < 0 per 0 ≤ x < 1 per 1 ≤ x < 2 per 2 ≤ x e tale funzione ha la seguente rappresentazione grafica: f (x) 6 r 1.00 r 0.75 0.25 r - 0 1 2 x Infine il calcolo della costante c tale che E(cX) = 5 si ottiene facilmente tenendo conto che E(cX) = cE(X) e che la speranza matematica di X è data da: E(X) = 0 · 0.25 + 1 · 0.5 + 2 · 0.25 = 1 . ♣ Pertanto c = 1. Soluzione 2.30. E’ sufficiente considerare lo spazio dei possibili risultati: Ω = {(CCC), (CCT ), (CT C), (CT T ), (T CC), (T CT ), (T T C), (T T T )} e quindi l’evento richiesto A in funzione dei singoli eventi elementari: A = {(CCC), (T CC), (T T C), (T T T )} . Da cui segue: P (A) = #A 4 1 = = . #Ω 8 2 83 2.8. ALTRI ESERCIZI In maniera analoga, nel secondo punto, si considera l’evento certo: Ω = {(CCCC), (CCCT ), (CCT C), (CCT T ), (CT CC), (CT CT ), (CT T C), (CT T T ), (T CCC), (T CCT ), (T CT C), (T CT T ), (T T CC), (T T CT ), (T T T C), (T T T T )} . e quindi l’evento A richiesto: A = {(CCCC), (T T T C), (T T T T )} Da cui segue: P (A) = #A 3 3 = = . #Ω 16 16 ♣ Soluzione 2.33. I valori richiesti si ottengono da un sistema di due equazioni in due incognite. La prima equazione si ottiene tenendo conto che la somma delle probabilità deve essere uguale a 1, da cui segue a + b = 0.3; la secondoa si ottiene direttamente dalla condizione imposta: E[Y ] = 2.3 + 2b + 3a = 3. ♣ Soluzione 2.34. Dalla condizione E(Y ) = 0.95 segue: E(Y ) = 1 · (0.25 + α) + 2 · 0.25 = 0.25 + α + 0.5 = 0.75 + α = 0.95 da cui α = 0.2. Successivamente, per la condizione di coerenza, si ha: 0.35 + (0.15 + β) + (0.10 + α) = 0.35 + (0.15 + β) + (0.1 + 0.2) = 0.8 + β = 1 da cui β = 1. la tabella si scrive quindi X 1 Y 2 3 0 0.10 0.20 0.00 0.30 1 0.10 0.15 0.20 0.45 2 0.15 0.00 0.10 0.25 0.35 0.35 0.30 1.00 Per il calcolo della covarianza richiesto si osservi preliminarmente che Cov(3X + 2, 5Y − 1) = 3 · 5 · Cov(X, Y ). Essendo Cov(X, Y ) = E(XY ) − E(X)E(Y ), calcoliamo quindi: E(XY ) = 1 · 1 · 0.1 + 1 · 2 · 0.15 + 1 · 3 · 0.2 + 2 · 1 · 0.15 + 2 · 3 · 0.1 = 0.1 + 0.3 + 0.6 + 0.3 = 1.3 E(X) = 1 · 0.35 + 2 · 0.35 + 3 · 0.30 = 1.95 E(Y ) = 0.95 da cui Cov(X, Y ) = 1.3−1.95·0.95 = −0.5525 e quindi Cov(3X+2, 5Y −1) = 15Cov(X, Y ) = 8.2875. ♣ 84 CAPITOLO 2. VARIABILI ALEATORIE DISCRETE Soluzione 2.36. Per definizione si ha: ρxy = Cov(X, Y ) σx σy da cui in base alle ipotesi ρxy = 0.5 e σx = σy = σ segue: 0.5 = Cov(X, Y ) σ2 ⇒ Cov(X, Y ) = σ2 . 2 Con lo stesso ragionamento si ottiene Cov(X, Z) = Cov(Y, Z) = σ 2 /2. In base alle proprietà del coefficiente di correlazione si ha pertanto: Cov(2X, −Y ) = 2 · (−1) · Cov(X, Y ) = −σ 2 . Per il punto successivo si ha: Var(X − Y ) = Var(X) + Var(Y ) + 2Cov(X, −Y ) = σ 2 + σ 2 − 2 σ2 = σ2. 2 Infine: 1 Var(X + Y − Z) σ2 1 = 2 [Var(X) + Var(Y ) + Var(Z)+ σ +2Cov(X, Y ) − 2Cov(X, Z) − 2Cov(Y, Z)] 1 σ2 σ2 σ2 2 2 2 =2 = 2 σ +σ +σ +2 −2 −2 σ 2 2 2 Var(X/σ + Y /σ − Z/σ) = ♣ Capitolo 3 Principali distribuzioni di probabilità discrete Vogliamo ora presentare alcune distribuzioni di probabilità notevoli che costituiscono lo schema teorico di fenomeni naturali di vario tipo. In questo capitolo consideriamo alcune distribuzioni di probabilità di tipo discreto; in seguito affronteremo le distribuzioni di probabilità di tipo continuo. 3.1 La distribuzione uniforme La distribuzione uniforme è la distribuzione di eventi equiprobabili. Diremo che una variabile aleatoria X segue una distribuzione uniforme su {1, 2, . . . , n} se ha funzione di probabilità: 1 per 1, 2 . . . , n n p(x) := 0 altrimenti. In tal caso diremo che X segue una distribuzione uniforme e scriveremo X ∼ U (n). Speranza matematica e Varianza. Tenendo conto che: n(n + 1) 2 n(n + 1)(2n + 1) 12 + 22 + · · · + n2 = 6 1 + 2 + ··· + n = possiamo calcolare speranza matematica e varianza: E(X) = 1 1 n(n + 1) n+1 (1 + 2 + · · · + n) = = n n 2 2 85 86 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE - 1 2 3 4 5 6 7 8 9 x 10 Figura 3.1: Funzione di probabilità di distribuzione uniforme discreta su {1, 2, . . . , 10}. e quindi la varianza di X: 2 n+1 1 2 2 2 Var(X) = E(X ) − µ = (1 + 2 + · · · + n ) − n 2 2 1 n(n + 1)(2n + 1) n+1 n+1 = − = [2(2n + 1) − 3(n + 1)] n 6 2 12 n2 − 1 = . 12 2 3.2 2 La distribuzione binomiale La distribuzione binomiale è la distribuzione di probabilità del numero di successi in una successione di n prove ripetute ed indipendenti in ciascuna delle quali vi è probabilità costante di successo. Data una successione di n eventi A1 , A2 , . . . , An indipendenti ed equiprobabili, con P (A1 ) = · · · = P (An ) = p, la variabile aleatoria: X := |A1 | + |A2 | + · · · + |An | (3.1) fornisce il numero di successi ottenuto nelle n prove. Ovviamente il numero di successi che può essere ottenuto nelle n prove è un numero intero compreso fra 0 e n; pertanto X assume valori nell’insieme ΩX = {0, 1, . . . , n}. Vogliamo calcolare la distribuzione su ΩX originata dalla v.a. X. Consideriamo dapprima il caso in cui nelle prime x prove A1 , . . . , Ax si ottenga un successo e nei successive n − x prove Ax+1 , . . . , An si ottenga un insuccesso, per x ∈ {0, 1, . . . , n}; cioè l’evento A1 . . . Ax Acx+1 . . . Acn . Poichè per ipotesi gli eventi A1 , . . . , An sono stocasticamente indipendenti ed equiprobabili, si ha: P (A1 , . . . , Ax , Acx+1 , . . . , Acn ) = P (A1 ) · · · P (Ax )P (Acx+1 ) · · · P (Acn ) n−x volte x volte }| { z }| { z = p · · · p · (1 − p) · · · (1 − p) = px (n − p)n−x . 87 3.2. LA DISTRIBUZIONE BINOMIALE L’evento {X = x}, cioè l’evento “si sono ottenuti x successi nelle n prove”, è dato dall’unione di tutti gli eventi contenenti esattamente x successi e n − x insuccessi (ovviamente l’ordine non ha alcuna importanza); tali eventi sono disgiunti ed equiprobabili in quanto ciascuno di essi ha probabilità px (n − p)n−x . Il numero di tali eventi è uguale al numero di combinazioni di classe x da un insieme di n elementi. Si ha pertanto: n x P {X = x} = p (1 − p)n−x x x = 0, 1, . . . , n Possiamo scrivere pertanto: n x p (1 − p)n−x se x = 0, 1, . . . , n x p(x) := 0 altrimenti. (3.2) In tal caso diremo che X segue una distribuzione binomiale e scriveremo X ∼ B(n, p). P Vogliamo dimostrare che la (3.2) gode della proprietà x∈ΩX p(x) = 1. In base alla formula del binomio di Newton, si ha che per a, b ∈ R e per ogni n: n (a + b) = n X n k=0 x ak bn−k . In particolare, per a = p e b = 1 − p, si ottiene 1 = n X n k=0 x pk (1 − p)n−k , cioè la nostra tesi. Esempio 3.1 Sia X ∼ B(10, 0.3). Si ha allora: 10 · 9 2 10 10! 2 0.3 · 0.78 = 0.3 · 0.78 = 45 · 0.32 · 0.78 P (X = 2) = 0.32 · 0.78 = 2!8! 2 2 = 0.2335 P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) 10 10 10 0 10 1 9 = 0.3 · 0.7 + 0.3 · 0.7 + 0.32 · 0.78 0 1 2 = 0.0282 + 0.1211 + 0.2335 = 0.3828 P (X > 3) = 1 − P (X ≤ 2) = 1 − (P (X = 0) + P (X = 1) + P (X = 2)) = 1 − 0.3828 = 0.6172 . 88 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE - 0 1 2 3 4 5 6 7 8 9 x 10 Figura 3.2: Funzione di probabilità distribuzione binomiale di parametri n = 10 e p = 0.3. Speranza matematica e Varianza. Per il calcolo della speranza matematica e della varianza di X, premettiamo il calcolo della speranza e della varianza di |Ai |: E(|Ai |) = 1 · p + 0 · (1 − p) = p Var(|Ai |) = E(|Ai |2 ) − {E(|Ai |)}2 = p − p2 = p(1 − p) . (3.3) (3.4) Pertanto dalla proprietà (2.22) della speranza e dalla (2.40) della varianza, la speranza matematica e la varianza di una variabile aleatoria X ∼ B(n, p) sono date rispettivamente da: E(X) = = Var(X) = = E(|A1 |) + E(|A2 |) + · · · + E(|An |) p + p + · · · + p = np Var(|A1 |) + Var(|A2 |) + · · · + Var(|An |) p(1 − p) + p(1 − p) + · · · p(1 − p) = np(1 − p) . (3.5) (3.6) Proposizione 3.2 Siano X1 , . . . , Xk v.a. indipendenti, con Xi ∼ B(ni , p) per i = 1, . . . , k. Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione B(n1 + · · · + nk , p). Dimostrazione. Poichè X1 segue una distribuzione binomiale di parametri n1 e p, allora vuol dire che si può scrivere come: X1 = |A1 | + · · · + |An1 | , dove A1 , . . . , An1 sono eventi indipendenti ed equiprobabili con P (Ai ) = p, (i = 1, . . . , n1 ). Analogamente per le altre variabili X2 , . . . , Xk esisteranno eventi rispettivamente 89 3.2. LA DISTRIBUZIONE BINOMIALE (An1 +1 , . . . , AN −1+n2 ), . . . , (Ank−1 +1 , . . . , Ank ) eventi indipendenti ed equiprobabili con probabilità p. Si ha pertanto: X1 = |A1 | + · · · + |An1 | X2 = |An1 +1 | + · · · + |An1 +n2 | ··· = ··· Xk = |An1 +···+nk−1 +1 | + · · · + |Ank | e quindi considerara la variabile aleatoria: X = X1 + · · · + Xk = |A1 | + · · · + |An1 +n2 +···+nk | segue una distribuzione binomiale di parametri n = n1 + · · · + nk e p. Il successivo corollario è segue immediatamente dal caso precedente per n1 = · · · = nk = n: Corollario 3.3 Siano X1 , . . . , Xk v.a. indipendenti aventi distribuzione B(n, p) per i = 1, . . . , k. Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione B(nk, p). Esempio 3.4 Ad esempio, se X, Y sono v.a. indipendenti con X ∼ B(10, 0.2) e Y ∼ B(7, 0.2), allora X + Y ∼ (17, 0.2) Esempio 3.5 Sapendo che il 30 % dei passeggeri che hanno prenotato non si presenta alla partenza, una compagnia aerea accetta fino a 28 prenotazioni su un volo con capienza 24 posti. Qual è la probabilità che almeno un passeggero, che ha regolarmente prenotato, resti a terra? Sia X =”numero di passeggeri che, avendo prenotato un posto sull’aereo, si presentano per l’imbarco”. Evidentemente si ha X ∼ B(28, 0.7). Poichè l’aereo dispone di 24 posti, fra coloro che hanno prenotato qualcuno non potrà partire se si presentano almeno 25 passeggeri al check-in; la probabilità di tale evento è: P (X ≥ 25) = P (X = 25) + P (X = 26) + P (X = 27) + P (X = 28) . Poichè X ∼ B(28, 0.7) allora si ha: 28 P (X = 25) = 0.725 (1 − 0.7)28−25 25 28 P (X = 26) = 0.726 (1 − 0.7)28−26 26 28 P (X = 27) = 0.727 (1 − 0.7)28−27 27 28 P (X = 28) = 0.728 (1 − 0.7)28−28 28 = 0.0119 = 0.0032 = 0.006 = 4.6 · 10−5 E quindi, la probabilità che al più 24 passeggeri si presentino per l’imbarco è data da P (X ≥ 25) = 0.0157 = 1.57% . ♣ 90 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE Esempio 3.6 Analizzando le acque di scarico di un’industria fortemente inquinata, si è osservato che una frazione θ = 0.7 di campioni di tali acque contiene una sostanza fortemente nociva e che tale sostanza di campioni inquinati si riduce a θD = 0.4 se l’industria mette in funzione l’impianto di depurazione di cui è dotata (ma che ha un costo di esercizio molto elevato). Le autorità sanitarie effettuano senza preavviso un controllo delle acque di scarico, analizzando n = 12 campioni e trovando la sostanza nociva in h = 7 di essi. Assumendo che, prima di effettuare il prelievo, la probabilità che l’impianto di depurazione sia attivo o meno sia la stessa (cioè P (D) = P (Dc ) = 0.5), qual è la probabilità che l’impianto sia attivo dopo aver preso visione dei risultati? Sia X = “numero di campioni inquinati da un insieme di 12 prelievi”. L’insieme di tutti i possibili campioni che si possono prelevare dalla acque di scarico, rispettivamente nei due casi D e Dc (depuratore in funzione o fermo al momento del prelievo), si può identificare con un’urna contenente palline bianche (corrispondente ai campioni contenenti la sostanza nociva) nelle proporzioni θD = 0.4 oppure θ = 0.7. Allora ricorrendo all’approssimazione binomiale, si può scrivere: 12 P (X = 7|D) = 0.47 0.65 = 0.101 7 12 c P (X = 7|D ) = 0.77 0.35 = 0.158 . 7 E quindi per il teorema di Bayes, supponendo equiprobabili le due ipotesi in esame, cioè P (D) = P (Dc ) = 1/2 (ma se si hanno altre informazioni questa scalta non è obbligatoria), si ha: P (X = 7|D)P (D) 0.101 = = 0.390 c c P (X = 7|D)P (D) + P (X = 7|D )P (D ) 0.101 + 0.158 P (X = 7|Dc )P (Dc ) 0, 158 P (Dc |X = 7) = = c c P (X = 7|D)P (D) + P (X = 7|D )P (D ) 0.101 + 0.158 = 1 − P (D|X = 7) = 0.610 . P (D|X = 7) = ♣ Esercizio 3.7 Una moneta è stata truccata in maniera tale che su 20 lanci l’evento ”testa” su presenti 6 volte con probabilità 0.171 e 7 volte con probabilità 0.184. Qual è la probabilità che su 10 lanci l’evento ”testa” non si verifichi mai? 3.3 La distribuzione ipergeometrica La distribuzione ipergeometrica segue lo stesso schema della legge binomiale ma, a differenza di quest’ultima, si considerano esperimenti senza reimmissione. Considerata una 91 3.3. LA DISTRIBUZIONE IPERGEOMETRICA successione (finita) di n estrazioni senza ripetizione da un’urna contenente N palline, di cui una frazione pN bianche (con 0 < p < 1) e la restante parte qN = (1 − p)N non bianche, sia X il numero di palline bianche X ottenute in una successione di n estrazioni con reimmissione. In questo caso ΩX è costituito dall’insieme dei valori interi tali che: max{0, n − qN } ≤ x ≤ min{n, pN } . Infatti in questo caso si tratta di estrazioni senza reimmissione ed indicano che il numero minimo e massimo di successi ottenibili in n estrazioni dipendono dal numero N di palline e dalla proporzione p di palline bianche contenute nell’urna. Pertanto se il numero di palline estratte n è superiore al numero di palline nere presenti nell’urna, il numero minimo di palline bianche non può essere 0 ma pari a n−qN ; al contrario non si può estrarre un numero di palline bianche superiore a quello presente nell’urna. La funzione di probabilità data da: pN (1−p)N ( x )(Nn−x ) se max{0, n − qN } ≤ x ≤ min{n, pN } (n) p(x) := 0 altrimenti. In questo caso diremo che la variabile aleatoria X segue una distribuzione ipergeometrica di parametri interi positivi N, p e n, e scriveremo X ∼ H(N, p, n). La verifica della condizione P x p(x) = 1 è abbastanza laboriosa e verrà qui omessa. Si noti che anche in questo caso la v.a. X è data da: X = |A1 | + |A2 | + · · · + |An | (3.7) dove gli eventi A1 , . . . , An sono equiprobabili, con P (Ai ) = p per i = 1, . . . , n, ma non indipendenti. Si ha infatti: P (A1 ) = p P (A2 ) = P (A2 |A1 )P (A1 ) + P (A2 |Ac1 )P (Ac1 ) = pN − 1 pN p+ (1 − p) = p . N −1 N −1 Iterando il ragionamento per i = 3, . . . , N si vede che P (Ai ) = p per ogni i. Si può dimostrare che per N → ∞, mantenendo costante la proporzione p di palline bianche, si ha: pN (1 − p)N n x x n−x lim = p (1 − p)n−x (3.8) N →∞ N x n e pertanto la distribuzione binomiale costituisce il limite della distribuzione ipergeometrica per N → ∞. 92 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE Speranza matematica e Varianza. In base alla (3.7), la speranza matematica è da: E(X) = E(|A1 |) + E(|A2 |) + · · · + E(|An |) = np , (3.9) Per quanto riguarda la varianza, dalla (3.7) segue: Var(X) = n X Var(|Ai |) + i=1 X Cov(|Ai |, |Aj |) . (3.10) i6=j In base a quanto visto in precedenza nella (3.4) si ha Var(|Ai |) = pq. Per il calcolo della covarianza Cov(|Ai |, |Aj |), consideriamo la relazione (2.35) che nel caso qui in esame si scrive: Cov(|Ai |, |Aj |) = E(|Ai | · |Aj |) − E(|Ai |)E(|Aj |) . Si noti che risulta |Ai | · |Aj | = |Ai ∩ Aj | = 1 se e solo l’evento Ai ∩ Aj è vero; e quindi si ha: E(|Ai | · |Aj |) = E(|Ai ∩ Aj |) = P (Ai ∩ Aj ) = P (Ai )P (Aj |Ai ) pN − 1 =p . N −1 Segue pertanto Cov(|Ai |, |Aj |) = E(|Ai | · |Aj |) − E(|Ai |)E(|Aj |) = p pN − 1 − p2 N −1 e quindi sostituendo nella (3.10) si ottiene: Var(X) = n X i=1 Var(|Ai |) + X Cov(|Ai |, |Aj |) = npq + n(n − 1)p i6=j p−1 = npq + n(n − 1)p N −1 n−1 = npq 1 − . N −1 pN − 1 −p N −1 (3.11) In particolare, per n = 1 la varianza della distribuzione ipergeometrica coincide con quella della distribuzione binomiale in quanto se si effettua un’unica estrazione lo schema è lo stesso nei due casi. Inoltre per valori grandi di N la varianza della distribuzione ipergeometrica tende a quella della distribuzione binomiale, come del resto prevedibile in base alla (3.8). Esercizio 3.8 Gli archivi di un ufficio sono stati memorizzati in 30 dischi da 100 Mbyte, contenenti ognuno 100 file. Un programma dovrà accedere a 28 di questi file (tutti diversi). Qual è la probabilità che esso non debba usare il primo disco? La situazione in esame si modellizza con uno schema successo-insuccesso senza rimpiazzo: sono 20 prove ripetute in ognuna delle quali viene scelto un file fra i 3000 possibili. Consiedereremo “successo” la scelta di un file appartenente al primo disco (sono 100) e insuccesso la 93 3.4. LA DISTRIBUZIONE DI POISSON - 0 1 T n 2 T n n−1 T n T x scelta di uno degli altri dischi (2900 files). Non c’è restituzione perchè un file, una volta letto, 1 non verrà più richiamato in seguito, quindi X ∼ H(3000, 30 , 28). La probabilità richiesta è dunque 100 2900 0 28 P (X = 0) = = 0.385 . 3000 28 Se invece le 28 voci fossero state scelte a caso con possibilità di ripetizione, il numero di volte 1 in cui il programma avrebbe dovuto accedere al disco n.1 sarebbe stata una B(28, 30 ). La probabilità che il disco non venga consultato è 0 28 28 1 1 P (X = 0) = 1− = 0.387. 0 30 30 Si noti che i due risultati sono molto vicini. Ciò è dovuto al fatto che le varianze delle due distribuzioni binomiale e ipergeometrica sono praticamente uguali, infatti nella (3.11) il rapporto: 27 n−1 = = 0.009 N −1 2999 è molto prossimo allo zero. ♣ 3.4 La distribuzione di Poisson La distribuzione di Poisson è certamente una delle leggi di probabilità che trova maggiori applicazioni per descrivere fenomeni del mondo reale. Tale distribuzione è anche detta distribuzione degli eventi rari per sottolineare il fatto che in ciascuno dei casi in cui si applica, la probabilità che il singolo evento si verifichi è estremamente bassa. La distribuzione di probabilità di Poisson può quindi servire da modello matematico per fenomeni del tipo: il numero di automobili che si fermano ad una stazione di servizio in un certo intervallo di tempo, numero di utenti che prelevano del denaro da uno sportello bancomat in un certo intervallo di tempo, etc. La distribuzione di Poisson può essere costruita a partire da una successione di prove indipendenti, secondo lo schema che ha condotto alla legge binomiale. Si consideri un intervallo di lunghezza T > 0 ( e per semplicità si pensi a (0, T )) suddiviso in n sottointervalli di lunghezza T /n. Si supponga che un certo evento A (successo) possa 94 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE manifestarsi con la stessa probabilità p = α(T /n) – proporzionale, secondo un coefficiente α > 0, all’ampiezza T /n del singolo sottointervallo – ed in modo indipendente in ognuno dei sottontervalli, e sia 1 − p = 1 − α(T /n) la probabilità che nel generico sottointervallo non si manifesti l’evento A. Vogliamo ricavare la probabilità che l’evento A si presenti in x degli n sottointervalli consederati. Indicato con X il numero dei sottointervalli in cui si manifesta l’evento A, cioè il numero di successi, le ipotesi adottate consentono di applicare la distribuzione binomiale, e si ha: x n−x αT αT n x = 0, 1, 2, . . . , n. 1− p(x) = n n x All’aumentare del numero n dei sottointervalli di (0, T ), si ha: x n−x n αT αT (αT )x −αT λx lim 1− = e = e−λ n→∞ x n n x! x! dove si è posto λ = αT > 0. L’espressione precedente si ottiene considerando che: x n−x x n αT αT n(n − 1) · · · (n − x + 1)(n − x)! αT 1− = × x n n x!(n − x)! n n −x αT αT 1− × 1− n n n −x αT αT 1 n(n − 1) · · · (n − x + 1) x = (αT ) 1 − 1− x! nx n n e che per n → ∞ si ha: n · n(1 − n1 ) · · · n(1 − x−1 ) n(n − 1) · · · (n − x + 1) n = →1 x n n · n · ··n n αT 1− → e−αT n −x αT 1− →1. n La legge di Poisson appare, in questo modo, come una distribuzione che approssima la distribuzione binomiale nel caso in cui in questa si abbia un numero di prove n molto grande ed una probabilità di successo p in ciascuna prova molto piccola (essendo np = λ = costante). Più in generale, i campi di applicazione della distribuzione di Poisson si evincono meglio dallo schema seguente. Si supponga di essere interessati ad un certo evento (ad esempio, incidenti automobilistico su un tratto di strada). Si indichi con η(s, s + t) il numero di volte in cui l’evento in questione si verifica nell’intervallo temporale (s, s + t) e supponiamo che: 1. La probabilità che l’evento si verifichi in un intervallo di tempo di ampiezza t > 0 sia uguale a αt, con α > 0, indipendentemente dall’origine dell’intervallo e per valori di t sufficientemente piccolo: P (η(s, s + t) = 1) = αt + o(t) s≥0 95 3.4. LA DISTRIBUZIONE DI POISSON 2. la probabilità che in un intervallo di ampiezza h l’evento si verifichi più di una volta sia trascurabile: P (η(s, s + t) > 1) = o(t) 3. Il numero degli eventi che si verificano in due intervalli disgiunti siano stocasticamente indipendenti, cioè dati s1 < s2 < s3 < s4 , allora le v.a. η(s1 , s2 ) e η(s3 , s4 ) sono stocasticamente indipendenti. Sotto le precedenti ipotesi si può dimostrare che: x −αt (αt) P (η(0, t) = x) = e x = 0, 1, 2, . . . x! Diremo che una variabile aleatoria X segue una distribuzione di Poisson di parametro λ > 0, e scriveremo X ∼ P(λ), se ha la seguente funzione di probabilità: λx e−λ se x = 0, 1, 2, . . . x! p(x) := (3.12) 0 altrimenti. P Per quanto riguarda la verifica della (2.6) ∞ x=0 p(x) = 1, consideriamo lo sviluppo in serie della funzione esponenziale eλ : ∞ X λk eλ = k! k=0 da cui, moltiplicando ambo i membri per e−λ si ottiene 1= ∞ X k=0 e−λ λk k! cioè la nostra tesi. Speranza matematica e Varianza. E(X) := ∞ X −λ λ x·e x=0 La speranza matematica è data da: x x! −λ =e ∞ ∞ X X λ · λx−1 λz −λ = λe =λ. (x − 1)! z! x=1 z=0 Per il calcolo della varianza premettiamo il calcolo del momento secondo: 2 E(X ) = ∞ X x=0 2 −λ λ x ·e x x! −λ =e λ ∞ X x=1 x λx−1 (x − 1)! Posto z = x − 1, segue 2 −λ E(X ) = e ∞ X ∞ X λz λz −λ λ (z + 1) = e λ (z + 1) = λE(X + 1) = λ(λ + 1) z! z! z=0 z=0 Segue pertanto: Var(X) = E(X 2 ) − µ2 = λ(λ + 1) − λ2 = λ . Pertanto, nel caso della distribuzione di Poisson, speranza matematica e varianza coincidono. 96 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE - 0 1 2 3 4 5 6 7 8 9 10 11 12 Figura 3.3: Funzione di probabilità distribuzione di Poisson con parametro λ = 4. Approssimazione della distribuzione binomiale con quella di Poisson. Per n > 50 e p < 0.1, si può approssimare una distribuzione Binomiale B(n, p) con una di Poisson P(λ) di parametro λ = np Proposizione 3.9 Siano X1 , . . . , Xk v.a. indipendenti, con Xi ∼ P (λi ) per i = 1, . . . , k. Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione P (λ1 + · · · + λk ). Esercizio 3.10 All’inizio di ogni mese, un negoziante ordina un certo prodotto per le vendite di tutto il mese. Egli può plausibilmente assumere che la variabile delle unità di prodotto venduto durante il mese segua una legge di Poisson con parametro λ = 4. Quante unità di prodotto deve avere in magazzino affinchè abbia una probabilità dell’88% di non restare senza prodotto? In base ai dati del problema, il numero X di unità vendute in un mese segue una distribuzione di Poisson di parametro λ = 4, cioè X ∼ P(4). Ogni mese possono essere vendute 0 unità di prodotto oppure un’unità di prodotto, etc. Indicato con k il numero di unità di prodotto da ordinare, si richiede di determinare il più piccolo valore di k per cui risulti: P (X ≤ k) = k X P (X = x) = x=1 k X x=1 e−4 4x . x! Dalla funzione di probabilità della distribuzione di Poisson P(4) si ricavano i valori: x P (X = x) P (X ≤ x) 0 0.0183 0.0183 1 0.0733 0.0916 2 0.1465 0.2381 3 0.1954 0.4335 4 0.1954 0.6289 5 0.1563 0.7852 6 0.1042 0.8894 7 0.0595 0.9489 8 0.0298 0.9787 x 3.4. LA DISTRIBUZIONE DI POISSON 97 e quindi segue che è necessario ordinare almeno k = 6 unità di prodotto. ♣ Esercizio 3.11 In una data succursale bancaria è stata valutata una probabilità p = 0.001 che una persona effettui un prelievo superiore a 3000 euro. Calcolare la probabilità che, durante una normale mattina di lavoro in cui si presentano 200 persone, vi siano più di due persone che effettuino un prelievo superiore a 3000 euro. Il problema richiede il calcolo della probabilità che in una successione di n = 200 prove ripetute ed indipendenti, ciascuna delle quali presenta probabilità p = 0.001 di successo e q = 1 − p = 0.999 di insuccesso, si verifichi un variabile di successi maggiore di due. Il modello del problema è pertanto costituito da una distribuzione binomiale di parametri n = 200 e p = 0.001. Tuttavia, essendo la probabilità di successo in ciascuna prova molto piccola, lo stesso problema può essere formalizzato mediante una distribuzione di Poisson di parametro λ = np = 0.2. Indichiamo con X il ”numero di persone che effettuano un prelievo superiore a 6 milioni in un normale giorno di lavoro”, il problema pertanto richiede il calcolo di P {X > 2} = 200 X P {X = k} . k=3 Ovviamente il calcolo può essere semplificato tenendo presente che P {X > 2} = 1 − P {X ≤ 2} = 1 − [P {X = 0} + P {X = 1} + P {X = 2}] . Utilizziamo dapprima una distribuzione binomiale, in tal caso X ∼ B(200, 0.001), e pertanto si ha: 200 0 P {X = 0} = p (1 − p)200 = 0.999200 = 0.8186 0 200 P (X = 1) = p (1 − p)199 = 0.001 0.999199 = 0.1639 1 200 2 P (X = 2) = p (1 − p)198 = 0.0012 0.999198 = 0.0163 2 da cui P {X > 2} = 1 − [P {X = 0} + P {X = 1} + P {X = 2}] = 0.0012 . Utilizzando una distribuzione di Poisson di parametro λ = np = 0, 2, cioè X ∼ P(0.2), si ha: e−λ λ0 = e−0.2 = 0.8187 0! e−λ λ1 P {X = 1} = = e−0,2 0, 2 = 0.1637 1! e−λ λ2 e−0.2 0, 22 P {X = 2} = = = 0.0164 2! 2 P {X = 0} = 98 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE e quindi si perviene allo stesso risultato P {X > 2} = 0.0012 . ♣ 3.5 La distribuzione multinomiale Una generalizzazione della distribuzione binomiale può condurre alla cosidetta distribuzione multinomiale nel modo seguente. Consideriamo una successione di n prove ripetute ed indipendenti ciascuna delle quali ammetta k possibili risultati A1 , . . . , Ak mutuamente esclusivi. Sia pi la probabilità che l’esperimento fornisca il risultato Ai , per i = 1, . . . , k. Siano x1 , . . . , xk−1 interi non negativi tali che x1 + · · · + xk−1 ≤ n. La probabilità che esattamente xi prove abbiano risultato Ai , per i = 1, . . . k − 1, e quindi che le restanti xk = n − (x1 + . . . + xk−1 ) prove abbiano risultato Ak , è chiaramente: n px1 1 · · · pxk k , x1 x2 · · · xk dove la quantità: n x1 x2 · · · xk := n! x1 ! · · · xk ! costituisce il coefficiente multinomiale ed è uguale al numero di modi in cui scegliere, fra le n prove, quelle in cui si verifica A1 , quelle in cui si verifica A2 , etc. Se (X1 , . . . , Xk ) è un vettore aleatorio dove Xj è il numero (aleatorio) di volte in cui l’evento Aj si è verificato, per xj = 0, 1, . . . , n, allora la funzione di probabilità di (X1 , . . . , Xk ) è data da: P n! px1 1 · · · pxk k se ki=1 xi = n x1 ! · · · xk ! P (X1 = x1 , . . . , Xk = xk ) = (3.13) 0 altrimenti La distribuzione del vettore aleatorio (X1 , . . . , Xk ) si chiama distribuzione multinomiale e scriveremo X ∼ M (n, p1 , . . . , pk ). Per la distribuzione multinomiale si ha: E(Xj ) = npj , Var(Xj ) = npj (1 − pj ) , Cov(Xi , Xj ) = E[(Xi − npi )(Xj − npj )] = −npi pj . In particolare, ne segue che il coefficiente di correlazione fra Xi e Xj è dato da: 1/2 pi pj ρij = − i, j = 1, . . . , k − 1, (i 6= j) . (1 − pi )(1 − pj ) 99 3.6. LA DISTRIBUZIONE GEOMETRICA 3.6 La distribuzione geometrica La distribuzione geometrica deriva dallo stesso schema della distribuzione binomiale ma nel caso ora in esame, invece di analizzare il numero complessivo di eventi favorevoli conseguiti in n prove, ci si interessa al numero di prove necessario per ottenere il primo successo, cioè il tempo di attesa del primo successo. Data una successione di eventi equiprobabili ed indipendenti A1 , A2 , . . . con P (Ai ) = p per ogni i = 1, 2, . . ., con 0 < p < 1, denotiamo con X la quantità aleatoria ”indice del primo successo nella sequenza assegnata”. Allora la v.a. X assume valori nell’insieme dei numeri naturali ed ha funzione di probabilità p(1 − p)x−1 se x = 1, 2, . . . p(x) := 0 altrimenti Diremo in tal caso che X segue una distribuzione geometrica di parametro p e scriveremo X ∼ G(p). P Per quanto riguarda la verifica della relazione ∞ x=1 p(x) = 1, posto q = 1 − p, si può immediatamente verificare che risulta: k X qr = 1 + q + · · · + qk = r=0 1 − q k+1 1 − (1 − p)k+1 = . 1−q p da cui ∞ X q r = lim k→∞ r=0 k X 1 − (1 − p)k+1 1 = . k→∞ p p q r = lim r=0 cioè: ∞ X (1 − p)r = r=0 1 p o, equivalentemente, ∞ X (1 − p)r−1 = r=1 1 . p Da tale relazione segue immediatamente: ∞ X (1 − p)pr−1 = 1 , (3.14) r=1 P e quindi la verifica della proprietà x p(x) = 1. Nel caso di leggi geometriche, particolare interesse riveste la seguente relazione: P {X ≥ x} = ∞ X r−1 p(1 − p) r=x = (1 − p) P∞ r=1 r−1+(x−1) p(1 − p) r=1 x−1 essendo = ∞ X , p(1 − p)r−1 = 1 per la (3.14). x−1 = (1 − p) ∞ X p(1 − p)r−1 r=1 (3.15) 100 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE - 1 2 3 4 5 6 x 7 Figura 3.4: Funzione di probabilità distribuzione geometrica con parametro p = 0, 4. Speranza matematica e Varianza. E(X) = ∞ X Per quanto riguarda la speranza matematica si ha: xp(1 − p)x−1 = p ∞ X x=1 x(1 − p)x−1 = −p x=1 ∞ X d (1 − p)x dp x=1 ∞ d X d 1−p d 1−p 1 = −p (1 − p)x = −p = −p = . dp x=1 dp 1 − (1 − p) dp p p Per il calcolo della varianza, premettiamo il calcolo di E(X 2 ): 2 E(X ) = = ∞ X 2 x−1 x p(1 − p) ∞ X = x=1 x=1 ∞ X x−1 x(x − 1)p(1 − p) x=1 = p(1 − p) (x2 − x + x)p(1 − p)x−1 + ∞ X xp(1 − p)x−1 x=1 ∞ X x(x − 1)(1 − p)x−2 + x=1 1 p ∞ X d2 1 d2 1 − p 1 x = p(1 − p) (1 − p) + 0p(1 − p) + 2 2 dp p dp p p x=1 = p(1 − p) 2 1 2(1 − p) 1 2 − p + = + 0 2 . 3 p p p2 p p Segue pertanto: Var(X) = E(X 2 ) − µ2 = 2−p 1 1−p − 2 = . 2 p p p2 Proprietà di assenza di memoria. La distribuzione geometrica è caratterizzata dalla seguente proprietà di assenza di memoria. Proposizione 3.12 X ∼ G(p) se e solo se P {X = r + n | X > n} = P {X = r} , per qualunque coppia r, n di numeri interi. 101 3.6. LA DISTRIBUZIONE GEOMETRICA Dimostrazione. La proprietà in esame segue da un’applicazione della formula della probabilità condizionale. Si ha infatti: P {X = r + n, X > n} P {X > n} P {X = r + n} = . P {X > n} P {X = r + n | X > n} = (3.16) Poichè, in base alla (3.15), risulta: P {X > n} = (1 − p)n allora dalla (3.16) segue per r ≥ 1: P {X = r + n | X > n} = p(1 − p)n+r−1 = p(1 − p)r−1 = P {X = r} . (1 − p)n Più in generale, la proprietà di assenza di memoria implica che P {X ≥ r + n | X > n} = P {X ≥ r} . Tale risultato afferma che, se un evento E non si è verificato nelle prime n prove, allora la probabilità che esso non si verifichi nelle successive r prove è la stessa di quella di non manifestarsi nelle prime r prove. Esempio 3.13 In una certa località balneare la probabilità che piova in un qualunque giorno del mese di agosto è p = 0, 05. Assumendo l’indipendenza qual è la probabilità che la prima pioggia del mese avvenga il 15 agosto? E prima del 15 agosto? Si tratta di un’applicazione della distribuzione geometrica. Se X indica la quantità aleatoria ”numero di giorni (a partire dal primo agosto) fino alla prima pioggia”, allora X ∼ G(0, 04), pertanto si avrà: P {X = 15} = 0.05 · 0.9514 ∼ = 0.024 , P {X ≤ 14} = 1 − 0.9514 ∼ = 0.5124 . ♣ Esempio 3.14 Si consideri un macchinario la cui durata di funzionamento, in un’opportuna unità di misura (mese, anno o altro), sia retta dalla legge geometrica di densità: p(x) = 0.2 · (0, 8)x−1 x = 1, 2, . . . Sapendo che il macchinario non ha ancora cessato di funzionare dopo 5 periodi (unità di misura), qual è la probabilità che si guasti all’ottavo periodo? P {X = 8|X > 5} = P {X = 8} = P {X = 3} = 0.2 · (0.8)2 = 0.128 . P {X > 5} ♣ 102 3.7 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE La distribuzione binomiale negativa o di Pascal La distribuzione binomiale negativa è una generalizzazione della distribuzione geometrica. Sia data una successione di prove indipendenti ognuna delle quali produce un successo con probabilità 0 < p < 1 oppure un insuccesso con probabilità 1 − p. La distribuzione binomiale negativa è la distribuzione di probabilità del numero di prove per ottenere esattamente r successi. Diremo che una v.a. X segue una distribuzione binomiale negativa di parametri interi positivi r ≥ 1 e 0 < p < 1, e scriveremo X ∼ BN (r, p), se ha la seguente distribuzione di probabilità: x−1 r p (1 − p)x−r se x = r, r + 1, . . . , r − 1 (3.17) p(x) = 0 altrimenti. In particolare per r = 1 si ottiene la distribuzione geometrica. Speranza matematica e Varianza. La speranza matematica e la varianza di una v.a. X ∼ BN (r, p) sono date rispettivamente da: r p r(1 − p) Var(X) = p2 E(X) = Si noti che, dati X ∼ G(p) e Y ∼ BN (r, p), risulta E(Y ) = r E(X) Var(Y ) = r Var(X) . Proposizione 3.15 Siano X1 , . . . , Xk v.a. indipendenti, con Xi ∼ BN (ri , p) per i = 1, . . . , k. Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione N B(r1 + · · · + rk , p). Corollario 3.16 Siano X1 , . . . , Xk v.a. indipendenti aventi distribuzione geometrica di parametro p . Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione BN (k, p). 3.8 Altri esercizi Esercizio 3.17 n commensali si ripartiscono a caso intorno ad una tavola rotonda. Sia X il più piccolo numero (aleatorio) di commensali che separa Pietro e Paolo. Calcolare la legge di X e la speranza matematica di X. Esercizio 3.18 Si supponga che in una grande azienda si effettuino mediamente quattro interventi di manutenzione del settore informatico in una giornata lavorativa di 8 ore. Si assuma che il numero di interventi di manutenzione nei periodi indicati segua una distribuzione di Poisson. 3.8. ALTRI ESERCIZI 103 1. Valutare la probabilità che in due ore non vi sia nessun intervento di manutenzione; 2. Valutare la probabilità che in un’ora vengano effettuati almeno due interventi di manutenzione. Esercizio 3.19 Data una successione di eventi indipendenti ed equiprobabili con probabilità uguale a 1/100, determinare 1. la probabilità che, osservandone 100, non se ne verifichi alcuno; 2. La probabilità che su 200, se ne verifichino almeno 3; 3. la probabilità che su 50 se ne verifichino più di due; 4. il numero minimo n di prove necessarie affinchè la probabilità di avere almeno un successo sia maggiore di 0.98. Esercizio 3.20 Un’urna contiene N palline di cui 30 bianche e le restanti nere. Calcolare N sapendo che la probabilità di ottenere 2 palline bianche in 4 estrazioni con restituzione è pari a 33 /27 e che le palline nere sono più numerose delle palline bianche. Esercizio 3.21 Da un’urna U , contenente 2 palline bianche e 2 nere, e da un’urna V , contenente 2 palline bianche e tre nere, si estraggono rispettivamente 2 palline e 3 palline senza restituzione. Indicando con X e Y rispettivamente i numeri aleatori di palline bianche estratte rispettivamente da U e da V , calcolare P (X + Y > 2), P (X = 1|X + Y > 2) e E(X + Y ) Esercizio 3.22 Date tre variabili aleatorie, indipendenti e con distribuzione geometrica di parametro p, calcolare: 1. la speranza matematica m della variabile X + Y − Z; 2. la probabilità dell’evento {2.5 ≤ X + Y + Z ≤ 4.2}; 3. la covarianza delle v.a. U = X + Y e V = X − Y . Esercizio 3.23 Un canale di trasmissione dati può ricevere messaggi binari da due sorgenti diverse A e B con probabilità 21 ciascuna. Ognuna delle due sorgenti produce messaggi in cui i bit successivi sono tra loro indipendenti. Per la sorgente A i bit possono essere 1 oppure 0 con probabilità 12 , mentre per la sorgente B, il valore 1 si verifica con probabilità 14 e lo 0 con probabilità 34 . Un messaggio di lunghezza n viene ricevuto in cui si osserva una proporzione di 1 pari a 0.4 (cioè in cui si trovano 0.4 n bit uguali a 1). 1. Supponiamo n = 10. Qual è la probabilità che si tratti della sorgente A? Quale delle due sorgenti è la più probabile? E se invece fosse n = 100? 2. Rispondere alle stesse domande del punto precedente supponendo che a priori i messaggi provengano con probabilità 30% dalla sorgente A e 70% dalla sorgente B. 104 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE Esercizio 3.24 Un’urna U1 contiene una pallina bianca e 2 nere, mentre un’urna U2 contiene 2 palline bianche ed una nera. Da U1 si estraggono due palline che vengono inserite in U2 . Successivamente da U2 si estrae una pallina che viene inserita in U1 . Considerati gli eventi: A : le due palline inserite in U2 sono nere B : la pallina inserita in U1 è bianca calcolare P (B), P (A|B) e P (A ∪ B). Esercizio 3.25 Due squadre di atletica A e B partecipano alla fase finale di un torneo che consiste in una serie di 7 incontri diretti. La squadra vincitrice è quella che si aggiudica per prima 4 vittorie. Assumendo che le due squadre abbiano la stessa probabilità di vincere una qualunque partita e che i risultati siano indipendenti, calcolare: 1. La probabilità che il torneo si concluda in al più 6 partite. 2. La probabilità che il torneo si concluda esattamente dopo 6 incontri dato che la squadra A ha vinto le prime due partite. Esercizio 3.26 Un’azienda alimentare propone un nuovo tipo di merenda al cioccolato e crema di zabaione, rivolta particolarmente ai ragazzi aventi un’età compresa fra 10 e 12 anni. L’area marketing ha successivamente rilevato che, a livello nazionale, il 30% degli interessati ha visto almeno uno degli spot televisivi predisposti per la campagna pubblicitaria che ha lanciato il prodotto. Considerato un gruppo di 150 potenziali consumatori, ci si chiede: 1. qual è il numero atteso che ha visto almeno uno spot televisivo? 2. qual è la probabilità che ve siano stati almeno 50 che ha visto almeno uno spot? Esercizio 3.27 Siano X1 e X2 due v.a. indipendenti aventi distribuzione di Poisson di parametri rispettivamente λ1 = 3 e λ2 = 1, cioè X1 ∼ P(3) e X2 ∼ P(1). i) Calcolare la funzione di ripartizione di X2 e rappresentarla graficamente; ii) considerata la v.a. Y = 3X1 calcolare E[Y ] e P (Y ≤ 6). Considerata successivamente la v.a. W = 2X1 − X2 , calcolare: E[W ] e Var(W ). Esercizio 3.28 Siano X e Y due v.a. aventi distribuzione di Poisson di parametro λ = 9. i) Calcolare P (X ≥ 2) e P (3X ≤ 2) ii) Calcolare la covarianza di X e Y sapendo che il coefficiente di correlazione fra X e Y è uguale a 2/9. Esercizio 3.29 Una moneta viene tarata in maniera tale che, in una successione di 10 prove ripetute e indipendenti, la probabilità che l’evento T (‘testa’) si verifichi 4 volte sia uguale 0.2377 e che si verifichi 5 volte sia uguale a 0.1536. Calcolare la probabilità che nelle 10 prove l’evento T si verifichi una sola volta. Esercizio 3.30 Uno studente, per ottenere informazioni relative ad assegnazioni di borse di studio, si rivolge all’ufficio competente il quale dà al 60% informazioni esatte. Sapendo ciò, lo studente va 3 volte a chiedere sempre la stessa informazione ed ottiene 2 volte la risposta A ed una volta la risposta contraria B. Calcolare la probabilità p che la risposta esatta sia la A. (Si supponga che A e B siano inizialmente equiprobabili e costituiscano una partizione dell’evento certo). 105 3.8. ALTRI ESERCIZI 3.8.1 Soluzioni Soluzione 3.17. Sia n il numero totale di commensali, distinguiamo i due casi: n dispari e n pari. Se n è dispari, allora possiamo scrivere n = 2p + 1 dove p è un numero dispari, con p ≥ 1. In questo caso X è una v.a. con legge uniforme su {0, 1, . . . , p − 1} e pertanto: E[X] = p 2 Var(X) = p(p − 2) . 12 Se n è pari, allora possiamo scrivere n = 2p, dove p è un numero dispari; in questo caso si ha: 1 1 = n−1 2p − 1 2 2 P (X = k) = = 2p − 1 2p − 1 P (X = p − 1) = per 1 ≤ k ≤ p − 2 da cui, tenendo conto che 1 + 2 + · · · + (p − 2) = (p − 1)(p − 2) 2 segue: p−1 (p − 1)(p − 2) 2 (p − 1)2 E[X] = + = . 2p − 1 2 2p − 1 2p − 1 ♣ Soluzione 3.18. Per quanto riguarda il primo esercizio, sia X la v.a. ”numero di interventi di manutenzione in un periodo di due ore”; il testo richiede il calcolo di P (X = 0). In base alle ipotesi, se mediamente nell’azienda si richiedono 4 interventi ogni otto ore, allora si può assumere – in base ad un semplice criterio di proporzionalità – che mediamente verrà richiesto un intervento ogni due ore. Inoltre, poichè si assume che X segua una distribuzione di Poisson, allora si ha X ∼ P(1), cioè una distribuzione di Poisson di parametro λ = 1. Si ha pertanto: P (X = 0) = e−λ λ0 = e−1 = 0.3679 . 0! Con riferimento al secondo punto, sia Y la v.a. ”numero di interventi di manutenzione in un periodo di un’ora”. In base a considerazioni a quelle svolte in precedenza, Y segue una distribuzione di Poisson di parametro λ = 0.5, cioè Y ∼ P(0.5). Segue pertanto: P (Y ≥ 2) = 1 − P (Y ≤ 1) = 1 − P (Y = 0) − P (Y = 1) = 1 − e−0.5 0.50 0.51 − e−0.5 0! 1! = 1 − e−0.5 (1 + 0.5) = 0.0902 . ♣ 106 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE Soluzione 3.19. Risolviamo il problema in due modi: con la distribuzione binomiale (soluzione “esatta”) e con quella di Poisson (distribuzione “approssimata”). Per quanto riguarda la soluzione con la distribuzione binomiale, sia X ∼ B(100, 0.01); quindi per il primo punto si ha: P (X = 0) = (0.99)100 = 0.366 . Per quanto riguarda il secondo punto, sia X ∼ B(200, 0.01) e quindi: P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − [(0.99)200 + 200 · 0.01 · (0.99)199 + 100 · 199(0.01)2 · (0.99)198 ] = 0.323 . Ed infine, per il terzo punto, considerato X ∼ B(50, 0.01), si ha: P (X > 2) = 1 − P (X ≤ 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)] = 1 − [(0.99)50 + 50 · 0.01 · (0.99)49 + 25 · 49 · (0.99)48 (0.01)2 ] = 0.0138 . Utilizzando la distribuzione di Poisson, nel primo caso – essendo λ = np = 1 si ha X ∼ P(1) e quindi P (X = 0) = e−1 = 0.368 ; nel secondo caso – essendo λ = np = 2 – si ha X ∼ P(2) e quindi P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − e−2 (1 + 2 + 2) = 0.323 ; nel terzo caso – essendo λ = np = 0.5 – si ha X ∼ P(0.5) e quindi: P (X > 2) = 1 − P (X ≤ 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)] = e−0.5 (1 + 0.5 + 0.125) = 0.0144 . Si nota che l’approssimazione della distribuzione di Poisson a quella binomiale migliora al crescere di n. Infine, la probabilità di non avere successi in una successione di n prove ripetute e indipendenti è (0.99)n . Posto X ∼ B(n, 0.01), possiamo considerare pertanto la disequazione: P (X ≥ 1) = 1 − P (X = 0) = (0.99)n > 0.98 e risolvendo rispetto a n si ottiene: n> da cui n = 390. log(0.02) = 389.2 log(0.99) ♣ 107 3.8. ALTRI ESERCIZI Soluzione 3.20. Indicata con p la proporzione di palline bianche nell’urna, in base ad i dati del problema risulta p < 1/2. Trattandosi di estrazioni con restituzione, la probabilità di estrarre 2 palline bianche in 4 prove è data da: 4 2 p (1 − p)2 = 6p2 (1 − p)2 . 2 In base ad i dati del problema, si tratta di risolvere l’equazione: 6p2 (1 − p)2 = 33 27 sotto il vincolo p < 1/2. Tenendo conto che 6 = 2 · 3, dall’equazione precedente si ottiene: p2 (1 − p)2 = 33 1 32 = 27 2 · 3 28 ⇒ p(1 − p) = 3 16 ⇒ p2 − p + 3 =0 16 che ammette soluzioni: p1 = 1/4 e p2 = 3/4. Solo la prima soddisfa il vincolo p < 1/2 e pertanto l’unica soluzione ammissibile è p = 1/4. Soluzione 3.21. P {X + Y > 2} = P {X + Y = 3} + P {X + Y = 4} = P {X = 2, Y = 1} + P {X = 1, Y = 2} + P {X = 2, Y = 2} = P {X = 2}P {Y = 1} + P {X = 1}P {Y = 2} + P {X = 2}P {Y = 2} dove P {X = 1} = P {X = 2} = P {Y = 1} = P {Y = 2} = 2 2 1 1 4 2 2 2 2 0 4 2 2 3 1 2 5 3 2 3 2 1 5 3 = 4 2 = ; 6 3 = 1 ; 6 = 2·3 6 ; 10 10 = 3 . 10 108 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE e quindi P {X + Y > 2} = 1 6 2 3 3 1 1 2 1 7 + + = + + = . 6 10 3 10 10 6 10 10 20 20 Passando al punto successivo: P {X = 1, X + Y > 2} P {X = 1, Y = 2} = P {X + Y > 2} P {X + Y > 2} 2 3 P {X = 1}P {Y = 2} 4 = = 3 710 = . 7 P {X + Y > 2} 20 P {X = 1|X + Y > 2} = Infine essendo E[X + Y ] = E[X] + E[Y ] e 2 1 +2· =1 3 6 3 3 6 E[Y ] = 0 · P {Y = 0} + 1 · P {Y = 1} + 2 · P {Y = 2} = 1 · + 2 · = 5 10 5 E[X] = 0 · P {X = 0} + 1 · P {X = 1} + 2 · P {X = 2} = 1 · segue E[X + Y ] = E[X] + E[Y ] = 1 + 6 11 = . 5 5 ♣ Soluzione 3.22. 1 1 1 1 + − = p p p p P {2.5 ≤ X + Y + Z ≤ 4.2} = P {X + Y + Z = 3} + P {X + Y + Z = 4} = P (X = 1, Y = 1, Z = 1) + P (X = 2, Y = 1, Z = 1) + P (X = 1, Y = 2, Z = 1) + P (X = 1, Y = 1, Z = 2) = P (X = 1)P (Y = 1)P (Z = 1) + P (X = 2)P (Y = 1)P (Z = 1) + P (X = 1)P (Y = 2)P (Z = 1) + P (X = 1)P (Y = 1)P (Z = 2) = p3 + 3p · p · p(1 − p) Cov(X + Y, X − Y ) = Cov(X, X) + Cov(Y, X) − Cov(Y, X) − Cov(Y, Y ) = Var(X) − Var(Y ) = 0 ., m= essendo le variabili X, Y, Z identicamente distribuite. ♣ 109 3.8. ALTRI ESERCIZI Soluzione 3.23. Indichiamo con A = “il messaggio proviene dalla sorgente A” B = “il messaggio proviene dalla sorgente B” C = “viene ricevuto un messaggio in cui ci sono 0.4n bit uguali a 1” 1 pA = “probabilità che la sorgente A emetta un 1” = 2 1 pB = “probabilità che la sorgente B emetta un 1” = . 4 Dobbiamo calcolare P (A|C). Essendo: P (A|C) = P (C|A)P (A) P (C) Poniamo: X = |E1 | + · · · + |En | da cui: XA ∼ B(n, pA ) XB ∼ B(n, pB ) e quindi poichè risulta: ! 10 10 1 P (C|A) = P (XA = 4) = 2 4 ! 4 6 10 1 3 P (C|B) = P (XB = 4) 4 4 4 segue,poichè P (C) = P (C|A)P (A) + P (C|B)P (B) ! 10 P (A|C) = P (C|A)P (A) = P (C|A)P (A) + P (C|B)P (B) 4 ! 10 4 = 1 2 1 2 + 3 6 4 1 10 2 1 2 + 1 10 1 2 2 ! 10 4 1 4 4 3 6 1 4 4 ≈ 0.5841 Nel caso successivo, basta considerare la relazione precedente con P (A) = 0.3 e P (B) = 0.7: 10 1 10 0.3 2 4 P (C|A)P (A) P (A|C) = = P (C|A)P (A) + P (C|B)P (B) 10 1 4 3 6 10 1 10 0.3 + 0.7 2 4 4 4 4 = 1 0.3 4 1 0.3 4 6 + 34 ≈ 0.376 . 0.7 110 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE Da cui P (B|C) = 1−P (A|C) = 0.624 e quindi in questo caso è la sorgente B la più probabile. ♣ Soluzione 3.24. Per quanto riguarda il calcolo di P (B), considerata la partizione dell’evento certo Ω in Ω = A ∪ Ac , possiamo scrivere: P (B) = P (B ∩ Ω) = P (B ∩ (A ∪ Ac )) = P (B ∩ A) + P (B ∩ Ac ) = P (A)P (B|A) + P (Ac )P (B|AC ) . Osserviamo che se si verifica l’evento A, nell’urna U2 avremo 2 palline bianche e 3 nere; pertanto risulta: 2 2 3 P (B|A) = P (A|B c ) = 1 − = . 5 5 5 Inoltre, tenendo conto che in base alla composizione iniziale dell’urna U1 , segue: 2 1 2 0 1 P (A) = = 3 3 2 da cui si ottiene: 1 2 2 3 8 · + · = . 3 5 3 5 15 Per il teorema delle probabilità composte segue: P (B) = P (A|B) = P (A ∩ B) P (A)P (B|A) = = P (B) P (B) 12 35 8 15 = 1 . 4 Infine per il teorema delle probabilità totali si ha: P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 1 8 2 5+8−2 11 + − = = . 3 15 15 15 15 ♣ Soluzione 3.26. Indichiamo con P (Ai ) e P (Bi ) rispettivamente la probabilità che la squadra A o B vinca la i-esima partita, con i = 1, . . . , 7. In base alle ipotesi del problema risulta P (Ai ) = P (Bi ) = 21 . Non è pertanto ammesso il risultato di pareggio. In base alle regole fissate, il torneo si conclude quando una delle due squadre collezione 4 vittorie. La probabilità che il torneo si concluda entro sei partite è quindi data dalla somma della probabilità che la squadra A vinca quattro partite fra le prime sei e della probabilità che la squadra B vinca quattro partite fra le prime sei. Poichè le due squadre hanno la stessa probabilità di vincere ciascuna partita, allora le due squadre hanno la stessa probabilità di vincere il torneo entro sei 111 3.8. ALTRI ESERCIZI partite; pertanto la probabilità che il torneo si concluda entro sei partite è pari al doppio della probabilità che una delle due squadre (ad esempio la squadra A) vinca il torneo entro sei partite. Indicato con XA il numero (aleatorio) necessario affinchè la squadra A vinca il torneo, si ha che XA segue una distribuzione binomiale negativa N B(4, 12 ). Essendo P (il torneo si conclude entro 6 partite) = 2 · P (XA ≤ 6) segue: P (XA ≤ 6) = P (XA = 4) + P (XA = 5) + P (XA = 6) 4 0 4 4 2 1 1 1 1 1 1 3 4 5 + + = 3 3 3 2 2 2 2 2 2 1 1 1 11 = + 4 + 10 = . 16 32 64 32 e quindi P (il torneo si conclude entro 6 partite) = 2 · 11 11 = . 32 16 Per quanto concerne il secondo punto, poichè le prime due partite sono state vinte dalla squadra A, il torneo si conclude in sei partite se la squadra A consegue una vittoria nella terza o quarta o quinta partita e una vittoria nella sesta partita, oppure se la squadra B consegue quattro vittorie consecutive. Nel primo caso la probabilità è data da: 2 2 1 1 1 3 =3 , 1 2 2 16 mentre nel secondo caso la probabilità che la squadra B vinca quattro partite cosecutive è: 4 1 1 = . 2 16 In definitiva la probabilità richiesta è: 3 1 4 1 + = = . 16 16 16 4 ♣ Soluzione 3.25. Sia X la v.a. ”numero di potenziali consumatori che ha visto almeno uno spot della campagna pubblicitaria”. In base alle ipotesi, si ha X ∼ B(150, 0.3). Ne segue che il numero atteso è dato da: E[X] = np = 150 · 0.3 = 45 . Per affrontare il secondo punto, consideriamo l’approssimazione normale alla distribuzione binomiale B(n, p) ≈ N (np, npq) ⇒ B(150, 0.3) ≈ N (45, 31.5) 112 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE e quindi, considerando la correzione per continuità, 1 49.5 − 45 P (X ≥ 50) ≈ P X ≥ 50 − = P (Z ≥ 0.8018) =P Z≥ √ 2 31.5 = 1 − Φ(0.8018) = 1 − 0.7887 = 0.2113 . ♣ Soluzione 3.26. La v.a. X2 ha funzione di densità: −1 e se x = 0, 1, 2, . . . x! p(x) = 0 altrimenti. Si ha pertanto: x 0 1 2 3 4 5 6 p(x) 0.3679 0.3679 0.1839 0.0613 0.0153 0.0031 0.0005 F (x) 0.3679 0.7358 0.9197 0.9810 0.9963 0.9994 0.9999 Il diagramma della funzione di ripartizione è costante a tratti. Per quanto concerne il secondo quesito, si ha: E[Y ] = E[3X1 ] = 3 · E[X1 ] = 3 · 3 = 9 P (Y ≤ 9) = P (3X1 ≤ 6) = P (X1 ≤ 2) = P (X1 = 0) + P (X1 = 1) + P (X1 = 2) 0 3 31 32 −3 =e + + = 0.0498 · (1 + 3 + 4.5) = 0.4232 . 0! 1! 2! Infine si ha: E[W ] = E[2X1 − X2 ] = 2 · E[X1 ] − E[X2 ] = 2 − 3 = −1 Var[W ] = Var[2X1 − X2 ] = 4 · Var[X1 ] + Var[X2 ] = 4 + 3 = 7 . ♣ 113 3.8. ALTRI ESERCIZI Soluzione 3.28. Sul primo punto, si ha: P (X ≥ 2) = 1 − P (X ≤ 1) = 1 − (P (X = 0) + P (X = 1)) 0 4 41 −4 + = 1 − e−4 (1 + 4) = 1 − 5e−4 = 0.9084 =1−e 0! 1! P (3X ≤ 2) = P (X ≤ 2/3) = P (X = 0) = e−4 = 0.0183 . ♣ Soluzione 3.29. Il problema viene inquadrato all’interno di un modello binomiale, trattandosi di prove ripetute, indipendenti ed equiprobabili. Sia X il numero di successi nelle 10 prove, allora X ∼ B(10, p) dove p è la probabilità di successo nella generica prova, che risulta incognita. In base alle ipotesi del problema si ha: P (X = 4) = 0.2377 e P (X = 5) = 0.1536 cioè 10 4 p (1 − p)10−4 = 0.2377 4 10 5 p (1 − p)10−5 = 0.1536 5 da cui, considerando il rapporto membro a membro, segue: 10 4 p (1 − p)10−4 0.2377 4 = 10 5 0.1536 p (1 − p)10−5 5 da cui, svolgendo i calcoli, segue: 10 4 10! p (1 − p)6 p4 (1 − p)6 5!5! (1 − p) 5 (1 − p) 0.2377 4 4!(10 − 4)! = = = = 10! 10 5 4!6! p 6 p 0.1536 p5 (1 − p)5 p (1 − p)5 5!(10 − 5)! 5 da cui l’equazione: 5 (1 − p) 0.2377 = 6 p 0.1536 e quindi 1 − p = p · 1.8570 ⇒ ⇒ (1 − p) 0.2377 6 = = 1.8570 p 0.1536 5 1 = p(1 + 1.8570) ⇒ p= 1 = 0.35 . 2.8570 In definitiva si ha X ∼ B(10, 0.35) e quindi: 10 P (X = 1) = 0.35 · (1 − 0.35)10−1 = 10 · 0.35 · 0.659 = 0.0725 : . 1 ♣ 114 CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE Soluzione 3.30. Poniamo: A : “la risposta esatta è A”, X : “numero di risposte A fornite dall’ufficio competente su n = 3 richieste”. Indicata con p la probabilità che l’ufficio competente fornisca la risposta esatta, in base ai dati del problema si ha p = 0.6; assumendo che le risposte (corretta/non corretta) ottenute dall’ufficio competente costituiscano eventi indipendenti, allora possiamo modellare la distribuzione di X (assumendo che la risposta esatta sia A) mediante una legge binomiale di parametri n = 3 e p = 0.6, cioè X|A ∼ B(3, 0.6); al contrario se la risposta esatta fosse B si avrebbe X|B ∼ B(3, 0.4). Inoltre per ipotesi risulta P (A) = P (B) = 0.5. Per teorema di Bayes si ha: P (A|X = 2) = P (X = 2|A)P (A) P (X = 2|A) = P (X = 2|A)P (A) + P (X = 2|B)P (B) P (X = 2|A) + P (X = 2|B) 3 0.62 · 0.4 0.6 2 = = = 0.6 3 3 0.6 + 0.4 2 2 0.6 · 0.4 + 0.4 · 0.6 2 2 ♣