2.8.1 Soluzioni

Transcript

2.8.1 Soluzioni
79
2.8. ALTRI ESERCIZI
2.8.1
Soluzioni
Soluzione 2.24.
x1
x2
x3
y1
0.02
0.03
0.05
0.1
y2
0.06
0.09
0.15
0.3
y3
0.12
0.18
0.3
0.6
0.2
0.3
0.5
1
♣
Soluzione 2.26. Indichiamo con Xa la variabile aleatoria ”guadagno in una partita seguendo la
strategia a”; analogamente per le v.a.
Xb e Xc .
Lo spazio degli eventi è
Ω = {CCC, CCT, CT C, CT T, T CC, T CT, T T C, T T T }; per l’ipotesi di regolarità della moneta, si assume che gli eventi siano tutti equiprobabili con p = 1/8. In corrispondenza di ciascun
evento ω = (ω1 , ω2 , ω3 ) ∈ Ω, i valori di Xa , Xb , Xc sono riportati nella seguente tabella:
(ω1 , ω2 , ω3 )
CCC
CCT
CTC
CTT
TCC
TCT
TTC
TTT
Xa (ω)
−7
1
1
1
1
1
1
1
Xb (ω)
−3
−1
−1
1
1
1
1
1
Xb (ω)
−3
−1
−1
1
−1
1
1
3
Calcolando i valori attesi di Xa , Xb , Xc , si ottiene:
E(Xa ) = E(Xb ) = E(Xc ) = 0 .
Pertanto le tre strategie di gioco sono mediamente equivalenti. Per quanto riguarda la variabilità,
tenendo conto del risultato precedente, si ha:
56
1
Var(Xa ) = E(Xa2 ) = [(−7)2 + 12 + 12 + 12 + 12 + 12 + 12 + 12 ] =
=7
8
8
1
16
Var(Xb ) = E(Xb2 ) = [(−3)2 + (−1)2 + (−1)2 + 12 + 12 + 12 + 12 + 12 ] =
=2
8
8
1
24
Var(Xc ) = E(Xc2 ) = [(−3)2 + (−1)2 + (−1)2 + 12 + (−1)2 + 12 + 12 + 32 ] =
=3
8
8
e quindi la strategia a è quella che presenta la maggiore variabilità.
♣
80
CAPITOLO 2. VARIABILI ALEATORIE DISCRETE
Soluzione 2.27. Bisogna calcolare dapprima la probabilità p che una prova venga annullata;
successivamente il numero atteso N di prove annullate sarà dato da N = 40p.
La prova di uno studente viene annullata se, in almeno uno dei tre tentativi, lo studente viene
scoperto dal docente, dove in ciascuna delle tre prove lo studente viene scoperto con probabilità
0.1 e non viene scoperto con probabilità 0.9. In questo caso per calcolare la probabilità p
richiesta, è conveniente calcolare la probabilità 1−p dell’evento complementare che lo studente
non venga scoperto, che è data da:
1 − p = 0.93 = 0.7290
♣
da cui p = 0.2710 e N = 10.84.
Soluzione 2.28. Innanzitutto è bene osservare che le due opzioni A e B hanno la stessa speranza matematica. Infatti, denotato con X la v.a. ”ricavo finale per ciascun euro investito”,
in base ai dati del problema risulta E[X] = 1.1 e Var(X) = 0.5. Denotate poi con A e B i
guadagni ottenuti rispettivamente in base alle due strategie A e B, si ha:
A := 1000Xs + 1500Xt + 2500Xu
B := 5000Xv
dove Xs , Xt , Xu e Xv sono le quantità aleatorie ”ricavo per ciascun euro investito nel titolo
azionario considerato (s, t, u, v)” aventi tutte la stessa speranza matematica e la stessa varianza.
da cui
E[A] = 1000E[Xs ] + 1500E[Xt ] + 2500E[Xu ] = 1000 · 1.1 + 1500 · 1.1 + 2500 · 1.1 = 5500
E[B] = 5000 · E[Xv ] = 5000 · 1.1 = 5500 .
Sono invece diverse invece le varianze. Poichè la varianza della somma di v.a. indipendenti è
uguale alla somma delle varianze delle rispettive v.a., tenento conto che Var(X) = 0.52 = 0.25:
Var(A) = Var(1000Xs + 1500Xt + 2500Xu )
= 10002 Var(Xs ) + 15002 Var(Xt ) + 25002 Var(Xu )
= 106 · 0.25 + 2.25 · 106 · 0.25 + 6.25 · 106 · 0.25 = 9.5 · 106 · 0.25 = 2.375 · 106
Var(B) = Var(5000Xv ) = 50002 Var(Xv ) = 25 · 106 · 0.25 = 6.25 · 106 .
Quindi, sebbene mediamente le due opzioni siano equivalenti, la seconda è maggiormente
rischiosa: statisticamente può consentire perdite o ricavi maggiori della prima.
♣
Soluzione 2.29.
Lo spazio degli eventi Ω è il seguente:
Ω = {T T, CT, T C, CC} .
ciascuno con probabilità 41 in quanto assumiamo l’indipendenza degli eventi elementari {C, T }
associati a ciascun lancio, cioè ad esempio P (T T ) = P (T ) · P (T ) = 12 12 = 14 .
81
2.8. ALTRI ESERCIZI
Considerata la v.a. X=”numero di teste ottenute in due lanci consecutivi di una moneta
equilibrata”, ne segue che la funzione di densità assume valori strettamente positivi nell’insieme
X = {0, 1, 2}:
f (0) = P (X = 0) = P (CC) =
1
= 0.25
4
f (1) = P (X = 1) = P (CT ) + P (T C) =
f (2) = P (X = 2) = P (T T ) =
1
= 0.5
2
1
= 0.25 .
4
Si ha pertanto:
f (x) =




0.25 per x = 0







 0, 50 per x = 1



0, 25 per x = 2







 0
altrove.
f (x)
6
1/2
1/4
1/4
-
0
1
2
x
La funzione di ripartizione F (x) viene costruita a partire dalla funzione di densità in base
alla sua definizione:
F (t) = P (X ≤ t).
82
CAPITOLO 2. VARIABILI ALEATORIE DISCRETE
Si ha pertanto:

0



 0.25
F (x) =

0.75



1.00
per x < 0
per 0 ≤ x < 1
per 1 ≤ x < 2
per 2 ≤ x
e tale funzione ha la seguente rappresentazione grafica:
f (x)
6
r
1.00
r
0.75
0.25
r
-
0
1
2
x
Infine il calcolo della costante c tale che E(cX) = 5 si ottiene facilmente tenendo conto che
E(cX) = cE(X) e che la speranza matematica di X è data da:
E(X) = 0 · 0.25 + 1 · 0.5 + 2 · 0.25 = 1 .
♣
Pertanto c = 1.
Soluzione 2.30.
E’ sufficiente considerare lo spazio dei possibili risultati:
Ω = {(CCC), (CCT ), (CT C), (CT T ), (T CC), (T CT ), (T T C), (T T T )}
e quindi l’evento richiesto A in funzione dei singoli eventi elementari:
A = {(CCC), (T CC), (T T C), (T T T )} .
Da cui segue:
P (A) =
#A
4
1
= = .
#Ω
8
2
83
2.8. ALTRI ESERCIZI
In maniera analoga, nel secondo punto, si considera l’evento certo:
Ω = {(CCCC), (CCCT ), (CCT C), (CCT T ), (CT CC), (CT CT ), (CT T C), (CT T T ),
(T CCC), (T CCT ), (T CT C), (T CT T ), (T T CC), (T T CT ), (T T T C), (T T T T )} .
e quindi l’evento A richiesto:
A = {(CCCC), (T T T C), (T T T T )}
Da cui segue:
P (A) =
#A
3
3
=
=
.
#Ω
16
16
♣
Soluzione 2.33. I valori richiesti si ottengono da un sistema di due equazioni in due incognite.
La prima equazione si ottiene tenendo conto che la somma delle probabilità deve essere uguale
a 1, da cui segue a + b = 0.3; la secondoa si ottiene direttamente dalla condizione imposta:
E[Y ] = 2.3 + 2b + 3a = 3.
♣
Soluzione 2.34.
Dalla condizione E(Y ) = 0.95 segue:
E(Y ) = 1 · (0.25 + α) + 2 · 0.25 = 0.25 + α + 0.5 = 0.75 + α = 0.95
da cui α = 0.2. Successivamente, per la condizione di coerenza, si ha:
0.35 + (0.15 + β) + (0.10 + α) = 0.35 + (0.15 + β) + (0.1 + 0.2) = 0.8 + β = 1
da cui β = 1. la tabella si scrive quindi
X
1
Y
2
3
0 0.10
0.20
0.00
0.30
1 0.10
0.15
0.20
0.45
2 0.15
0.00
0.10
0.25
0.35
0.35
0.30
1.00
Per il calcolo della covarianza richiesto si osservi preliminarmente che Cov(3X + 2, 5Y − 1) =
3 · 5 · Cov(X, Y ). Essendo Cov(X, Y ) = E(XY ) − E(X)E(Y ), calcoliamo quindi:
E(XY ) = 1 · 1 · 0.1 + 1 · 2 · 0.15 + 1 · 3 · 0.2 + 2 · 1 · 0.15 + 2 · 3 · 0.1
= 0.1 + 0.3 + 0.6 + 0.3 = 1.3
E(X) = 1 · 0.35 + 2 · 0.35 + 3 · 0.30 = 1.95
E(Y ) = 0.95
da cui Cov(X, Y ) = 1.3−1.95·0.95 = −0.5525 e quindi Cov(3X+2, 5Y −1) = 15Cov(X, Y ) =
8.2875.
♣
84
CAPITOLO 2. VARIABILI ALEATORIE DISCRETE
Soluzione 2.36.
Per definizione si ha:
ρxy =
Cov(X, Y )
σx σy
da cui in base alle ipotesi ρxy = 0.5 e σx = σy = σ segue:
0.5 =
Cov(X, Y )
σ2
⇒
Cov(X, Y ) =
σ2
.
2
Con lo stesso ragionamento si ottiene Cov(X, Z) = Cov(Y, Z) = σ 2 /2.
In base alle proprietà del coefficiente di correlazione si ha pertanto:
Cov(2X, −Y ) = 2 · (−1) · Cov(X, Y ) = −σ 2 .
Per il punto successivo si ha:
Var(X − Y ) = Var(X) + Var(Y ) + 2Cov(X, −Y ) = σ 2 + σ 2 − 2
σ2
= σ2.
2
Infine:
1
Var(X + Y − Z)
σ2
1
= 2 [Var(X) + Var(Y ) + Var(Z)+
σ
+2Cov(X, Y ) − 2Cov(X, Z) − 2Cov(Y, Z)]
1
σ2
σ2
σ2
2
2
2
=2
= 2 σ +σ +σ +2 −2 −2
σ
2
2
2
Var(X/σ + Y /σ − Z/σ) =
♣
Capitolo 3
Principali distribuzioni di probabilità
discrete
Vogliamo ora presentare alcune distribuzioni di probabilità notevoli che costituiscono lo schema
teorico di fenomeni naturali di vario tipo. In questo capitolo consideriamo alcune distribuzioni
di probabilità di tipo discreto; in seguito affronteremo le distribuzioni di probabilità di tipo
continuo.
3.1
La distribuzione uniforme
La distribuzione uniforme è la distribuzione di eventi equiprobabili. Diremo che una variabile
aleatoria X segue una distribuzione uniforme su {1, 2, . . . , n} se ha funzione di probabilità:


1


per 1, 2 . . . , n
n
p(x) :=


 0 altrimenti.
In tal caso diremo che X segue una distribuzione uniforme e scriveremo X ∼ U (n).
Speranza matematica e Varianza.
Tenendo conto che:
n(n + 1)
2
n(n
+ 1)(2n + 1)
12 + 22 + · · · + n2 =
6
1 + 2 + ··· + n =
possiamo calcolare speranza matematica e varianza:
E(X) =
1
1 n(n + 1)
n+1
(1 + 2 + · · · + n) =
=
n
n
2
2
85
86
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
-
1
2
3
4
5
6
7
8
9
x
10
Figura 3.1: Funzione di probabilità di distribuzione uniforme discreta su {1, 2, . . . , 10}.
e quindi la varianza di X:
2
n+1
1 2
2
2
Var(X) = E(X ) − µ = (1 + 2 + · · · + n ) −
n
2
2
1 n(n + 1)(2n + 1)
n+1
n+1
=
−
=
[2(2n + 1) − 3(n + 1)]
n
6
2
12
n2 − 1
=
.
12
2
3.2
2
La distribuzione binomiale
La distribuzione binomiale è la distribuzione di probabilità del numero di
successi in una successione di n prove ripetute ed indipendenti in ciascuna delle quali vi è
probabilità costante di successo. Data una successione di n eventi A1 , A2 , . . . , An indipendenti
ed equiprobabili, con P (A1 ) = · · · = P (An ) = p, la variabile aleatoria:
X := |A1 | + |A2 | + · · · + |An |
(3.1)
fornisce il numero di successi ottenuto nelle n prove. Ovviamente il numero di successi che
può essere ottenuto nelle n prove è un numero intero compreso fra 0 e n; pertanto X assume
valori nell’insieme ΩX = {0, 1, . . . , n}. Vogliamo calcolare la distribuzione su ΩX originata
dalla v.a. X.
Consideriamo dapprima il caso in cui nelle prime x prove A1 , . . . , Ax si ottenga un successo
e nei successive n − x prove Ax+1 , . . . , An si ottenga un insuccesso, per x ∈ {0, 1, . . . , n}; cioè
l’evento A1 . . . Ax Acx+1 . . . Acn . Poichè per ipotesi gli eventi A1 , . . . , An sono stocasticamente
indipendenti ed equiprobabili, si ha:
P (A1 , . . . , Ax , Acx+1 , . . . , Acn ) = P (A1 ) · · · P (Ax )P (Acx+1 ) · · · P (Acn )
n−x volte
x volte
}|
{
z }| { z
= p · · · p · (1 − p) · · · (1 − p)
= px (n − p)n−x .
87
3.2. LA DISTRIBUZIONE BINOMIALE
L’evento {X = x}, cioè l’evento “si sono ottenuti x successi nelle n prove”, è dato dall’unione
di tutti gli eventi contenenti esattamente x successi e n − x insuccessi (ovviamente l’ordine non
ha alcuna importanza); tali eventi sono disgiunti ed equiprobabili in quanto ciascuno di essi ha
probabilità px (n − p)n−x . Il numero di tali eventi è uguale al numero di combinazioni di classe
x da un insieme di n elementi. Si ha pertanto:
n x
P {X = x} =
p (1 − p)n−x
x
x = 0, 1, . . . , n
Possiamo scrivere pertanto:
 n x


p (1 − p)n−x se x = 0, 1, . . . , n

x
p(x) :=


 0
altrimenti.
(3.2)
In tal caso diremo che X segue una distribuzione binomiale e scriveremo X ∼ B(n, p).
P
Vogliamo dimostrare che la (3.2) gode della proprietà x∈ΩX p(x) = 1. In base alla formula
del binomio di Newton, si ha che per a, b ∈ R e per ogni n:
n
(a + b)
=
n X
n
k=0
x
ak bn−k .
In particolare, per a = p e b = 1 − p, si ottiene
1 =
n X
n
k=0
x
pk (1 − p)n−k ,
cioè la nostra tesi.
Esempio 3.1 Sia X ∼ B(10, 0.3). Si ha allora:
10 · 9 2
10
10! 2
0.3 · 0.78 =
0.3 · 0.78 = 45 · 0.32 · 0.78
P (X = 2) =
0.32 · 0.78 =
2!8!
2
2
= 0.2335
P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
10
10
10
0
10
1
9
=
0.3 · 0.7 +
0.3 · 0.7 +
0.32 · 0.78
0
1
2
= 0.0282 + 0.1211 + 0.2335 = 0.3828
P (X > 3) = 1 − P (X ≤ 2) = 1 − (P (X = 0) + P (X = 1) + P (X = 2))
= 1 − 0.3828 = 0.6172 .
88
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
-
0
1
2
3
4
5
6
7
8
9
x
10
Figura 3.2: Funzione di probabilità distribuzione binomiale di parametri n = 10 e p = 0.3.
Speranza matematica e Varianza. Per il calcolo della speranza matematica e della varianza
di X, premettiamo il calcolo della speranza e della varianza di |Ai |:
E(|Ai |) = 1 · p + 0 · (1 − p) = p
Var(|Ai |) = E(|Ai |2 ) − {E(|Ai |)}2 = p − p2 = p(1 − p) .
(3.3)
(3.4)
Pertanto dalla proprietà (2.22) della speranza e dalla (2.40) della varianza, la speranza matematica e la varianza di una variabile aleatoria X ∼ B(n, p) sono date rispettivamente da:
E(X) =
=
Var(X) =
=
E(|A1 |) + E(|A2 |) + · · · + E(|An |)
p + p + · · · + p = np
Var(|A1 |) + Var(|A2 |) + · · · + Var(|An |)
p(1 − p) + p(1 − p) + · · · p(1 − p) = np(1 − p) .
(3.5)
(3.6)
Proposizione 3.2 Siano X1 , . . . , Xk v.a. indipendenti, con Xi ∼ B(ni , p) per i = 1, . . . , k.
Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione B(n1 + · · · + nk , p).
Dimostrazione. Poichè X1 segue una distribuzione binomiale di parametri n1 e p, allora vuol
dire che si può scrivere come:
X1 = |A1 | + · · · + |An1 | ,
dove A1 , . . . , An1 sono eventi indipendenti ed equiprobabili con P (Ai ) = p, (i = 1, . . . , n1 ).
Analogamente per le altre variabili X2 , . . . , Xk esisteranno eventi rispettivamente
89
3.2. LA DISTRIBUZIONE BINOMIALE
(An1 +1 , . . . , AN −1+n2 ), . . . , (Ank−1 +1 , . . . , Ank ) eventi indipendenti ed equiprobabili con probabilità p. Si ha pertanto:
X1 = |A1 | + · · · + |An1 |
X2 = |An1 +1 | + · · · + |An1 +n2 |
··· = ···
Xk = |An1 +···+nk−1 +1 | + · · · + |Ank |
e quindi considerara la variabile aleatoria:
X = X1 + · · · + Xk = |A1 | + · · · + |An1 +n2 +···+nk |
segue una distribuzione binomiale di parametri n = n1 + · · · + nk e p.
Il successivo corollario è segue immediatamente dal caso precedente per n1 = · · · = nk = n:
Corollario 3.3 Siano X1 , . . . , Xk v.a. indipendenti aventi distribuzione B(n, p) per i = 1, . . . , k.
Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione B(nk, p).
Esempio 3.4 Ad esempio, se X, Y sono v.a. indipendenti con X ∼ B(10, 0.2) e Y ∼ B(7, 0.2),
allora X + Y ∼ (17, 0.2)
Esempio 3.5 Sapendo che il 30 % dei passeggeri che hanno prenotato non si presenta alla
partenza, una compagnia aerea accetta fino a 28 prenotazioni su un volo con capienza 24 posti.
Qual è la probabilità che almeno un passeggero, che ha regolarmente prenotato, resti a terra?
Sia X =”numero di passeggeri che, avendo prenotato un posto sull’aereo, si presentano
per l’imbarco”. Evidentemente si ha X ∼ B(28, 0.7). Poichè l’aereo dispone di 24 posti, fra
coloro che hanno prenotato qualcuno non potrà partire se si presentano almeno 25 passeggeri al
check-in; la probabilità di tale evento è:
P (X ≥ 25) = P (X = 25) + P (X = 26) + P (X = 27) + P (X = 28) .
Poichè X ∼ B(28, 0.7) allora si ha:
28
P (X = 25) =
0.725 (1 − 0.7)28−25
25
28
P (X = 26) =
0.726 (1 − 0.7)28−26
26
28
P (X = 27) =
0.727 (1 − 0.7)28−27
27
28
P (X = 28) =
0.728 (1 − 0.7)28−28
28
= 0.0119
= 0.0032
= 0.006
= 4.6 · 10−5
E quindi, la probabilità che al più 24 passeggeri si presentino per l’imbarco è data da
P (X ≥ 25) = 0.0157 = 1.57% .
♣
90
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
Esempio 3.6 Analizzando le acque di scarico di un’industria fortemente inquinata, si è osservato che una frazione θ = 0.7 di campioni di tali acque contiene una sostanza fortemente nociva
e che tale sostanza di campioni inquinati si riduce a θD = 0.4 se l’industria mette in funzione
l’impianto di depurazione di cui è dotata (ma che ha un costo di esercizio molto elevato). Le
autorità sanitarie effettuano senza preavviso un controllo delle acque di scarico, analizzando
n = 12 campioni e trovando la sostanza nociva in h = 7 di essi. Assumendo che, prima di
effettuare il prelievo, la probabilità che l’impianto di depurazione sia attivo o meno sia la stessa
(cioè P (D) = P (Dc ) = 0.5), qual è la probabilità che l’impianto sia attivo dopo aver preso
visione dei risultati?
Sia X = “numero di campioni inquinati da un insieme di 12 prelievi”. L’insieme di tutti
i possibili campioni che si possono prelevare dalla acque di scarico, rispettivamente nei due
casi D e Dc (depuratore in funzione o fermo al momento del prelievo), si può identificare con
un’urna contenente palline bianche (corrispondente ai campioni contenenti la sostanza nociva)
nelle proporzioni θD = 0.4 oppure θ = 0.7. Allora ricorrendo all’approssimazione binomiale,
si può scrivere:
12
P (X = 7|D) =
0.47 0.65 = 0.101
7
12
c
P (X = 7|D ) =
0.77 0.35 = 0.158 .
7
E quindi per il teorema di Bayes, supponendo equiprobabili le due ipotesi in esame, cioè
P (D) = P (Dc ) = 1/2 (ma se si hanno altre informazioni questa scalta non è obbligatoria), si
ha:
P (X = 7|D)P (D)
0.101
=
= 0.390
c
c
P (X = 7|D)P (D) + P (X = 7|D )P (D )
0.101 + 0.158
P (X = 7|Dc )P (Dc )
0, 158
P (Dc |X = 7) =
=
c
c
P (X = 7|D)P (D) + P (X = 7|D )P (D )
0.101 + 0.158
= 1 − P (D|X = 7) = 0.610 .
P (D|X = 7) =
♣
Esercizio 3.7 Una moneta è stata truccata in maniera tale che su 20 lanci l’evento ”testa” su
presenti 6 volte con probabilità 0.171 e 7 volte con probabilità 0.184. Qual è la probabilità che
su 10 lanci l’evento ”testa” non si verifichi mai?
3.3 La distribuzione ipergeometrica
La distribuzione ipergeometrica segue lo stesso schema della legge binomiale ma, a
differenza di quest’ultima, si considerano esperimenti senza reimmissione. Considerata una
91
3.3. LA DISTRIBUZIONE IPERGEOMETRICA
successione (finita) di n estrazioni senza ripetizione da un’urna contenente N palline, di cui
una frazione pN bianche (con 0 < p < 1) e la restante parte qN = (1 − p)N non bianche, sia
X il numero di palline bianche X ottenute in una successione di n estrazioni con reimmissione.
In questo caso ΩX è costituito dall’insieme dei valori interi tali che:
max{0, n − qN } ≤ x ≤ min{n, pN } .
Infatti in questo caso si tratta di estrazioni senza reimmissione ed indicano che il numero minimo e massimo di successi ottenibili in n estrazioni dipendono dal numero N di palline e dalla
proporzione p di palline bianche contenute nell’urna. Pertanto se il numero di palline estratte
n è superiore al numero di palline nere presenti nell’urna, il numero minimo di palline bianche
non può essere 0 ma pari a n−qN ; al contrario non si può estrarre un numero di palline bianche
superiore a quello presente nell’urna.
La funzione di probabilità data da:

pN
(1−p)N


 ( x )(Nn−x ) se max{0, n − qN } ≤ x ≤ min{n, pN }
(n)
p(x) :=


 0
altrimenti.
In questo caso diremo che la variabile aleatoria X segue una distribuzione ipergeometrica di
parametri
interi positivi N, p e n, e scriveremo X ∼ H(N, p, n). La verifica della condizione
P
x p(x) = 1 è abbastanza laboriosa e verrà qui omessa.
Si noti che anche in questo caso la v.a. X è data da:
X = |A1 | + |A2 | + · · · + |An |
(3.7)
dove gli eventi A1 , . . . , An sono equiprobabili, con P (Ai ) = p per i = 1, . . . , n, ma non indipendenti. Si ha infatti:
P (A1 ) = p
P (A2 ) = P (A2 |A1 )P (A1 ) + P (A2 |Ac1 )P (Ac1 ) =
pN − 1
pN
p+
(1 − p) = p .
N −1
N −1
Iterando il ragionamento per i = 3, . . . , N si vede che P (Ai ) = p per ogni i.
Si può dimostrare che per N → ∞, mantenendo costante la proporzione p di palline bianche,
si ha:
pN
(1 − p)N
n x
x
n−x
lim
=
p (1 − p)n−x
(3.8)
N →∞
N
x
n
e pertanto la distribuzione binomiale costituisce il limite della distribuzione ipergeometrica per
N → ∞.
92
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
Speranza matematica e Varianza.
In base alla (3.7), la speranza matematica è da:
E(X) = E(|A1 |) + E(|A2 |) + · · · + E(|An |) = np ,
(3.9)
Per quanto riguarda la varianza, dalla (3.7) segue:
Var(X) =
n
X
Var(|Ai |) +
i=1
X
Cov(|Ai |, |Aj |) .
(3.10)
i6=j
In base a quanto visto in precedenza nella (3.4) si ha Var(|Ai |) = pq.
Per il calcolo della covarianza Cov(|Ai |, |Aj |), consideriamo la relazione (2.35) che nel caso
qui in esame si scrive:
Cov(|Ai |, |Aj |) = E(|Ai | · |Aj |) − E(|Ai |)E(|Aj |) .
Si noti che risulta |Ai | · |Aj | = |Ai ∩ Aj | = 1 se e solo l’evento Ai ∩ Aj è vero; e quindi si ha:
E(|Ai | · |Aj |) = E(|Ai ∩ Aj |) = P (Ai ∩ Aj ) = P (Ai )P (Aj |Ai )
pN − 1
=p
.
N −1
Segue pertanto
Cov(|Ai |, |Aj |) = E(|Ai | · |Aj |) − E(|Ai |)E(|Aj |) = p
pN − 1
− p2
N −1
e quindi sostituendo nella (3.10) si ottiene:
Var(X) =
n
X
i=1
Var(|Ai |) +
X
Cov(|Ai |, |Aj |) = npq + n(n − 1)p
i6=j
p−1
= npq + n(n − 1)p
N −1
n−1
= npq 1 −
.
N −1
pN − 1
−p
N −1
(3.11)
In particolare, per n = 1 la varianza della distribuzione ipergeometrica coincide con quella
della distribuzione binomiale in quanto se si effettua un’unica estrazione lo schema è lo stesso
nei due casi. Inoltre per valori grandi di N la varianza della distribuzione ipergeometrica tende
a quella della distribuzione binomiale, come del resto prevedibile in base alla (3.8).
Esercizio 3.8 Gli archivi di un ufficio sono stati memorizzati in 30 dischi da 100 Mbyte, contenenti ognuno 100 file. Un programma dovrà accedere a 28 di questi file (tutti diversi). Qual è
la probabilità che esso non debba usare il primo disco?
La situazione in esame si modellizza con uno schema successo-insuccesso senza rimpiazzo:
sono 20 prove ripetute in ognuna delle quali viene scelto un file fra i 3000 possibili. Consiedereremo “successo” la scelta di un file appartenente al primo disco (sono 100) e insuccesso la
93
3.4. LA DISTRIBUZIONE DI POISSON
-
0
1
T
n
2
T
n
n−1
T
n
T
x
scelta di uno degli altri dischi (2900 files). Non c’è restituzione perchè un file, una volta letto,
1
non verrà più richiamato in seguito, quindi X ∼ H(3000, 30
, 28). La probabilità richiesta è
dunque
100 2900
0
28
P (X = 0) =
= 0.385 .
3000
28
Se invece le 28 voci fossero state scelte a caso con possibilità di ripetizione, il numero di volte
1
in cui il programma avrebbe dovuto accedere al disco n.1 sarebbe stata una B(28, 30
). La
probabilità che il disco non venga consultato è
0 28
28
1
1
P (X = 0) =
1−
= 0.387.
0
30
30
Si noti che i due risultati sono molto vicini. Ciò è dovuto al fatto che le varianze delle due distribuzioni binomiale e ipergeometrica sono praticamente uguali, infatti nella (3.11) il rapporto:
27
n−1
=
= 0.009
N −1
2999
è molto prossimo allo zero.
♣
3.4 La distribuzione di Poisson
La distribuzione di Poisson è certamente una delle leggi di probabilità che trova maggiori applicazioni per descrivere fenomeni del mondo reale.
Tale distribuzione è anche detta
distribuzione degli eventi rari per sottolineare il fatto che in ciascuno dei casi in cui si applica, la probabilità che il singolo evento si verifichi è estremamente bassa. La distribuzione
di probabilità di Poisson può quindi servire da modello matematico per fenomeni del tipo: il
numero di automobili che si fermano ad una stazione di servizio in un certo intervallo di tempo,
numero di utenti che prelevano del denaro da uno sportello bancomat in un certo intervallo di
tempo, etc.
La distribuzione di Poisson può essere costruita a partire da una successione di prove indipendenti, secondo lo schema che ha condotto alla legge binomiale.
Si consideri un intervallo di lunghezza T > 0 ( e per semplicità si pensi a (0, T )) suddiviso
in n sottointervalli di lunghezza T /n. Si supponga che un certo evento A (successo) possa
94
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
manifestarsi con la stessa probabilità p = α(T /n) – proporzionale, secondo un coefficiente
α > 0, all’ampiezza T /n del singolo sottointervallo – ed in modo indipendente in ognuno dei
sottontervalli, e sia 1 − p = 1 − α(T /n) la probabilità che nel generico sottointervallo non si
manifesti l’evento A. Vogliamo ricavare la probabilità che l’evento A si presenti in x degli n
sottointervalli consederati.
Indicato con X il numero dei sottointervalli in cui si manifesta l’evento A, cioè il numero di
successi, le ipotesi adottate consentono di applicare la distribuzione binomiale, e si ha:
x n−x
αT
αT
n
x = 0, 1, 2, . . . , n.
1−
p(x) =
n
n
x
All’aumentare del numero n dei sottointervalli di (0, T ), si ha:
x n−x
n
αT
αT
(αT )x −αT
λx
lim
1−
=
e
= e−λ
n→∞ x
n
n
x!
x!
dove si è posto λ = αT > 0.
L’espressione precedente si ottiene considerando che:
x n−x
x
n
αT
αT
n(n − 1) · · · (n − x + 1)(n − x)! αT
1−
=
×
x
n
n
x!(n − x)!
n
n −x
αT
αT
1−
× 1−
n
n
n −x
αT
αT
1 n(n − 1) · · · (n − x + 1)
x
=
(αT ) 1 −
1−
x!
nx
n
n
e che per n → ∞ si ha:
n · n(1 − n1 ) · · · n(1 − x−1
)
n(n − 1) · · · (n − x + 1)
n
=
→1
x
n
n · n ·
··n
n
αT
1−
→ e−αT
n
−x
αT
1−
→1.
n
La legge di Poisson appare, in questo modo, come una distribuzione che approssima la
distribuzione binomiale nel caso in cui in questa si abbia un numero di prove n molto grande ed
una probabilità di successo p in ciascuna prova molto piccola (essendo np = λ = costante).
Più in generale, i campi di applicazione della distribuzione di Poisson si evincono meglio
dallo schema seguente. Si supponga di essere interessati ad un certo evento (ad esempio, incidenti automobilistico su un tratto di strada). Si indichi con η(s, s + t) il numero di volte in cui
l’evento in questione si verifica nell’intervallo temporale (s, s + t) e supponiamo che:
1. La probabilità che l’evento si verifichi in un intervallo di tempo di ampiezza t > 0 sia
uguale a αt, con α > 0, indipendentemente dall’origine dell’intervallo e per valori di t
sufficientemente piccolo:
P (η(s, s + t) = 1) = αt + o(t)
s≥0
95
3.4. LA DISTRIBUZIONE DI POISSON
2. la probabilità che in un intervallo di ampiezza h l’evento si verifichi più di una volta sia
trascurabile:
P (η(s, s + t) > 1) = o(t)
3. Il numero degli eventi che si verificano in due intervalli disgiunti siano stocasticamente
indipendenti, cioè dati s1 < s2 < s3 < s4 , allora le v.a. η(s1 , s2 ) e η(s3 , s4 ) sono
stocasticamente indipendenti.
Sotto le precedenti ipotesi si può dimostrare che:
x
−αt (αt)
P (η(0, t) = x) = e
x = 0, 1, 2, . . .
x!
Diremo che una variabile aleatoria X segue una distribuzione di Poisson di parametro λ > 0, e
scriveremo X ∼ P(λ), se ha la seguente funzione di probabilità:


λx

 e−λ
se x = 0, 1, 2, . . .
x!
p(x) :=
(3.12)


 0
altrimenti.
P
Per quanto riguarda la verifica della (2.6) ∞
x=0 p(x) = 1, consideriamo lo sviluppo in serie
della funzione esponenziale eλ :
∞
X
λk
eλ =
k!
k=0
da cui, moltiplicando ambo i membri per e−λ si ottiene
1=
∞
X
k=0
e−λ
λk
k!
cioè la nostra tesi.
Speranza matematica e Varianza.
E(X) :=
∞
X
−λ λ
x·e
x=0
La speranza matematica è data da:
x
x!
−λ
=e
∞
∞
X
X
λ · λx−1
λz
−λ
= λe
=λ.
(x − 1)!
z!
x=1
z=0
Per il calcolo della varianza premettiamo il calcolo del momento secondo:
2
E(X ) =
∞
X
x=0
2
−λ λ
x ·e
x
x!
−λ
=e
λ
∞
X
x=1
x
λx−1
(x − 1)!
Posto z = x − 1, segue
2
−λ
E(X ) = e
∞
X
∞
X
λz
λz
−λ
λ
(z + 1) = e λ
(z + 1) = λE(X + 1) = λ(λ + 1)
z!
z!
z=0
z=0
Segue pertanto:
Var(X) = E(X 2 ) − µ2 = λ(λ + 1) − λ2 = λ .
Pertanto, nel caso della distribuzione di Poisson, speranza matematica e varianza coincidono.
96
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
-
0
1
2
3
4
5
6
7
8
9
10
11
12
Figura 3.3: Funzione di probabilità distribuzione di Poisson con parametro λ = 4.
Approssimazione della distribuzione binomiale con quella di Poisson. Per
n > 50 e p < 0.1, si può approssimare una distribuzione Binomiale B(n, p) con una di Poisson
P(λ) di parametro λ = np
Proposizione 3.9 Siano X1 , . . . , Xk v.a. indipendenti, con Xi ∼ P (λi ) per i = 1, . . . , k.
Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione P (λ1 + · · · + λk ).
Esercizio 3.10 All’inizio di ogni mese, un negoziante ordina un certo prodotto per le vendite di
tutto il mese. Egli può plausibilmente assumere che la variabile delle unità di prodotto venduto
durante il mese segua una legge di Poisson con parametro λ = 4. Quante unità di prodotto deve
avere in magazzino affinchè abbia una probabilità dell’88% di non restare senza prodotto?
In base ai dati del problema, il numero X di unità vendute in un mese segue una distribuzione
di Poisson di parametro λ = 4, cioè X ∼ P(4). Ogni mese possono essere vendute 0 unità
di prodotto oppure un’unità di prodotto, etc. Indicato con k il numero di unità di prodotto da
ordinare, si richiede di determinare il più piccolo valore di k per cui risulti:
P (X ≤ k) =
k
X
P (X = x) =
x=1
k
X
x=1
e−4
4x
.
x!
Dalla funzione di probabilità della distribuzione di Poisson P(4) si ricavano i valori:
x P (X = x) P (X ≤ x)
0
0.0183
0.0183
1
0.0733
0.0916
2
0.1465
0.2381
3
0.1954
0.4335
4
0.1954
0.6289
5
0.1563
0.7852
6
0.1042
0.8894
7
0.0595
0.9489
8
0.0298
0.9787
x
3.4. LA DISTRIBUZIONE DI POISSON
97
e quindi segue che è necessario ordinare almeno k = 6 unità di prodotto.
♣
Esercizio 3.11 In una data succursale bancaria è stata valutata una probabilità p = 0.001 che
una persona effettui un prelievo superiore a 3000 euro. Calcolare la probabilità che, durante
una normale mattina di lavoro in cui si presentano 200 persone, vi siano più di due persone che
effettuino un prelievo superiore a 3000 euro.
Il problema richiede il calcolo della probabilità che in una successione di n = 200 prove
ripetute ed indipendenti, ciascuna delle quali presenta probabilità p = 0.001 di successo e
q = 1 − p = 0.999 di insuccesso, si verifichi un variabile di successi maggiore di due.
Il modello del problema è pertanto costituito da una distribuzione binomiale di
parametri n = 200 e p = 0.001. Tuttavia, essendo la probabilità di successo in ciascuna
prova molto piccola, lo stesso problema può essere formalizzato mediante una distribuzione di
Poisson di parametro λ = np = 0.2.
Indichiamo con X il ”numero di persone che effettuano un prelievo superiore a 6 milioni in
un normale giorno di lavoro”, il problema pertanto richiede il calcolo di
P {X > 2} =
200
X
P {X = k} .
k=3
Ovviamente il calcolo può essere semplificato tenendo presente che
P {X > 2} = 1 − P {X ≤ 2} = 1 − [P {X = 0} + P {X = 1} + P {X = 2}] .
Utilizziamo dapprima una distribuzione binomiale, in tal caso X ∼ B(200, 0.001), e pertanto si ha:
200 0
P {X = 0} =
p (1 − p)200 = 0.999200 = 0.8186
0
200
P (X = 1) =
p (1 − p)199 = 0.001 0.999199 = 0.1639
1
200 2
P (X = 2) =
p (1 − p)198 = 0.0012 0.999198 = 0.0163
2
da cui
P {X > 2} = 1 − [P {X = 0} + P {X = 1} + P {X = 2}] = 0.0012 .
Utilizzando una distribuzione di Poisson di parametro λ = np = 0, 2, cioè X ∼ P(0.2), si
ha:
e−λ λ0
= e−0.2 = 0.8187
0!
e−λ λ1
P {X = 1} =
= e−0,2 0, 2 = 0.1637
1!
e−λ λ2
e−0.2 0, 22
P {X = 2} =
=
= 0.0164
2!
2
P {X = 0} =
98
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
e quindi si perviene allo stesso risultato
P {X > 2} = 0.0012 .
♣
3.5
La distribuzione multinomiale
Una generalizzazione della distribuzione binomiale può condurre alla cosidetta distribuzione
multinomiale nel modo seguente. Consideriamo una successione di n prove ripetute ed indipendenti ciascuna delle quali ammetta k possibili risultati A1 , . . . , Ak mutuamente esclusivi.
Sia pi la probabilità che l’esperimento fornisca il risultato Ai , per i = 1, . . . , k.
Siano x1 , . . . , xk−1 interi non negativi tali che x1 + · · · + xk−1 ≤ n. La probabilità che
esattamente xi prove abbiano risultato Ai , per i = 1, . . . k − 1, e quindi che le restanti xk =
n − (x1 + . . . + xk−1 ) prove abbiano risultato Ak , è chiaramente:
n
px1 1 · · · pxk k ,
x1 x2 · · · xk
dove la quantità:
n
x1 x2 · · · xk
:=
n!
x1 ! · · · xk !
costituisce il coefficiente multinomiale ed è uguale al numero di modi in cui scegliere, fra le n
prove, quelle in cui si verifica A1 , quelle in cui si verifica A2 , etc.
Se (X1 , . . . , Xk ) è un vettore aleatorio dove Xj è il numero (aleatorio) di volte in cui l’evento
Aj si è verificato, per xj = 0, 1, . . . , n, allora la funzione di probabilità di (X1 , . . . , Xk ) è data
da:

P

n!


px1 1 · · · pxk k se ki=1 xi = n
x1 ! · · · xk !
P (X1 = x1 , . . . , Xk = xk ) =
(3.13)


 0
altrimenti
La distribuzione del vettore aleatorio (X1 , . . . , Xk ) si chiama distribuzione multinomiale e
scriveremo X ∼ M (n, p1 , . . . , pk ).
Per la distribuzione multinomiale si ha:
E(Xj ) = npj ,
Var(Xj ) = npj (1 − pj ) ,
Cov(Xi , Xj ) = E[(Xi − npi )(Xj − npj )] = −npi pj .
In particolare, ne segue che il coefficiente di correlazione fra Xi e Xj è dato da:
1/2
pi pj
ρij = −
i, j = 1, . . . , k − 1, (i 6= j) .
(1 − pi )(1 − pj )
99
3.6. LA DISTRIBUZIONE GEOMETRICA
3.6
La distribuzione geometrica
La distribuzione geometrica deriva dallo stesso schema della distribuzione binomiale ma nel
caso ora in esame, invece di analizzare il numero complessivo di eventi favorevoli conseguiti
in n prove, ci si interessa al numero di prove necessario per ottenere il primo successo, cioè il
tempo di attesa del primo successo.
Data una successione di eventi equiprobabili ed indipendenti A1 , A2 , . . . con P (Ai ) = p per
ogni i = 1, 2, . . ., con 0 < p < 1, denotiamo con X la quantità aleatoria ”indice del primo
successo nella sequenza assegnata”. Allora la v.a. X assume valori nell’insieme dei numeri
naturali ed ha funzione di probabilità



 p(1 − p)x−1 se x = 1, 2, . . .
p(x) :=


 0
altrimenti
Diremo in tal caso che X segue una distribuzione geometrica di parametro p e scriveremo
X ∼ G(p).
P
Per quanto riguarda la verifica della relazione ∞
x=1 p(x) = 1, posto q = 1 − p, si può
immediatamente verificare che risulta:
k
X
qr = 1 + q + · · · + qk =
r=0
1 − q k+1
1 − (1 − p)k+1
=
.
1−q
p
da cui
∞
X
q
r
=
lim
k→∞
r=0
k
X
1 − (1 − p)k+1
1
= .
k→∞
p
p
q r = lim
r=0
cioè:
∞
X
(1 − p)r =
r=0
1
p
o, equivalentemente,
∞
X
(1 − p)r−1 =
r=1
1
.
p
Da tale relazione segue immediatamente:
∞
X
(1 − p)pr−1 = 1 ,
(3.14)
r=1
P
e quindi la verifica della proprietà x p(x) = 1.
Nel caso di leggi geometriche, particolare interesse riveste la seguente relazione:
P {X ≥ x} =
∞
X
r−1
p(1 − p)
r=x
= (1 − p)
P∞
r=1
r−1+(x−1)
p(1 − p)
r=1
x−1
essendo
=
∞
X
,
p(1 − p)r−1 = 1 per la (3.14).
x−1
= (1 − p)
∞
X
p(1 − p)r−1
r=1
(3.15)
100
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
-
1
2
3
4
5
6
x
7
Figura 3.4: Funzione di probabilità distribuzione geometrica con parametro p = 0, 4.
Speranza matematica e Varianza.
E(X) =
∞
X
Per quanto riguarda la speranza matematica si ha:
xp(1 − p)x−1 = p
∞
X
x=1
x(1 − p)x−1 = −p
x=1
∞
X
d
(1 − p)x
dp
x=1
∞
d X
d
1−p
d 1−p
1
= −p
(1 − p)x = −p
= −p
= .
dp x=1
dp 1 − (1 − p)
dp p
p
Per il calcolo della varianza, premettiamo il calcolo di E(X 2 ):
2
E(X ) =
=
∞
X
2
x−1
x p(1 − p)
∞
X
=
x=1
x=1
∞
X
x−1
x(x − 1)p(1 − p)
x=1
= p(1 − p)
(x2 − x + x)p(1 − p)x−1
+
∞
X
xp(1 − p)x−1
x=1
∞
X
x(x − 1)(1 − p)x−2 +
x=1
1
p
∞
X
d2
1
d2 1 − p 1
x
= p(1 − p)
(1
−
p)
+
0p(1
−
p)
+
2
2
dp
p
dp
p
p
x=1
= p(1 − p)
2
1
2(1 − p) 1 2 − p
+ =
+ 0 2 .
3
p
p
p2
p p
Segue pertanto:
Var(X) = E(X 2 ) − µ2 =
2−p
1
1−p
− 2 =
.
2
p
p
p2
Proprietà di assenza di memoria. La distribuzione geometrica è caratterizzata dalla seguente
proprietà di assenza di memoria.
Proposizione 3.12 X ∼ G(p) se e solo se
P {X = r + n | X > n} = P {X = r} ,
per qualunque coppia r, n di numeri interi.
101
3.6. LA DISTRIBUZIONE GEOMETRICA
Dimostrazione. La proprietà in esame segue da un’applicazione della formula della probabilità condizionale. Si ha infatti:
P {X = r + n, X > n}
P {X > n}
P {X = r + n}
=
.
P {X > n}
P {X = r + n | X > n} =
(3.16)
Poichè, in base alla (3.15), risulta:
P {X > n} = (1 − p)n
allora dalla (3.16) segue per r ≥ 1:
P {X = r + n | X > n} =
p(1 − p)n+r−1
= p(1 − p)r−1 = P {X = r} .
(1 − p)n
Più in generale, la proprietà di assenza di memoria implica che
P {X ≥ r + n | X > n} = P {X ≥ r} .
Tale risultato afferma che, se un evento E non si è verificato nelle prime n prove, allora la probabilità che esso non si verifichi nelle successive r prove è la stessa di quella di non manifestarsi
nelle prime r prove.
Esempio 3.13 In una certa località balneare la probabilità che piova in un qualunque giorno
del mese di agosto è p = 0, 05. Assumendo l’indipendenza qual è la probabilità che la prima
pioggia del mese avvenga il 15 agosto? E prima del 15 agosto?
Si tratta di un’applicazione della distribuzione geometrica. Se X indica la quantità aleatoria
”numero di giorni (a partire dal primo agosto) fino alla prima pioggia”, allora X ∼ G(0, 04),
pertanto si avrà:
P {X = 15} = 0.05 · 0.9514 ∼
= 0.024 ,
P {X ≤ 14} = 1 − 0.9514 ∼
= 0.5124 .
♣
Esempio 3.14 Si consideri un macchinario la cui durata di funzionamento, in
un’opportuna unità di misura (mese, anno o altro), sia retta dalla legge geometrica di densità:
p(x) = 0.2 · (0, 8)x−1
x = 1, 2, . . .
Sapendo che il macchinario non ha ancora cessato di funzionare dopo 5 periodi (unità di
misura), qual è la probabilità che si guasti all’ottavo periodo?
P {X = 8|X > 5} =
P {X = 8}
= P {X = 3} = 0.2 · (0.8)2 = 0.128 .
P {X > 5}
♣
102
3.7
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
La distribuzione binomiale negativa o di Pascal
La distribuzione binomiale negativa è una generalizzazione della distribuzione geometrica. Sia
data una successione di prove indipendenti ognuna delle quali produce un successo con probabilità 0 < p < 1 oppure un insuccesso con probabilità 1 − p. La distribuzione binomiale
negativa è la distribuzione di probabilità del numero di prove per ottenere esattamente r successi. Diremo che una v.a. X segue una distribuzione binomiale negativa di parametri interi
positivi r ≥ 1 e 0 < p < 1, e scriveremo X ∼ BN (r, p), se ha la seguente distribuzione di
probabilità:
 x−1 r


p (1 − p)x−r se x = r, r + 1, . . . ,

r
−
1
(3.17)
p(x) =


 0
altrimenti.
In particolare per r = 1 si ottiene la distribuzione geometrica.
Speranza matematica e Varianza. La speranza matematica e la varianza di una v.a. X ∼
BN (r, p) sono date rispettivamente da:
r
p
r(1 − p)
Var(X) =
p2
E(X) =
Si noti che, dati X ∼ G(p) e Y ∼ BN (r, p), risulta
E(Y ) = r E(X)
Var(Y ) = r Var(X) .
Proposizione 3.15 Siano X1 , . . . , Xk v.a. indipendenti, con Xi ∼ BN (ri , p) per i = 1, . . . , k.
Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione N B(r1 + · · · + rk , p).
Corollario 3.16 Siano X1 , . . . , Xk v.a. indipendenti aventi distribuzione geometrica di parametro
p . Allora la variabile aleatoria Sk = X1 + · · · + Xk ha distribuzione BN (k, p).
3.8 Altri esercizi
Esercizio 3.17 n commensali si ripartiscono a caso intorno ad una tavola rotonda. Sia X il più
piccolo numero (aleatorio) di commensali che separa Pietro e Paolo. Calcolare la legge di X e
la speranza matematica di X.
Esercizio 3.18 Si supponga che in una grande azienda si effettuino mediamente quattro interventi di manutenzione del settore informatico in una giornata lavorativa di 8 ore. Si assuma che
il numero di interventi di manutenzione nei periodi indicati segua una distribuzione di Poisson.
3.8. ALTRI ESERCIZI
103
1. Valutare la probabilità che in due ore non vi sia nessun intervento di manutenzione;
2. Valutare la probabilità che in un’ora vengano effettuati almeno due interventi di manutenzione.
Esercizio 3.19 Data una successione di eventi indipendenti ed equiprobabili con probabilità
uguale a 1/100, determinare
1. la probabilità che, osservandone 100, non se ne verifichi alcuno;
2. La probabilità che su 200, se ne verifichino almeno 3;
3. la probabilità che su 50 se ne verifichino più di due;
4. il numero minimo n di prove necessarie affinchè la probabilità di avere almeno un successo sia maggiore di 0.98.
Esercizio 3.20 Un’urna contiene N palline di cui 30 bianche e le restanti nere. Calcolare N
sapendo che la probabilità di ottenere 2 palline bianche in 4 estrazioni con restituzione è pari a
33 /27 e che le palline nere sono più numerose delle palline bianche.
Esercizio 3.21 Da un’urna U , contenente 2 palline bianche e 2 nere, e da un’urna V , contenente
2 palline bianche e tre nere, si estraggono rispettivamente 2 palline e 3 palline senza restituzione.
Indicando con X e Y rispettivamente i numeri aleatori di palline bianche estratte rispettivamente
da U e da V , calcolare P (X + Y > 2), P (X = 1|X + Y > 2) e E(X + Y )
Esercizio 3.22 Date tre variabili aleatorie, indipendenti e con distribuzione geometrica di parametro
p, calcolare:
1. la speranza matematica m della variabile X + Y − Z;
2. la probabilità dell’evento {2.5 ≤ X + Y + Z ≤ 4.2};
3. la covarianza delle v.a. U = X + Y e V = X − Y .
Esercizio 3.23 Un canale di trasmissione dati può ricevere messaggi binari da due sorgenti
diverse A e B con probabilità 21 ciascuna. Ognuna delle due sorgenti produce messaggi in cui
i bit successivi sono tra loro indipendenti. Per la sorgente A i bit possono essere 1 oppure 0
con probabilità 12 , mentre per la sorgente B, il valore 1 si verifica con probabilità 14 e lo 0 con
probabilità 34 . Un messaggio di lunghezza n viene ricevuto in cui si osserva una proporzione di
1 pari a 0.4 (cioè in cui si trovano 0.4 n bit uguali a 1).
1. Supponiamo n = 10. Qual è la probabilità che si tratti della sorgente A? Quale delle due
sorgenti è la più probabile? E se invece fosse n = 100?
2. Rispondere alle stesse domande del punto precedente supponendo che a priori i messaggi
provengano con probabilità 30% dalla sorgente A e 70% dalla sorgente B.
104
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
Esercizio 3.24 Un’urna U1 contiene una pallina bianca e 2 nere, mentre un’urna U2 contiene
2 palline bianche ed una nera. Da U1 si estraggono due palline che vengono inserite in U2 .
Successivamente da U2 si estrae una pallina che viene inserita in U1 . Considerati gli eventi:
A : le due palline inserite in U2 sono nere
B : la pallina inserita in U1 è bianca
calcolare P (B), P (A|B) e P (A ∪ B).
Esercizio 3.25 Due squadre di atletica A e B partecipano alla fase finale di un torneo che
consiste in una serie di 7 incontri diretti. La squadra vincitrice è quella che si aggiudica per
prima 4 vittorie. Assumendo che le due squadre abbiano la stessa probabilità di vincere una
qualunque partita e che i risultati siano indipendenti, calcolare:
1. La probabilità che il torneo si concluda in al più 6 partite.
2. La probabilità che il torneo si concluda esattamente dopo 6 incontri dato che la squadra
A ha vinto le prime due partite.
Esercizio 3.26 Un’azienda alimentare propone un nuovo tipo di merenda al cioccolato e crema
di zabaione, rivolta particolarmente ai ragazzi aventi un’età compresa fra 10 e 12 anni. L’area
marketing ha successivamente rilevato che, a livello nazionale, il 30% degli interessati ha visto
almeno uno degli spot televisivi predisposti per la campagna pubblicitaria che ha lanciato il
prodotto. Considerato un gruppo di 150 potenziali consumatori, ci si chiede:
1. qual è il numero atteso che ha visto almeno uno spot televisivo?
2. qual è la probabilità che ve siano stati almeno 50 che ha visto almeno uno spot?
Esercizio 3.27 Siano X1 e X2 due v.a. indipendenti aventi distribuzione di Poisson di parametri
rispettivamente λ1 = 3 e λ2 = 1, cioè X1 ∼ P(3) e X2 ∼ P(1). i) Calcolare la funzione di
ripartizione di X2 e rappresentarla graficamente; ii) considerata la v.a. Y = 3X1 calcolare E[Y ]
e P (Y ≤ 6). Considerata successivamente la v.a. W = 2X1 − X2 , calcolare: E[W ] e Var(W ).
Esercizio 3.28 Siano X e Y due v.a. aventi distribuzione di Poisson di parametro λ = 9.
i) Calcolare P (X ≥ 2) e P (3X ≤ 2)
ii) Calcolare la covarianza di X e Y sapendo che il coefficiente di correlazione fra X e Y è
uguale a 2/9.
Esercizio 3.29 Una moneta viene tarata in maniera tale che, in una successione di 10 prove
ripetute e indipendenti, la probabilità che l’evento T (‘testa’) si verifichi 4 volte sia uguale
0.2377 e che si verifichi 5 volte sia uguale a 0.1536. Calcolare la probabilità che nelle 10 prove
l’evento T si verifichi una sola volta.
Esercizio 3.30 Uno studente, per ottenere informazioni relative ad assegnazioni di borse di
studio, si rivolge all’ufficio competente il quale dà al 60% informazioni esatte. Sapendo ciò, lo
studente va 3 volte a chiedere sempre la stessa informazione ed ottiene 2 volte la risposta A ed
una volta la risposta contraria B. Calcolare la probabilità p che la risposta esatta sia la A. (Si
supponga che A e B siano inizialmente equiprobabili e costituiscano una partizione dell’evento
certo).
105
3.8. ALTRI ESERCIZI
3.8.1
Soluzioni
Soluzione 3.17. Sia n il numero totale di commensali, distinguiamo i due casi: n dispari e n
pari.
Se n è dispari, allora possiamo scrivere n = 2p + 1 dove p è un numero dispari, con p ≥ 1.
In questo caso X è una v.a. con legge uniforme su {0, 1, . . . , p − 1} e pertanto:
E[X] =
p
2
Var(X) =
p(p − 2)
.
12
Se n è pari, allora possiamo scrivere n = 2p, dove p è un numero dispari; in questo caso si
ha:
1
1
=
n−1
2p − 1
2
2
P (X = k) =
=
2p − 1
2p − 1
P (X = p − 1) =
per 1 ≤ k ≤ p − 2
da cui, tenendo conto che
1 + 2 + · · · + (p − 2) =
(p − 1)(p − 2)
2
segue:
p−1
(p − 1)(p − 2) 2
(p − 1)2
E[X] =
+
=
.
2p − 1
2
2p − 1
2p − 1
♣
Soluzione 3.18. Per quanto riguarda il primo esercizio, sia X la v.a. ”numero di interventi
di manutenzione in un periodo di due ore”; il testo richiede il calcolo di P (X = 0). In base
alle ipotesi, se mediamente nell’azienda si richiedono 4 interventi ogni otto ore, allora si può
assumere – in base ad un semplice criterio di proporzionalità – che mediamente verrà richiesto
un intervento ogni due ore. Inoltre, poichè si assume che X segua una distribuzione di Poisson,
allora si ha X ∼ P(1), cioè una distribuzione di Poisson di parametro λ = 1. Si ha pertanto:
P (X = 0) = e−λ
λ0
= e−1 = 0.3679 .
0!
Con riferimento al secondo punto, sia Y la v.a. ”numero di interventi di manutenzione in
un periodo di un’ora”. In base a considerazioni a quelle svolte in precedenza, Y segue una
distribuzione di Poisson di parametro λ = 0.5, cioè Y ∼ P(0.5). Segue pertanto:
P (Y ≥ 2) = 1 − P (Y ≤ 1) = 1 − P (Y = 0) − P (Y = 1) = 1 − e−0.5
0.50
0.51
− e−0.5
0!
1!
= 1 − e−0.5 (1 + 0.5) = 0.0902 .
♣
106
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
Soluzione 3.19. Risolviamo il problema in due modi: con la distribuzione binomiale (soluzione
“esatta”) e con quella di Poisson (distribuzione “approssimata”). Per quanto riguarda la soluzione
con la distribuzione binomiale, sia X ∼ B(100, 0.01); quindi per il primo punto si ha:
P (X = 0) = (0.99)100 = 0.366 .
Per quanto riguarda il secondo punto, sia X ∼ B(200, 0.01) e quindi:
P (X ≥ 3) = 1 − P (X ≤ 2)
= 1 − [(0.99)200 + 200 · 0.01 · (0.99)199 + 100 · 199(0.01)2 · (0.99)198 ]
= 0.323 .
Ed infine, per il terzo punto, considerato X ∼ B(50, 0.01), si ha:
P (X > 2) = 1 − P (X ≤ 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)]
= 1 − [(0.99)50 + 50 · 0.01 · (0.99)49 + 25 · 49 · (0.99)48 (0.01)2 ]
= 0.0138 .
Utilizzando la distribuzione di Poisson, nel primo caso – essendo λ = np = 1 si ha X ∼ P(1)
e quindi
P (X = 0) = e−1 = 0.368 ;
nel secondo caso – essendo λ = np = 2 – si ha X ∼ P(2) e quindi
P (X ≥ 3) = 1 − P (X ≤ 2)
= 1 − e−2 (1 + 2 + 2) = 0.323 ;
nel terzo caso – essendo λ = np = 0.5 – si ha X ∼ P(0.5) e quindi:
P (X > 2) = 1 − P (X ≤ 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)]
= e−0.5 (1 + 0.5 + 0.125) = 0.0144 .
Si nota che l’approssimazione della distribuzione di Poisson a quella binomiale migliora al
crescere di n.
Infine, la probabilità di non avere successi in una successione di n prove ripetute e indipendenti è (0.99)n . Posto X ∼ B(n, 0.01), possiamo considerare pertanto la disequazione:
P (X ≥ 1) = 1 − P (X = 0) = (0.99)n > 0.98
e risolvendo rispetto a n si ottiene:
n>
da cui n = 390.
log(0.02)
= 389.2
log(0.99)
♣
107
3.8. ALTRI ESERCIZI
Soluzione 3.20. Indicata con p la proporzione di palline bianche nell’urna, in base ad i dati del
problema risulta p < 1/2. Trattandosi di estrazioni con restituzione, la probabilità di estrarre 2
palline bianche in 4 prove è data da:
4 2
p (1 − p)2 = 6p2 (1 − p)2 .
2
In base ad i dati del problema, si tratta di risolvere l’equazione:
6p2 (1 − p)2 =
33
27
sotto il vincolo p < 1/2. Tenendo conto che 6 = 2 · 3, dall’equazione precedente si ottiene:
p2 (1 − p)2 =
33 1
32
=
27 2 · 3
28
⇒
p(1 − p) =
3
16
⇒
p2 − p +
3
=0
16
che ammette soluzioni: p1 = 1/4 e p2 = 3/4. Solo la prima soddisfa il vincolo p < 1/2 e
pertanto l’unica soluzione ammissibile è p = 1/4.
Soluzione 3.21.
P {X + Y > 2} = P {X + Y = 3} + P {X + Y = 4}
= P {X = 2, Y = 1} + P {X = 1, Y = 2} + P {X = 2, Y = 2}
= P {X = 2}P {Y = 1} + P {X = 1}P {Y = 2} + P {X = 2}P {Y = 2}
dove
P {X = 1} =
P {X = 2} =
P {Y = 1} =
P {Y = 2} =
2
2
1
1
4
2
2
2
2
0
4
2
2
3
1
2
5
3
2
3
2
1
5
3
=
4
2
= ;
6
3
=
1
;
6
=
2·3 6
;
10 10
=
3
.
10
108
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
e quindi
P {X + Y > 2} =
1 6
2 3
3 1
1
2
1
7
+
+
=
+
+
=
.
6 10 3 10 10 6
10 10 20
20
Passando al punto successivo:
P {X = 1, X + Y > 2}
P {X = 1, Y = 2}
=
P {X + Y > 2}
P {X + Y > 2}
2 3
P {X = 1}P {Y = 2}
4
=
= 3 710 = .
7
P {X + Y > 2}
20
P {X = 1|X + Y > 2} =
Infine essendo
E[X + Y ] = E[X] + E[Y ]
e
2
1
+2· =1
3
6
3
3
6
E[Y ] = 0 · P {Y = 0} + 1 · P {Y = 1} + 2 · P {Y = 2} = 1 · + 2 ·
=
5
10
5
E[X] = 0 · P {X = 0} + 1 · P {X = 1} + 2 · P {X = 2} = 1 ·
segue
E[X + Y ] = E[X] + E[Y ] = 1 +
6
11
=
.
5
5
♣
Soluzione 3.22.
1 1 1
1
+ − =
p p p
p
P {2.5 ≤ X + Y + Z ≤ 4.2} = P {X + Y + Z = 3} + P {X + Y + Z = 4}
= P (X = 1, Y = 1, Z = 1) + P (X = 2, Y = 1, Z = 1)
+ P (X = 1, Y = 2, Z = 1) + P (X = 1, Y = 1, Z = 2)
= P (X = 1)P (Y = 1)P (Z = 1) + P (X = 2)P (Y = 1)P (Z = 1)
+ P (X = 1)P (Y = 2)P (Z = 1) + P (X = 1)P (Y = 1)P (Z = 2)
= p3 + 3p · p · p(1 − p)
Cov(X + Y, X − Y ) = Cov(X, X) + Cov(Y, X) − Cov(Y, X) − Cov(Y, Y )
= Var(X) − Var(Y ) = 0 .,
m=
essendo le variabili X, Y, Z identicamente distribuite.
♣
109
3.8. ALTRI ESERCIZI
Soluzione 3.23.
Indichiamo con
A = “il messaggio proviene dalla sorgente A”
B = “il messaggio proviene dalla sorgente B”
C = “viene ricevuto un messaggio in cui ci sono 0.4n bit uguali a 1”
1
pA = “probabilità che la sorgente A emetta un 1” =
2
1
pB = “probabilità che la sorgente B emetta un 1” = .
4
Dobbiamo calcolare P (A|C). Essendo:
P (A|C) =
P (C|A)P (A)
P (C)
Poniamo:
X = |E1 | + · · · + |En |
da cui:
XA ∼ B(n, pA )
XB ∼ B(n, pB )
e quindi poichè risulta:
! 10
10
1
P (C|A) = P (XA = 4) =
2
4
! 4
6
10
1
3
P (C|B) = P (XB = 4)
4
4
4
segue,poichè P (C) = P (C|A)P (A) + P (C|B)P (B)
!
10
P (A|C) =
P (C|A)P (A)
=
P (C|A)P (A) + P (C|B)P (B)
4
!
10
4
=
1
2
1
2
+
3 6
4
1 10
2
1
2
+
1 10 1
2
2
!
10
4
1 4
4
3 6 1
4
4
≈ 0.5841
Nel caso successivo, basta considerare la relazione precedente con P (A) = 0.3 e P (B) =
0.7:
10 1 10
0.3
2
4
P (C|A)P (A)
P (A|C) =
= P (C|A)P (A) + P (C|B)P (B)
10 1 4 3 6
10 1 10
0.3
+
0.7
2
4
4
4
4
=
1
0.3
4
1
0.3
4
6
+ 34
≈ 0.376 .
0.7
110
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
Da cui P (B|C) = 1−P (A|C) = 0.624 e quindi in questo caso è la sorgente B la più probabile.
♣
Soluzione 3.24. Per quanto riguarda il calcolo di P (B), considerata la partizione dell’evento
certo Ω in Ω = A ∪ Ac , possiamo scrivere:
P (B) = P (B ∩ Ω) = P (B ∩ (A ∪ Ac )) = P (B ∩ A) + P (B ∩ Ac )
= P (A)P (B|A) + P (Ac )P (B|AC ) .
Osserviamo che se si verifica l’evento A, nell’urna U2 avremo 2 palline bianche e 3 nere; pertanto risulta:
2
2
3
P (B|A) =
P (A|B c ) = 1 − = .
5
5
5
Inoltre, tenendo conto che in base alla composizione iniziale dell’urna U1 , segue:
2
1
2
0
1
P (A) = =
3
3
2
da cui si ottiene:
1 2 2 3
8
· + · =
.
3 5 3 5
15
Per il teorema delle probabilità composte segue:
P (B) =
P (A|B) =
P (A ∩ B)
P (A)P (B|A)
=
=
P (B)
P (B)
12
35
8
15
=
1
.
4
Infine per il teorema delle probabilità totali si ha:
P (A ∪ B) = P (A) + P (B) − P (A ∩ B) =
1
8
2
5+8−2
11
+
−
=
=
.
3 15 15
15
15
♣
Soluzione 3.26. Indichiamo con P (Ai ) e P (Bi ) rispettivamente la probabilità che la squadra
A o B vinca la i-esima partita, con i = 1, . . . , 7. In base alle ipotesi del problema risulta
P (Ai ) = P (Bi ) = 21 . Non è pertanto ammesso il risultato di pareggio. In base alle regole
fissate, il torneo si conclude quando una delle due squadre collezione 4 vittorie. La probabilità
che il torneo si concluda entro sei partite è quindi data dalla somma della probabilità che la
squadra A vinca quattro partite fra le prime sei e della probabilità che la squadra B vinca
quattro partite fra le prime sei. Poichè le due squadre hanno la stessa probabilità di vincere
ciascuna partita, allora le due squadre hanno la stessa probabilità di vincere il torneo entro sei
111
3.8. ALTRI ESERCIZI
partite; pertanto la probabilità che il torneo si concluda entro sei partite è pari al doppio della
probabilità che una delle due squadre (ad esempio la squadra A) vinca il torneo entro sei partite.
Indicato con XA il numero (aleatorio) necessario affinchè la squadra A vinca il torneo, si ha
che XA segue una distribuzione binomiale negativa N B(4, 12 ). Essendo
P (il torneo si conclude entro 6 partite) = 2 · P (XA ≤ 6)
segue:
P (XA ≤ 6) = P (XA = 4) + P (XA = 5) + P (XA = 6)
4 0 4 4 2
1
1
1
1
1
1
3
4
5
+
+
=
3
3
3
2
2
2
2
2
2
1
1
1
11
=
+ 4 + 10 =
.
16
32
64
32
e quindi
P (il torneo si conclude entro 6 partite) = 2 ·
11
11
=
.
32
16
Per quanto concerne il secondo punto, poichè le prime due partite sono state vinte dalla
squadra A, il torneo si conclude in sei partite se la squadra A consegue una vittoria nella terza o
quarta o quinta partita e una vittoria nella sesta partita, oppure se la squadra B consegue quattro
vittorie consecutive. Nel primo caso la probabilità è data da:
2 2
1
1
1
3
=3 ,
1
2
2
16
mentre nel secondo caso la probabilità che la squadra B vinca quattro partite cosecutive è:
4
1
1
=
.
2
16
In definitiva la probabilità richiesta è:
3
1
4
1
+
=
= .
16 16
16
4
♣
Soluzione 3.25. Sia X la v.a. ”numero di potenziali consumatori che ha visto almeno uno
spot della campagna pubblicitaria”. In base alle ipotesi, si ha X ∼ B(150, 0.3). Ne segue che
il numero atteso è dato da:
E[X] = np = 150 · 0.3 = 45 .
Per affrontare il secondo punto, consideriamo l’approssimazione normale alla distribuzione
binomiale
B(n, p) ≈ N (np, npq)
⇒
B(150, 0.3) ≈ N (45, 31.5)
112
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
e quindi, considerando la correzione per continuità,
1
49.5 − 45
P (X ≥ 50) ≈ P X ≥ 50 −
= P (Z ≥ 0.8018)
=P Z≥ √
2
31.5
= 1 − Φ(0.8018) = 1 − 0.7887 = 0.2113 .
♣
Soluzione 3.26.
La v.a. X2 ha funzione di densità:
 −1

 e
se x = 0, 1, 2, . . .
x!
p(x) =

 0
altrimenti.
Si ha pertanto:
x
0
1
2
3
4
5
6
p(x)
0.3679
0.3679
0.1839
0.0613
0.0153
0.0031
0.0005
F (x)
0.3679
0.7358
0.9197
0.9810
0.9963
0.9994
0.9999
Il diagramma della funzione di ripartizione è costante a tratti.
Per quanto concerne il secondo quesito, si ha:
E[Y ] = E[3X1 ] = 3 · E[X1 ] = 3 · 3 = 9
P (Y ≤ 9) = P (3X1 ≤ 6) = P (X1 ≤ 2) = P (X1 = 0) + P (X1 = 1) + P (X1 = 2)
0
3
31 32
−3
=e
+
+
= 0.0498 · (1 + 3 + 4.5) = 0.4232 .
0!
1!
2!
Infine si ha:
E[W ] = E[2X1 − X2 ] = 2 · E[X1 ] − E[X2 ] = 2 − 3 = −1
Var[W ] = Var[2X1 − X2 ] = 4 · Var[X1 ] + Var[X2 ] = 4 + 3 = 7 .
♣
113
3.8. ALTRI ESERCIZI
Soluzione 3.28.
Sul primo punto, si ha:
P (X ≥ 2) = 1 − P (X ≤ 1) = 1 − (P (X = 0) + P (X = 1))
0
4
41
−4
+
= 1 − e−4 (1 + 4) = 1 − 5e−4 = 0.9084
=1−e
0!
1!
P (3X ≤ 2) = P (X ≤ 2/3) = P (X = 0) = e−4 = 0.0183 .
♣
Soluzione 3.29. Il problema viene inquadrato all’interno di un modello binomiale, trattandosi
di prove ripetute, indipendenti ed equiprobabili. Sia X il numero di successi nelle 10 prove, allora X ∼ B(10, p) dove p è la probabilità di successo nella generica prova, che risulta incognita.
In base alle ipotesi del problema si ha:
P (X = 4) = 0.2377
e
P (X = 5) = 0.1536
cioè
10 4
p (1 − p)10−4 = 0.2377
4
10 5
p (1 − p)10−5 = 0.1536
5
da cui, considerando il rapporto membro a membro, segue:
10 4
p (1 − p)10−4
0.2377
4
=
10 5
0.1536
p (1 − p)10−5
5
da cui, svolgendo i calcoli, segue:
10 4
10!
p (1 − p)6
p4 (1 − p)6
5!5! (1 − p)
5 (1 − p)
0.2377
4
4!(10 − 4)!
=
=
=
=
10!
10 5
4!6! p
6 p
0.1536
p5 (1 − p)5
p (1 − p)5
5!(10 − 5)!
5
da cui l’equazione:
5 (1 − p)
0.2377
=
6 p
0.1536
e quindi
1 − p = p · 1.8570
⇒
⇒
(1 − p)
0.2377 6
=
= 1.8570
p
0.1536 5
1 = p(1 + 1.8570)
⇒
p=
1
= 0.35 .
2.8570
In definitiva si ha X ∼ B(10, 0.35) e quindi:
10
P (X = 1) =
0.35 · (1 − 0.35)10−1 = 10 · 0.35 · 0.659 = 0.0725 : .
1
♣
114
CAPITOLO 3. PRINCIPALI DISTRIBUZIONI DI PROBABILITÀ DISCRETE
Soluzione 3.30.
Poniamo:
A
: “la risposta esatta è A”,
X
:
“numero di risposte A fornite dall’ufficio competente su n = 3 richieste”.
Indicata con p la probabilità che l’ufficio competente fornisca la risposta esatta, in base ai
dati del problema si ha p = 0.6; assumendo che le risposte (corretta/non corretta) ottenute
dall’ufficio competente costituiscano eventi indipendenti, allora possiamo modellare la
distribuzione di X (assumendo che la risposta esatta sia A) mediante una legge binomiale di
parametri n = 3 e p = 0.6, cioè X|A ∼ B(3, 0.6); al contrario se la risposta esatta fosse B
si avrebbe X|B ∼ B(3, 0.4). Inoltre per ipotesi risulta P (A) = P (B) = 0.5. Per teorema di
Bayes si ha:
P (A|X = 2) =
P (X = 2|A)P (A)
P (X = 2|A)
=
P (X = 2|A)P (A) + P (X = 2|B)P (B)
P (X = 2|A) + P (X = 2|B)
3
0.62 · 0.4
0.6
2
= =
= 0.6
3
3
0.6 + 0.4
2
2
0.6 · 0.4 +
0.4 · 0.6
2
2
♣