Distribuição Binomial

Contribuintes do Mundo Matemático > Yap >br>>

DOWNLOAD Mathematica NotebookEXPLORE ESTE TÓPICO NA Aula de MatemáticaBinomialDistribuição

A distribuição binomial dá a distribuição discreta de probabilidade P_p(n|N) de obter exactamente n êxitos de N ensaios Bernoulli (onde o resultado de cada ensaio Bernoulli é verdadeiro com probabilidade p e falso com probabilidade q=1-p). A distribuição binomial é portanto dada por

P_p(n|N) = (N; n)p^nq^(N-n)
(1)
= (N!)/(n!(N-n)!)p^n(1-p)^(N-n),
(2)

where (N; n) é um coeficiente binomial. O gráfico acima mostra a distribuição de n êxitos de N=20 ensaios com p=q=1/2.

p> A distribuição binomial é implementada na Linguagem Wolfram como BinomialDistribuição.

A probabilidade de obter mais sucessos do que o n observado numa distribuição binomial é

P=sum_(k=n+1)^N(N; k)p^k(1-p)^(N-k)=I_p(n+1,N-n),
(3)

where

I_x(a,b)=(B(x;a,b)/(B(a,b)),
(4)

B(a,b) é a função beta, e B(x;a,b) é a função beta incompleta.

A função característica para a distribuição binomial é

phi(t)=(q+pe^(it))^N
(5)

(Papoulis 1984, p. 154). O momento…função geradora M para a distribuição é

M(t) = e^(tn)
(6)
= sum_(n=0)^(N)e^(tn)(N; n)p^nq^(N-n)
(7)
= sum_(n=0)^(N)(N)(N); n)(pe^t)^n(1-p)^(N-n)
(8)
= ^N
(9)
M^'(t)'(t) = N^(N-1)(pe^t)
(10)
M^('')(t)'')(t) = N(N-1)^(N-2)(pe^t)^2+N^(N-1)(pe^t).
(11)

A média é

N(p+1-p)p

mu = M^'(0)'(0)
(12)
=
(13)
= Np.
(14)

Os momentos cerca de 0 são

mu=Np

mu_1^'' =
(15)
mu_2^'' = Np(1-p+Np)
(16)
mu_3^'' = Np(1-3p+3Np+2p^2-3Np^2+N^2p^2)
(17)
mu_4^'' = Np(1-7p+7Np+12p^2-18Np^2+6N^2p^2-6p^3+11Np^3-6N^2p^3+N^3p^3),
(18)

sob os momentos sobre o meanare

mu_2 = Np(1-p)=Npq
(19)
mu_3 = Np(1-p)(1-2p)
(20)
mu_4 = Np(1-p).
(21)

A skewness e o kurtosisexcess são

gamma_1 = (1-2p)/(sqrt(Np(1-)p))
(22)
= (q-p)/(sqrt(Npq))
(23)
gamma_2 ="==" (6p^2-6p+1)/(Np(1-p))
(24)
= (1-6pq)/(Npq).
(25)

O primeiro cumulante é

kappa_1=np,
(26)

e os cumulantes subsequentes são dado pela recurrencerelação

kappa_(r+1)=pq(dkappa_r)/(dp).
(27)

The o desvio médio é dado por

MD=sum_(k=0)^N|k-Np|(N; k)p^k(1-p)^(N-k).
(28)

Para o caso especial p=q=1/2, isto é igual a

MD = 2^(-N)sum_(k=0)^(N)(N)(N); k)|k-1/2N|
(29)
= {(N!!)/(2(N-1)!!!) para N odd; ((N-1)!!!)/(2(N-2)!!) para N pares,
(30)

where N!! é um factorial duplo. Para N=1, 2, …, os primeiros valores são portanto 1/2, 1/2, 3/4, 3/4, 15/16, 15/16, … (OEIS A086116 e A086117). O caso geral é dado por

MD=2(1-p)^(N-|_Np_||)p^(|_Np_|+1)(|_Np_|+1)(N; |_Np_||+1)(N; |_Np_|+1).
(31)

Steinhaus (1999, pp. 25-28) considera o número esperado de quadrados S(n,N,s) contendo um dado número de grãos n a bordo de tamanho s após distribuição aleatória de N de grãos,

S(n,N,s)=sP_(1/s)(n|N).
(32)

Taking N=s=64 dá os resultados resumidos na tabela seguinte.

n S(n,64,64)
0 23.3591
1 23.7299
2 11.8650
3 3.89221
4 0.942162
5 0.179459
6 0.0280109
7 0.0036840
8 4.16639×10^(-4)
9 4.11495×10^(-5)
10 3.59242×10^(-6)

Uma aproximação à distribuição binomial para grandes N pode ser obtido através da expansão sobre o valor n^~ onde P(n) é um máximo, i.e., onde dP/dn=0. Uma vez que a função logarítmica é monotónica, podemos, em vez disso, optar por expandir o logaritmo. Let n=n^~+eta, then

ln=ln+B_1eta+1/2B_2eta^2+1/(3!)B_3eta^3+...,
(33)

where

>> B_k=)/(dn^k)]_(n=n^~). B_k=)/(dn^k)]_(n=n^~).

(34)

Mas estamos a expandir ao máximo, portanto, por definição,

B_1=)/(dn)]_(n=n^~)=0.
(35)

Isto também significa que B_2 é negativo, para que possamos escrever B_2=-|B_2|. Agora, tomando o logaritmo de (◇) dá

ln=lnN!-lnn!-ln(N-n)!+nlnp+(N-n)lnq.
(36)

Para grande n e N-n podemos usar a aproximação de Stirling

ln(n!) aprox. nlnn-n,
(37)

so

-ln(N-n),

(d)/(dn) approx (lnn+1)-1
(38)
= lnn
(39)
(d)/(dn) approx d/(dn)
(40)
=
(41)
=
(42)

and

(dln)/(dn) aprox -lnn+ln(N-n)+lnp-lnq.
(43)

Para encontrar n^~, definir esta expressão para 0 e resolver para n,

ln((N-n^~)/(n^~)p/q)=0
(44)
(N-n^~)/(n^~)p/q=1
(45)
(N-n^~)p=n^~q
(46)
>>> n^~(q+p)=n^~=Np, n^~(q+p)=n^~=Np,

(47)

desde p+q=1. Podemos agora encontrar os termos na expansão

-2/(n^~^3)-2/((n-((n-n^~)^3)

B_2 = )/(dn^2)]_(n=n^~)
(48)
= -1/(n^~)-1/(N-n^~)
(49)
= -1/(Npq)
(50)
= -1/(Np(1-p))
(51)
B_3 = )/(dn^3)]_(n=n^~)
(52)
= 1/(n^~^2)-1/((N-n^~)^2)
(53)
= (q^2-p^2)/(N^2p^2q^2)
(54)
= (1-2p)/(N^2p^2(1-p)^2)
(55)
B_4 = )/(dn^4)]_(n=n^~)
(56)
=
(57)
= (2(p^2-pq+q^2))/(N^3p^3q^3)
(58)
= (2(3p^2-3p+1))/(N^3p^3(1-p)^3)).
(59)

BinomialGaussian

Agora, tratando a distribuição como contínua,

lim_(N-infty)sum_(n=0)^NP(n) approx intP(n)dn=int_(-infty)^inftyP(n^~+eta)deta=1.
(60)

Desde que cada termo seja de ordem 1/N∼1/sigma^2 menor que o anterior, podemos ignorar termos superiores a B_2, so

P(n)=P(n^~)e^(-|B_2||b_eta^2/2).
(61)

A probabilidade deve ser normalizada, so

int_(-infty)^inftyP(n^~)e^(-|B_2|eta^2/2)deta=P(n^~)sqrt((2pi)/(|B_2|))=1,
(62)

and

P(n) = sqrt((|B_2|)/(2pi))e^(-|B_2|(n-n^~)^2/2)
(63)
= 1/(sqrt(2piNpq))exp.
(64)

Definindo sigma^2=Npq,

P(n)=1/(sigmasqrt(2pi))exp,
(65)

que é uma distribuição normal. A distribuição binomial é portanto aproximada por uma distribuição normal para qualquer distribuição fixa p (mesmo que p seja pequena) como N seja levada ao infinito.

se N-infty e p-0 de tal forma que Np-lambda, então a distribuição binomial converge para a distribuição de Poisson com média lambda.

p>Let x e y ser variáveis binomiais aleatórias independentes caracterizadas por parâmetros n,p e m,p. A probabilidade condicional de x dado que x+y=k é

P(x=i|x+y=k)=(P(x=i,x+y=k))/(P(x+y=k)) =(P(x=i,y=k-i))/(P(x+y=k)) =(P(x=i)P(y=k-i))/(P(x+y=k)) =((n; i)p^i(1-p)^(n-i)(m; k-i)p^(k-i)(1-p)^(m-(k-i)))/((n+m; k)p^k(1-p)^(n+m-k)) =((n; i)(m; k-i))/((n+m; k))).
(66)

Nota que esta é uma distribuição hipergeométrica.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *