Distribución Binomial

Contribuidores de MathWorld > Yap >

DESCARGAR Mathematica NotebookExplora este tema en el aula de MathWorldDistribución binomial

La distribución binomial da la distribución de probabilidad discreta P_p(n|N) de obtener exactamente n aciertos de N ensayos Bernoulli (donde el resultado de cada ensayo Bernoulli es verdadero con probabilidad p y falso con probabilidad q=1-p). La distribución binomial viene dada, por tanto, por

P_p(n|N) = (N; n)p^nq^(N-n)
(1)
= (N!)/(n!(N-n)!)p^n(1-p)^(N-n),
(2)

donde (N; n) es un coeficiente binomial. El gráfico anterior muestra la distribución de n aciertos de N=20 ensayos con p=q=1/2.

La distribución binomial se implementa en Wolfram Language como BinomialDistribution.

La probabilidad de obtener más aciertos que los n observados en una distribución binomial es

P=sum_(k=n+1)^N(N; k)p^k(1-p)^(N-k)=I_p(n+1,N-n),
(3)

donde

I_x(a,b)=(B(x;a,b))/(B(a,b)),
(4)

B(a,b) es la función beta, y B(x;a,b) es la función beta incompleta.

La función característica de la distribución binomial es

phi(t)=(q+pe^(it))^N
(5)

(Papoulis 1984, p. 154). El momentofunción generadora de momentos M para la distribución es

M(t) = e^(tn)
(6)
= suma_(n=0)^(N)e^(tn)(N; n)p^nq^(N-n)
(7)
= suma_(n=0)^(N)(N; n)(pe^t)^n(1-p)^(N-n)
(8)
= ^N
(9)
M^'(t)'(t) = N^(N-1)(pe^t)
(10)
M^('')(t)'')(t) = N(N-1)^(N-2)(pe^t)^2+N^(N-1)(pe^t).
(11)

La media es

mu = M^'(0)'(0)
(12)
= N(p+1-p)p
(13)
Np.
(14)

Los momentos alrededor de 0 son

mu_1^'' = mu=Np
(15)
mu_2^'' = Np(1-+Np)+Np)
(16)
mu_3^'' = Np(1-3p+3Np+2p^2-3Np^2+N^2p^2)
(17)
mu_4^'' = Np(1-7p+7Np+12p^2-18Np^2+6N^2p^2-6p^3+11Np^3-6N^2p^3+N^3p^3),
(18)

Así que los momentos sobre la media son

mu_2 = Np(1-p)=Npq
(19)
mu_3 = Np(1-p)(1-2p)
(20)
mu_4 = Np(1-p).
(21)

La asimetría y la curtosidad son

gamma_1 = (1-2p)/(sqrt(Np(1-p))
(22)
= (q-p)/(sqrt(Npq))
(23)
gamma_2 = (6p^2-6p+1)/(Np(1-p))
(24)
= (1-6pq)/(Npq).
(25)

El primer cumulante es

kappa_1=np,
(26)

y los cumulantes posteriores están dadas por la relación de recurrencia

kappa_(r+1)=pq(dkappa_r)/(dp).
(27)

La desviación media viene dada por

MD=suma_(k=0)^N|k-Np|(N; k)p^k(1-p)^(N-k).
(28)

Para el caso especial p=q=1/2, esto es igual a

MD = 2^(-N)sum_(k=0)^(N)(N; k)|k-1/2N|
(29)
= {(N!!)/(2(N-1)!! para N impar; ((N-1)!!)/(2(N-2)!!) para N par,
(30)

donde N!! es un factorial doble. Para N=1, 2, …, los primeros valores son por tanto 1/2, 1/2, 3/4, 3/4, 15/16, 15/16, … (OEIS A086116 y A086117). El caso general viene dado por

MD=2(1-p)^(N-|_Np_|)p^(|_Np_|+1)(|_Np_|+1)(N; |_Np_|+1).
(31)

Steinhaus (1999, pp. 25-28) considera el número esperado de cuadrados S(n,N,s) que contienen un número dado de granos n en un tablero de tamaño s tras una distribución aleatoria de N de granos,

S(n,N,s)=sP_(1/s)(n|N).
(32)

Tomando N=s=64 se obtienen los resultados resumidos en la siguiente tabla.

n S(n,64,64)
0 23.3591
1 23,7299
2 11,8650
3 3.89221
4 0,942162
5 0.179459
6 0,0280109
7 0.0036840
8 4.16639×10^(-4)
9 4.11495×10^(-5)4.11495×10^(-5)
10 3.59242×10^(-6)

Una aproximación a la distribución binomial para grandes N puede obtenerse expandiendo sobre el valor n^~ donde P(n) es un máximo, i.e., donde dP/dn=0. Como la función logaritmo es monótona, podemos optar por expandir el logaritmo. Sea n=n^~+eta, entonces

ln=ln+B_1eta+1/2B_2eta^2+1/(3!)B_3eta^3+...,
(33)

donde

B_k=)/(dn^k)]_(n=n^~).
(34)

Pero estamos expandiendo sobre el máximo, así que, por definición,

B_1=)/(dn)]_(n=n^~)=0.
(35)

Esto también significa que B_2 es negativo, así que podemos escribir B_2=-|B_2|. Ahora, tomando el logaritmo de (◇) se obtiene

ln=lnN!-lnn!-ln(N-n)!+nlnp+(N-n)lnq.
(36)

Para grandes n y N-n podemos utilizar la aproximación de Stirling

¡ln(n!) aprox nlnn-n,
(37)

así que

(d)/(dn) aprox. (lnn+1)-1
(38)
= lnn
(39)
(d)/(dn) aprox d/(dn)
(40)
=
(41)
= -ln(N-n),
(42)

y

(dln)/(dn) aprox -lnn+ln(N-n)+lnp-lnq.
(43)

Para encontrar n^~, pon esta expresión a 0 y resuelve para n,

ln((N-n^~)/(n^~)p/q)=0
(44)
(N-n^~)/(n^~)p/q=1
(45)
(N-n^~)p=n^~q
(46)
n^~(q+p)=n^~=Np,
(47)

ya que p+q=1. Ahora podemos encontrar los términos de la expansión

B_2 = )/(dn^2)]_(n=n^~)
(48)
= -1/(n^~)-1/(N-n^~)
(49)
= -1/(Npq)
(50)
= -1/(Np(1-p))
(51)
B_3 = )/(dn^3)]_(n=n^~)
(52)
= 1/(n^~^2)-1/((N-n^~)^2)
(53)
= (q^2-p^2)/(N^2p^2q^2)
(54)
= (1-2p)/(N^2p^2(1-p)^2)
(55)
B_4 = )/(dn^4)]_(n=n^~)
(56)
= -2/(n^~^3)-2/((n-n^~)^3)
(57)
= (2(p^2-pq+q^2))/(N^3p^3q^3)
(58)
= (2(3p^2-3p+1))/(N^3p^3(1-p)^3)).
(59)

BinomioGaussiano

Ahora, tratando la distribución como continua,

lim_(N-infty)sum_(n=0)^NP(n) aprox intP(n)dn=int_(-infty)^inftyP(n^~+eta)deta=1.
(60)

Dado que cada término es de orden 1/N∼1/sigma^2 menor que el anterior, podemos ignorar los términos superiores a B_2, por lo que

P(n)=P(n^~)e^(-|B_2|eta^2/2).
(61)

La probabilidad debe ser normalizada, así que

int_(-infty)^inftyP(n^~)e^(-|B_2|eta^2/2)deta=P(n^~)sqrt((2pi)/(|B_2|))=1,
(62)

y

P(n) = sqrt((|B_2|)/(2pi))e^(-|B_2|(n-n^~)^2/2)
(63)
= 1/(sqrt(2piNpq))exp.
(64)

Definiendo sigma^2=Npq,

P(n)=1/(sigmasqrt(2pi))exp,
(65)

que es una distribución normal. Por tanto, la distribución binomial se aproxima por una distribución normal para cualquier p fija (incluso si p es pequeña) ya que N se lleva a infinito.

Si N-infty y p-0 de forma que Np-lambda, entonces la distribución binomial converge a la distribución de Poisson con media lambda.

Sea x y y variables aleatorias binomiales independientes caracterizadas por los parámetros n,p y m,p. La probabilidad condicional de x dado que x+y=k es

P(x=i|x+y=k)=(P(x=i,x+y=k))/(P(x+y=k)) =(P(x=i,y=k-i))/(P(x+y=k)) =(P(x=i)P(y=k-i))/(P(x+y=k)) =((n; i)p^i(1-p)^(n-i)(m; k-i)p^(k-i)(1-p)^(m-(k-i)))/((n+m; k)p^k(1-p)^(n+m-k)) =((n; i)(m; k-i))/((n+m; k)).
(66)

Nótese que se trata de una distribución hipergeométrica.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *