MathWorld Mitwirkende > Yap >

DOWNLOAD Mathematica NotebookEXPLORE THIS TOPIC IN the MathWorld ClassroomBinomial-Verteilung

Die Binomialverteilung gibt die diskrete Wahrscheinlichkeitsverteilung P_p(n|N) des Erhalts von genau n Erfolgen aus N Bernoulli-Versuchen (wobei das Ergebnis jedes Bernoulli-Versuchs mit Wahrscheinlichkeit p wahr und mit Wahrscheinlichkeit q=1-p). Die Binomialverteilung ist also gegeben durch

P_p(n|N) = (N; n)p^nq^(N-n)
(1)
= (N!)/(n!(N-n)!)p^n(1-p)^(N-n),
(2)

wobei (N; n) ein Binomialkoeffizient ist. Die obige Darstellung zeigt die Verteilung von n Erfolgen aus N=20 Versuchen mit p=q=1/2.

Die Binomialverteilung ist in der Wolfram Language als BinomialDistribution implementiert.

Die Wahrscheinlichkeit, mehr Erfolge als das n zu erhalten, ist bei einer Binomialverteilung

P=sum_(k=n+1)^N(N; k)p^k(1-p)^(N-k)=I_p(n+1,N-n),
(3)

wobei

I_x(a,b)=(B(x;a,b))/(B(a,b)),
(4)

B(a,b) ist die Beta-Funktion, und B(x;a,b) ist die unvollständige Betafunktion.

Die charakteristische Funktion für die Binomialverteilung ist

phi(t)=(q+pe^(it))^N
(5)

(Papoulis 1984, p. 154). Die moment-erzeugende Funktion M für die Verteilung ist

M(t) = e^(tn)
(6)
= sum_(n=0)^(N)e^(tn)(N; n)p^nq^(N-n)
(7)
= sum_(n=0)^(N)(N; n)(pe^t)^n(1-p)^(N-n)
(8)
= ^N
(9)
M^'(t)'(t) = N^(N-1)(pe^t)
(10)
M^('')(t)'')(t) = N(N-1)^(N-2)(pe^t)^2+N^(N-1)(pe^t).
(11)

Der Mittelwert ist

mu = M^'(0)'(0)
(12)
= N(p+1-p)p
(13)
= Np.
(14)

Die Momente um 0 sind

mu_1^'' = mu=Np
(15)
mu_2^'' = Np(1-p+Np)
(16)
mu_3^'' = Np(1-3p+3Np+2p^2-3Np^2+N^2p^2)
(17)
mu_4^'' = Np(1-7p+7Np+12p^2-18Np^2+6N^2p^2-6p^3+11Np^3-6N^2p^3+N^3p^3),
(18)

so sind die Momente um den Mittelwert

mu_2 = Np(1-p)=Npq
(19)
mu_3 = Np(1-p)(1-2p)
(20)
mu_4 = Np(1-p).
(21)

Die Schiefe und Kurtosisexzess sind

gamma_1 = (1-2p)/(sqrt(Np(1-p)))
(22)
= (q-p)/(sqrt(Npq))
(23)
gamma_2 = (6p^2-6p+1)/(Np(1-p))
(24)
= (1-6pq)/(Npq).
(25)

Der erste Kumulant ist

kappa_1=np,
(26)

und die nachfolgenden Kumulanten sind gegeben durch die Rekursionsbeziehung

kappa_(r+1)=pq(dkappa_r)/(dp).
(27)

Die mittlere Abweichung ist gegeben durch

MD=sum_(k=0)^N|k-Np|(N; k)p^k(1-p)^(N-k).
(28)

Für den Spezialfall p=q=1/2, ist dies gleich

MD = 2^(-N)sum_(k=0)^(N)(N; k)|k-1/2N|
(29)
= {(N!!)/(2(N-1)!!) für N ungerade; ((N-1)!!)/(2(N-2)!!) für N gerade,
(30)

wobei N!! eine doppelte Fakultät ist. Für N=1, 2, … sind die ersten paar Werte also 1/2, 1/2, 3/4, 3/4, 15/16, 15/16, … (OEIS A086116 und A086117). Der allgemeine Fall ist gegeben durch

MD=2(1-p)^(N-|_Np_|)p^(|_Np_|+1)(|_Np_|+1)(N; |_Np_|+1).
(31)

Steinhaus (1999, pp. 25-28) betrachtet die erwartete Anzahl von Quadraten S(n,N,s), die eine gegebene Anzahl von Körnern n auf einem Brett der Größe s nach einer Zufallsverteilung von N von Körnern enthalten,

S(n,N,s)=sP_(1/s)(n|N).
(32)

Nimmt man N=s=64, erhält man die in der folgenden Tabelle zusammengefassten Ergebnisse.

n S(n,64,64)
0 23.3591
1 23.7299
2 11.8650
3 3.89221
4 0.942162
5 0.179459
6 0.0280109
7 0.0036840
8 4.16639×10^(-4)
9 4.11495×10^(-5)
10 3.59242×10^(-6)

Eine Approximation der Binomialverteilung für große N kann durch Expansion um den Wert n^~ erhalten werden, wobei P(n) ein Maximum ist, i.e., wobei dP/dn=0. Da die Logarithmusfunktion monoton ist, können wir stattdessen die Erweiterung des Logarithmus wählen. Sei n=n^~+eta, dann

ln=ln+B_1eta+1/2B_2eta^2+1/(3!)B_3eta^3+...,
(33)

wo

B_k=)/(dn^k)]_(n=n^~).
(34)

Aber wir expandieren um das Maximum, also, per Definition,

B_1=)/(dn)]_(n=n^~)=0.
(35)

Das bedeutet auch, dass B_2 negativ ist, also können wir schreiben B_2=-|B_2|. Wenn man nun den Logarithmus von (◇) nimmt, erhält man

ln=lnN!-lnn!-ln(N-n)!+nlnp+(N-n)lnq.
(36)

Für große n und N-n können wir die Stirlingsche Näherung verwenden

ln(n!) approx nlnn-n,
(37)

so

(d)/(dn) ca. (lnn+1)-1
(38)
= lnn
(39)
(d)/(dn) ca. d/(dn)
(40)
=
(41)
= -ln(N-n),
(42)

und

(dln)/(dn) approx -lnn+ln(N-n)+lnp-lnq.
(43)

Um n^~ zu finden, setzen Sie diesen Ausdruck auf 0 und lösen Sie für n,

ln((N-n^~)/(n^~)p/q)=0
(44)
(N-n^~)/(n^~)p/q=1
(45)
(N-n^~)p=n^~q
(46)
n^~(q+p)=n^~=Np,
(47)

da p+q=1. Wir können nun die Terme in der Erweiterung finden

B_2 = )/(dn^2)]_(n=n^~)
(48)
= -1/(n^~)-1/(N-n^~)
(49)
= -1/(Npq)
(50)
= -1/(Np(1-p))
(51)
B_3 = )/(dn^3)]_(n=n^~)
(52)
= 1/(n^~^2)-1/((N-n^~)^2)
(53)
= (q^2-p^2)/(N^2p^2q^2)
(54)
= (1-2p)/(N^2p^2(1-p)^2)
(55)
B_4 = )/(dn^4)]_(n=n^~)
(56)
= -2/(n^~^3)-2/((n-n^~)^3)
(57)
= (2(p^2-pq+q^2))/(N^3p^3q^3)
(58)
= (2(3p^2-3p+1))/(N^3p^3(1-p)^3)).
(59)

BinomialGaussian

Nun behandeln wir die Verteilung als kontinuierlich,

lim_(N-infty)sum_(n=0)^NP(n) approx intP(n)dn=int_(-infty)^inftyP(n^~+eta)deta=1.
(60)

Da jeder Term der Ordnung 1/N∼1/sigma^2 kleiner ist als der vorherige, können wir Terme höher als B_2 ignorieren, also

P(n)=P(n^~)e^(-|B_2|eta^2/2).
(61)

Die Wahrscheinlichkeit muss normiert werden, also

int_(-infty)^inftyP(n^~)e^(-|B_2|eta^2/2)deta=P(n^~)sqrt((2pi)/(|B_2|))=1,
(62)

und

P(n) = sqrt((|B_2|)/(2pi))e^(-|B_2|(n-n^~)^2/2)
(63)
= 1/(sqrt(2piNpq))exp.
(64)

Definieren von sigma^2=Npq,

P(n)=1/(sigmasqrt(2pi))exp,
(65)

Das ist eine Normalverteilung. Die Binomialverteilung wird also für jedes feste p (auch wenn p klein ist) durch eine Normalverteilung approximiert, wenn N auf unendlich gesetzt wird.

Wenn N-infty und p-0 so sind, dass Np-lambda, dann konvergiert die Binomialverteilung gegen die Poisson-Verteilung mit Mittelwert lambda.

Lassen Sie x und y unabhängige binomiale Zufallsvariablen sein, die durch die Parameter n,p und m,p gekennzeichnet sind. Die bedingte Wahrscheinlichkeit von x bei x+y=k ist

P(x=i|x+y=k)=(P(x=i,x+y=k))/(P(x+y=k)) =(P(x=i,y=k-i))/(P(x+y=k)) =(P(x=i)P(y=k-i))/(P(x+y=k)) =((n; i)p^i(1-p)^(n-i)(m; k-i)p^(k-i)(1-p)^(m-(k-i)))/((n+m; k)p^k(1-p)^(n+m-k)) =((n; i)(m; k-i))/((n+m; k)).
(66)

Beachten Sie, dass dies eine hypergeometrische Verteilung ist.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.