以上都是關於簡單假設,我們再來看一對立假設是雙邊假設(亦為複合假設)的情況。考慮H0:p=0.5,Ha:p≠0.5,且仍取n=10。也就是只懷疑銅板並非公正,但對p值為何,並無特別的看法。再度,經由直觀,當正面數較多或較少,皆該拒絕H0。通常取對稱的拒絕域{X≥5+c,或X£5-c},其中c為一正整數。可證明在相同的α下,對稱的拒絕域,會使第二型錯誤之機率較小。這只要由二項分佈的機率密度函數之漸增及漸減性質,便可得知,不過此處不多討論。對α分別為0.01,0.05,及0.1之下,我們分別給出拒絕域及第一型錯誤之機率,過程則略去:
{X≥10,或X£0}={X=0,10},0.002;
{X≥9,或X£1}={X=0,1,9,10},0.022;
{X≥9,或X£1}={X=0,1,9,10},0.022。
由於在此Ha為複合假設,故第二型錯誤之機率並非定值,而為一函數β(u),其中u為區間[0,1]中之一數,但u≠0.5。例如,在α=0.05之下,由表2,β(0.6)»0.952,β(0.7)»0.851。我們注意到β(0.7)<β(0.6),這是合理的。甚至,當u屬於[0,0.5),函數β(u)為漸增;當u屬於(0.5,1],函數β(u)為漸減。其原因並不難想通,就留給讀者自行思索。
檢定銅板出現正面的機率p,不見得要經由二項分佈。如果p較小,則當投擲數不多時,正面並不太會出現。此時不妨考慮利用幾何分佈(geometric distribution)來檢定p。稍後我們再回到以二項分佈來檢定,以為比較。
持續投擲銅板,直至出現第一個正面才停止,令Y表總共之投擲數。則Y便稱有參數p之幾何分佈,以Ge(p)表之,且有
P(Y=k)=(1-p)k-1p,
其中k=1,2,…。此機率的由來,是因Y=k,表前k-1次皆出現反面(每次機率為1-p),最後1次出現正面(機率為p)。至於分佈名稱之由來,是因其機率值為一幾何(等比)級數。二項分佈是投擲數固定,出現正面數為隨機。至於幾何分佈,則是出現正面數固定(1次),而投擲數為隨機。幾何級數的和,求法相當簡易,大家中學時便學過了。利用其和的公式,即得Y之累積機率
(1) P(Y£k)=1-(1-p)k,k=1,2,…。
由此又得
(2) P(Y≥k)=(1-p)k-1,k=1,2,…。
現考慮
H0:p=0.01,Ha:p=0.02。
直觀上,p愈大愈快出現正面,由是Y會愈小。因0.02>0.01,故拒絕域該取為{Y£k}之型式,其中k由給定的α來決定。對0<α<1,由
P(Y£k)=1-(1-p)k£α,
解出
k£log(1-α)/log(1-p)。
而k須為整數,故取
(3) k=[log(1-α)/log(1-p)],
其中[x]表不超過x之最大整數。符號[×]最早出現在高斯的巨著“算術研究”(Disquisitiones Arithmeticae)一書中,故稱高斯符號(Gaussian symbol)。現將p以0.01,α則分別以0.01,0.05,及0.1代入(3)式,得到k分別為
[log(0.99)/log(0.99)]=1,
[log(0.95)/log(0.99)]=5,
[log(0.9)/log(0.99)]=10。
即拒絕域分別為{Y£1},{Y£5}及{Y£10}。有了拒絕域,第一型錯誤的機率,利用(1)式,分別為
P(Y£1|p=0.01)=1-0.991=0.01,
P(Y£5|p=0.01)=1-0.995»0.0049,
及
P(Y£10|p=0.01)=1-0.9910»0.0956。
至於第二型錯誤的機率,利用(2)式,分別為
β=P(Y≥2|p=0.02)=0.981=0.98,
β=P(Y≥6|p=0.02)=0.985»0.904,
及
β=P(Y≥11|p=0.02)=0.9810»0.817。
為了比較,底下我們再以B(10,p)分佈,重新檢定H0:p=0.01,Ha:p=0.02。對X有B(10,0.01)分佈,P(X£0),P(X£1),及P(X£2),分別約為0.904,0.996,及1。又對X有B(10,0.02)分佈,P(X£0),P(X£1),及P(X£2),分別約為0.817,0.984,及0.999。由此即得,在α分別為0.01,0.05,及0.1下,拒絕域分別為{X≥2},{X≥2},及{X≥1},且第一型錯誤的機率,分別約為0.004,0.004,及0.096。至於第二型錯誤的機率,則分別約為0.984,0.984,及0.817。可看出,由於在H0裡,p的可能值0.01較小,因此若以二項分佈來檢定,在不同的α下,拒絕域容易相同。這是此時會考慮藉助幾何分佈來檢定的主因。讀者也不妨想想,當可能的p較大時,有沒有必要以幾何分佈來檢定?
最後來看X有B(n,p)分佈,但n較大的情況。假設要檢定
H0:p=1/2,Ha:p≠1/2。
再度取拒絕域為{|X-n/2|≥c}={X≥n/2+c,或X£n/2-c},其中c由n及α決定。取n=100,因n較大時,二項分佈的機率值不好算,故利用中央極限定理,以常態分佈來近似。先看α=0.01,則c約為12.88,取整數c=13。如此拒絕域={X≥63,或X£37},且第一型錯誤之機率約為0.0094。對離散型分佈,往往無法取到剛好能達到所給α值之拒絕域。次看α=0.05。得c約為9.8,取c=10。如此拒絕域={X≥60,或X£40}。所給的α增大,拒絕域合理地增大些,又此時第一型錯誤之機率約為0.0456。再看α=0.1。得c約為8.225,取c=9。如此拒絕域={X≥59,或X£41},拒絕域又增大些了,而第一型錯誤之機率則約為0.0718。
我們注意到,當α=0.01,如果投擲銅板100次,得到62個正面,雖比在H0之下 (銅板為公正)的期望值50多了12,即超過24%,感覺上相當偏差,但因62並未落在拒絕域,遂仍得接受此銅板為公正。沒辦法,那是因所給α太小的緣故。解決之道是加大n。假設取n=10,000,則在H0之下,X的期望值=5,000,標準差=50。則當α=0.01時,c約為128.8,故取c=129,此時拒絕域={X≥5,129,或X£4,871}。投擲數成為100倍後,正面數X,只要比期望值5,000偏離逾129/5,000=2.58%,就得拒絕H0了。2.58%自然比24%小很多了。樣本大尚有另一優點,即在同樣的α下,n愈大,除了會使拒絕域相對n而言愈窄,也會降低第二型錯誤的機率。直觀上是對的,因樣本愈大便愈精準。不過這方面的討論,比較複雜些,在此略過。另外,在以上的幾個例子裡,我們以直觀所得到的拒絕域,事實上都是最佳拒絕域。也就是在同一α下,會使第二型錯誤的機率最小。這在統計學裡並非偶然,很多時候,人們憑直觀得到的結果,不但壞不到那裡去,常就是最好的。