衛生統計學中,P0 05,拒絕H0,為什麼會犯第一類錯誤

2021-04-19 18:13:12 字數 4464 閱讀 9776

1樓:匿名使用者

統計的假設檢驗復中,制

拒真的時候犯第一類錯誤,受偽的時候犯第二類錯誤。p<0.05,拒絕h0,這是根據樣本資訊做出的統計決策,做這個統計決策的前提是給定了犯第一類錯誤的概率是0.

05.也就是說,你做根據「p<0.05,拒絕h0」這個統計決策的時候,你已經做好了有5%的可能性犯第一類錯誤的心理準備,而不是說這個統計決策一定會犯第一類錯誤。

假設檢驗的思想還要再領會。

2樓:眨眼的

只要拒絕原假設的時候就有犯第一類錯誤的可能性;不拒絕原假設(接受原假設)的時候就有犯第二類錯誤的可能性!而p值是說根據樣本資訊,得出的原假設或不利於現在情況的可能性,也是一個概率值!

判斷 t檢驗後p<0.05,表示拒絕無效假設時犯假陰性錯誤的可能性大於5%。 **等

3樓:小米思念小包子

p就是犯第一類錯誤的概率,即原假設為真,被拒絕的概率,一般控制其小於0.05

因為在醫學中,我們寧可犯第一類錯誤,即原假設為真,被拒絕的概率,也不能容忍接收一個錯誤的假設

t檢驗中,p<0.05時拒絕h,理論依據是

4樓:匿名使用者

h0: 無差異,差值=0

h1: 有差異,差值不等於0

雙樣本 t 檢驗和置信區間

均值標樣本 n 均值 標準差 準誤1 10 11.00 1.76 0.

562 10 9.20 1.55 0.

49差值 = mu (1) - mu (2)

差值估計值: 1.800

差值的 95% 置信區間: (0.235, 3.365)差值 = 0 (與 ≠) 的 t 檢驗: t 值 = 2.43 p 值 = 0.027 自由度 = 17

顯著水平取0.05時:

p=0.027<0.05 拒絕h0, 有顯著差異顯著水平取0.01時:

p=0.027>0.01 接收h0, 無顯著差異

《統計學》中「第一類錯誤」和「第二類錯誤」分別是指什麼?

5樓:森海和你

第一類錯誤:原假設是正確的,卻拒絕了原假設。

第二類錯誤:原假設是錯誤的,卻沒有拒絕原假設。

第一類錯誤即i型錯誤是指拒絕了實際上成立的h0,為「棄真」的錯誤,其概率通常用α表示,這稱為顯著性水平。α可取單側也可取雙側,可以根據需要確定α的大小,一般規定α=0.05或α=0.

01。第二類錯誤即ⅱ型錯誤是指不拒絕實際上不成立的h0,為「存偽」的錯誤,其概率通常用β表示。β只能取單尾,假設檢驗時一般不知道β的值,在一定條件下(如已知兩總體的差值δ、樣本含量n和檢驗水準α)可以測算出來。

我們在做假設檢驗的時候會犯兩種錯誤:第一,原假設是正確的,而你判斷它為錯誤的;第二,原假設是錯誤的,而你判斷它為正確的。我們分別稱這兩種錯誤為第一類錯誤和第二類錯誤。

我們常把假設檢驗比作法庭判案,我們想知道被告是好人還是壞人。原假設是「被告是好人」,備擇假設是「被告是壞人」。法庭判案會犯兩種錯誤:

如果被告真是好人,而你判他有罪,這是第一類錯誤(錯殺好人);如果被告真是壞人,而你判他無罪,這是第二類錯誤(放走壞人)。

記憶方法:我們可以把第一類錯誤記為「以真為假」,把第二類錯誤記為「以假為真」。當然我們也可以將第一類錯誤記為「錯殺好人」,把第二類錯誤記為「放走壞人」。

在其他條件不變的情況下,如果要求犯第一類錯誤概率越小,那麼犯第二類錯誤的概率就會越大。這個結論比較容易理解,當我們要求「錯殺好人」的概率降低時,那麼往往就會「放走壞人」。

同樣的,在其他條件不變的情況下,如果要求犯第二類錯誤概率越小,那麼犯第一類錯誤的概率就會越大。當我們要求「放走壞人」的概率降低時,那麼往往就會「錯殺好人」。

同樣的,在其他條件不變的情況下,如果要求犯第二類錯誤概率越小,那麼犯第一類錯誤的概率就會越大。當我們要求「放走壞人」的概率降低時,那麼往往就會「錯殺好人」。

6樓:微甜世界

1、第一類錯誤又稱ⅰ型錯誤、拒真錯誤,是指拒絕了實際上成立的、正確的假設,為「棄真」的錯誤,其概率通常用α表示。假設檢驗是反證法的思想,依據樣本統計量作出的統計推斷,其推斷結論並非絕對正確,結論有時也可能有錯誤,錯誤分為兩類。

2、第二類錯誤,ⅱ型錯誤,接受了實際上不成立的h0 ,也就是錯誤地判為無差別,這類取偽的錯誤稱為第二類錯誤,其概率用β表示。簡單說就是:你的假設是錯誤,但你接受該假設。

「第一類錯誤」和「第二類錯誤」之間的關係:

1、當樣本例數固定時,α愈小,β愈大;反之,α愈大,β愈小。因而可通過選定α控制β大小。要同時減小α和β,唯有增加樣本例數。

統計上將1-β稱為檢驗效能或把握度(power of a test),即兩個總體確有差別存在,而以α為檢驗水準,假設檢驗能發現它們有差別的能力。實際工作中應權衡兩類錯誤中哪一個重要以選擇檢驗水準的大小。

2、做假設檢驗的時候會犯兩種錯誤:第一,原假設是正確的,而你判斷它為錯誤的;第二,原假設是錯誤的,而你判斷它為正確的。我們分別稱這兩種錯誤為第一類錯誤(type i error)和第二類錯誤(type ii error)。

第一類錯誤:原假設是正確的,卻拒絕了原假設。

第二類錯誤:原假設是錯誤的,卻沒有拒絕原假設。

我們常把假設檢驗比作法庭判案,我們想知道被告是好人還是壞人。原假設是「被告是好人」,備擇假設是「被告是壞人」。法庭判案會犯兩種錯誤:

如果被告真是好人,而你判他有罪,這是第一類錯誤(錯殺好人);如果被告真是壞人,而你判他無罪,這是第二類錯誤(放走壞人)。

記憶方法:我們可以把第一類錯誤記為「以真為假」,把第二類錯誤記為「以假為真」。當然我們也可以將第一類錯誤記為「錯殺好人」,把第二類錯誤記為「放走壞人」。

在其他條件不變的情況下,如果要求犯第一類錯誤概率越小,那麼犯第二類錯誤的概率就會越大。這個結論比較容易理解,當我們要求「錯殺好人」的概率降低時,那麼往往就會「放走壞人」。

同樣的,在其他條件不變的情況下,如果要求犯第二類錯誤概率越小,那麼犯第一類錯誤的概率就會越大。當我們要求「放走壞人」的概率降低時,那麼往往就會「錯殺好人」。同樣的,在其他條件不變的情況下,如果要求犯第二類錯誤概率越小,那麼犯第一類錯誤的概率就會越大。

當我們要求「放走壞人」的概率降低時,那麼往往就會「錯殺好人」。

spss迴歸分析中,p值正好等於0.05,是否顯著?

7樓:夢heart兒

spss迴歸分析中,如果p值很小,說明原假設情況的發生的概率很小,而如果出現了,根據小概率原理,就有理由拒絕原假設,p值越小,拒絕原假設的理由越充分。總之,p值越小,表明結果越顯著。p=0.

05=α=0.05  此時接受h0 表明引數相等或者無顯著性差異或者不顯著。

p值若與選定顯著性水平(0.05或0.01)相比更小,則零假設會被否定而不可接受。

然而這並不直接表明原假設正確。p值是一個服從正態分佈的隨機變數,在實際使用中因樣本等各種因素存在不確定性。產生的結果可能會帶來爭議。

擴充套件資料

顯著性檢驗有時,根據一定的理論或經驗,認為某一假設h0成立,例如,通常有理由認為特定的一群人的身高服從正態分佈。當收集了一定資料後,可以評價實際資料與理論假設h0之間的偏離,如果偏離達到了「顯著」的程度就拒絕h0,這樣的檢驗方法稱為顯著性檢驗。

偏離達到顯著的程度通常是指定一個很小的正數α(如0.05,0.01),使當h0正確時,它被拒絕的概率不超過α,稱α為顯著性水平。

這種假設檢驗問題的特點是不考慮備擇假設,考慮實驗資料與理論之間擬合的程度如何,故此時又稱為擬合優度檢驗。擬合優度檢驗是一類重要的顯著性檢驗。

8樓:呂秀才

這個嚴謹的說 就直接在**裡對這個p=0.05進行一個討論 可能是顯著 也可能是不顯著,因此可以在以後的研究中擴大樣本量進一步求證。

你就這樣在**裡面寫也是沒問題的

但實際是你雙擊以下 那個0.05 肯定後面還有很多隱藏的位數。所以不可能是恰好等於0.05,一般都是大於0.05

9樓:匿名使用者

可以看做顯著的

統計專業

醫學統計學中,t檢驗中的p表示什麼意思?

10樓:老人海

p就是犯第一類錯誤的概率,即原假設為真,被拒絕的概率,一般控制其小於0.05

因為在醫學中,我們寧可犯第一類錯誤,即原假設為真,被拒絕的概率,也不能容忍接收一個錯誤的假設

11樓:巨勤杜之槐

如果p>0.05,說明兩者間沒有統計學差異;如果p<0.05,說明兩者間有統計學差異.

12樓:

t檢驗中的p表示:無效假設成立與否的概率大小;p值大於設定的檢驗水準α水準,則無效假設成立的概率就大。

13樓:薩珺堵雁山

t檢驗是比較兩個群體總體平均值的差異,p值越大說明這兩個群體總體均值相同的概率越大,即兩個群體是來自相同的總體;反正,越小則說明他們來自不同的群體。

衛生統計學好難艾有什麼好的學習複習方法嗎

借鑑一下別人的學習方法 衛生統計學 是提高預防專業學生觀察問題 解決問題,提高學生科研素質的一門專業課,它是21世紀公衛醫生在從事預防工作和科學研究過程中必須掌握和了解的基本知識。衛生統計學 是 生物統計 的一門分支學科,生物統計 屬於 數理統計 的範疇。數理統計 是研究自然和社會領域隨機現象數量規...

統計學的方差分析表中,p值怎麼計算

p值的計算公式 2 1 z0 當被測假設 h1為 p不等於p0時 1 內 z0 當被測假設h1為 p大於p0時 z0 當被測假設h1為 p小於容p0時 其中,z0 要查表得到。z0 x n p0 根號下 np0 1 p0 最後,當p值小於某個顯著引數的時候我們就可以否定假設。反之,則不能否定假設。注...

統計學中的自由度是什麼意思,統計學中「成數」是什麼意思?

77 獨坐敬亭山 李白 統計學中的自由度是什麼意思 統計學中的自由度就是自由的程度,統計學中 成數 是什麼意思?成數在統計學中,交替標誌的表現形式只有兩種,把具有某種標誌表現或不具有某種表現的單位數佔總體單位數的比重叫做成數。相當於百分數,一成就是10 不能說1 三成五就是35 八成五就是85 一數...