㈠ NLP中的因果推斷(綜述)
NLP在建模語言方面的發展,給我們提供了很多方法來從文本中提取信息,用於estimate causal effect
為了解決NLP中的魯棒性和可解釋性問題,我們需要新的標准來學習模型,並且進一步挖掘相關性。
counterfactual 問題在Section 4中有進一步的解釋
Ignorability, Positivity, Consistency
主要的挑戰是:從高緯的文本數據中蒸餾(distill)出相關的低維的特徵。
比如:
text是作為outcome的。
我們可以設計RCT,一組學生受教育,一組學生不接受教育,收集他們的文章。
為了確保滿足consistency: 1. 需要確保學習的時候,學生之間不受影響(no interference)2.需要創造出」可讀性「的測量方式
挑戰:我們需要condition on在文本數據上,去block confouding
一種方法是使用無監督降維演算法去減少文本數據的高維度,比如:topic model, embedding methods, auto-encoder等等。
另一種是使用監督方法。使用預訓練的語言模型和有監督的topic model,預測treatment和outcome,通過預測treatment和outcome(也就是把treatment和outcome當作監督目標),他們表示confounding properties可以在文本數據中被挖掘出來。
text as confounder只有在已觀測數據中可行。這樣我們就需要比較強的ignorability:所有方面的confoudning都必須被模型觀測出來。這樣做也是很具有挑戰性的,因為文本數據的維度高,我們condition on的變數變多,就越來越難以滿足positivity。而且我們可能condition on在collider變數上,導致一些原本block的backdoor反而被打開了。
(這倆有啥區別?不都是從文本中提取feature么?)
text as treatment帶來的一些挑戰:
比如候選人的傳記會影響投票結果、超市廣告寫作風格會影響銷量。
Heterogeneous effects :由於不同的人閱讀同一段文本會有不同的理解。這也就導致了一些問題:解釋因果效應、溝通研究發現。
比如:用一段文本作為treatment,會在不同的人身上產生不同的causal effect。formulate和identify這些heterogeneous causal effect,就需要新的反事實問題,假設,和方法。
Benchmarks :有benchmark數據集已經幫助推動了機器學習的發展,有統一的benchmark、統一的標准,這些模型就能被統一地衡量。
在causal explanation有一些benchmark已經發展出來,但是缺少NLP datasets。這是因為潛在outcome是反事實的。任何benchmark(它假設反事實的知識是必須做一個強的假設)是無法核實的(unverifiable)。
雖然我們能夠把聚合的結果和實驗作比較,但我們永遠也無觀測到一個benchmark的真實causal effect。
到目前為止(Thus far),我們一直專注於使用NLP工具來衡量存在於文本中的因果效應。我們現在來考慮一個相反的關系:用因果推理來幫助解決傳統的NLP任務,比如:understanding、manipulating 和generating 自然語言。
乍一看,NLP可能不太需要因果的idea。近幾年有很多high-capacity的NLP框架做出了巨大的進步(比如BERT)。這些框架沒有區分cause、effect、confounder這些概念。也沒有嘗試去識別出因果關系。這些模型認為:一個feature可以很有用,就算這個feature和結果沒有因果關系。
然而,盡管取得了SOTA的結果,基於相關性的預測型模型是不值得信任的(untrustworthy):他們可能會去捕捉虛假的相關性,導致OOD問題(out-of-distribution)。他們可能會在不同的用戶群體中表現出不可接受的性能差異。他們也會因為太難以捉摸,以至於不能去進行高風險決策。
任何一個問題都可以潛在地通過因果的視角解決:因果關系的(先驗)知識可以用於formalize虛假的相關性,並且減輕對他們的預測依賴性。因果也可以提供一種語言,用於明確和推理出公平條件(fairness conditions)。解釋預測的任務也可以很自然地用反事實來描述。(啥意思?)
基於這些原因,越來越多的(a growing line of research)研究圍繞因果研究中的發現,嘗試去重定向機器學習的目標。到目前位置(Thus far),應用大部分集中於其他領域,比如:生物醫學數據(需要可信度高),計算機視覺(非常需要跨領域(cross-domain)的學習)(這個比較經典的例子是,colored MNIST,color channel用於創建更有挑戰性的分布偏移),還有那些比較容易構造有人為的虛假相關性的數據集。(人為構造虛假相關性,是為了容易檢驗causal的方法更robust么?)
總結:在這一節中,我們回顧了把causal應用於NLP的工作,專注於一些獨特的problem和涌現出的機會。下一節,在4.1中,我們會討論虛假相關性對於泛化帶來的不利影響、分布偏移(distributional shift)、因果驅動的方法,來達到更好的魯棒性。4.2中,簡單回顧在公平和偏見相關的問題中,使用因果進行規范化(formalization)的嘗試。4.3中,總結因果方法用於解釋復雜機器學習模型的行為。
插播英語知識:explain和interpret的區別:
explain:把別人不懂的知識,解釋給他
interpret:區別就是,我們誰都不懂這個知識,我們需要去理解它,interpret它,洞悉它的本質。(interpret的知識更加難理解)
NLP中已經有不少的對於虛假相關性的擔憂。虛假相關性在以下兩種情況下會發生:
這里問題就是,一個預測器: ,會去學習使用X的一部分,這一部分的信息與Z有關(因為Z對Y也是有信息提供的,也就是學習到的這一部分內容,是Z提供給Y的,而不是X提供給Y的,但是我們在最後的模型中不需要這一部分),但是最後用於部署的模型中,X和Y之間的這一部分關系(Z提供的)是不需要的。
舉一個例子:通過病人的文本記錄,來預測醫療效果,使用的訓練集來自不同的醫院。假設:有一個醫院,(a)病人更容易被診斷為這一種病,(b)醫生傾向於使用一種獨特的寫作方法(比如,因為醫院的訓練,當地的方言)。一個predictor用這些數據集去訓練,會去使用一些文本特徵(帶有醫院的相關信息,這些信息可能對診斷沒有一點用處)。這會導致很差的OOD(out-of-distribution)表現,就因為寫作風格和醫療效果之間的虛假相關性。
為了確保predictor不會「由於錯誤的原因而正確「,一些評估方法主要有兩種形式:
不變性測試可以由因果直覺驅動:目的是測試如果以反事實輸入 ,Z表示是文本的cause,但和Y因果不相關,predictor會不會表現的不一樣。一個模型的預測結果在這些反事實中不變,可以被看作在測試集上如果Y和Z由不一樣的關系,也能有更好的表現。
敏感性測試可以看作是評估反事實 ,這里的label改變了,但是所有的其他在X上的因果影響都是不變的。
(沒看懂這個不變性測試和敏感性測試)
很多方法被應用於訓練能夠通過sensitivity tests和invariance test的predictor。許多這些方法不是顯式地就是隱式地使用了因果的視角。現在我們研究這些方法,這些方法主要分為兩大類:反事實數據增廣(counterfactual data augmentation)和因果驅動的分布標准(causally-motivated distributional criteria)
為了學習出能夠通過敏感性和不變性測試的predictor,data augmentaion是一種比較流行的方法。得到、或者構造反事實數據,並且把他們合並到訓練數據。
沒看懂這啥意思。。 ,是造出使得預測結果y改變的那些X?
反事實數據可以通過以下幾個方式生成:
反事實數據是個十分有用的資源,因為他們直接標出了missing data。但這十分困難。以上這些方法還有可能引入新的虛假相關。
數據增廣比較困難,因此我們考慮直接對已觀測的數據進行操作。
在不變性測試中,一種策略是導出不變的預測器的分布特徵,並且確保這些特性是滿足已訓練的模型。(?)
(前兩種看不懂。。)
第三種就是那個經典的因果結構圖,X: Treatment,Y: Outcome,Z: Confounder,用backdoor,把 換成 。這種方法對於虛假相關性在domain shift的時候有很強的魯棒性。
總體來說,這些方法都比典型的監督學習需要更多的訓練數據。還有就是,distributional方法目前為止只能用於classification任務(Debiased那篇文章就是文本生成任務?),數據增廣可以使用於更多的復雜的任務,比如機器翻譯。
未來的工作中,distributional方法必須解決結構性的預測(structured prediction)。(機器翻譯就是一個structured problem)
未來的工作中,還要考慮使用不完整的因果模型的結果,因為不是所有的confouding 都可以被觀測。在NLP中,不被觀測的confounding是很普遍的。
NLP有時候會放大訓練數據中的bias。causality可以提供一種識別出公平性問題的語言。公平性問題:種族、性別。
然而,將種族等屬性作為受干預或反事實推理影響的變數,存在一些重要的合法性問題。
causality和unfair bias之間的鏈接主要在相對低維的數據上會展現出來,而不是在文本數據中。但是,有一些在反事實數據增廣方面的方法在這一領域有應用,比如:
反事實數據增廣也被用於減少 預訓練的word embedding模型中的 bias。但是預訓練word embedding模型中的偏差會以多大程度傳到下游應用中,還不清楚。
在公平問題中使用distributional criteria的應用還比較少。但是一些研究者show: invariant risk minimization,(嘗試去學習一個不變的predictor,在多環境中),可以減少在公民評論數據集中(Civil Comments dataset)種族的虛假相關性。
NLP 模型是出了名的難以解釋。但盡管如此,這對於診斷錯誤,以及和決策者之間建立信任是非常重要的。 一個生成解釋的非常重要的方法,是挖掘網路的部件,比如attention的權重。另外,還有一些嘗試去估計更簡單、更有解釋性的模型:使用test樣例中的擾動(?),或者其他隱表達。
然而,基於attention和基於擾動(perturbation-based)方法都有很大的局限,attention-based解釋可能有誤導性,而且可能只對某些獨特的token有效。他們可能對於更抽象的語言概念沒法解釋預測結果。目前存在的perturbation-based方法經常產生一些難以置信的反事實,而且還不能對一些句子級別的概念進行估計。
把這看作一個因果推斷問題,一個自然的方法去解釋就是生成反事實樣例(4.1.1),並把每個樣例的預測結果和它的反事實進行比較。這樣一個受控制的設定比較像隨機對照試驗(section 2中描述的),這比較可行地去計算一個真實觀察到的文本和 某個概念不存在於其中 的文本之間的區別(也就是counterfactual)。確實在一些例子中,counterfactual文本是可以被生成的,我們可以使用一些基於文本的模型去估計因果效應。但是生成自然語言的counterfactual有時候比較難以自動生成,而且人工做起來比較費勁,特別是對一些抽象概念,比如:語言風格,話題,情感。
為了克服反事實生成的問題,另一類方法提出:去操縱文本的表達方式(representation)(...列出了一堆文獻),而不是文本本身。這些研究的結果和一些魯棒性文獻中的結果有一些相似性。但是這些研究結果更專注於識別一個訓練模型中的invariance,而且並不是在訓練的過程中強迫他們(指模型)。一個研究者計算反事實representation(通過預訓練附加的.... 當控制confouding concepts的時候,設計了一個對抗性的組件,去」忘記「某一個被選擇的概念)。另一個研究者提供了一種方法:從神經表達中remove掉信息,通過迭代地訓練線性分類器,並把representation映射到null spaces。(這樣做也相當於」忘記「)。
相較於使用counterfactual來確認(identify)invariances,一個補充的方法是使用使得模型改變預測的最小change,來 生成 counterfactual。這樣的例子被當作解釋,因為他們能讓我們觀察到一個模型發生改變所需要的change。
最後,因果的視角在attention-based解釋中,是去把內部節點當作mediator,在input到output的過程中影響因果效應。 通過人工製造的counterfactual,我們可以觀察到信息是如何在不同的模型組件中流動的 ,並且識別(identify)出他們編碼在模型的什麼地方。
我們在這項研究中的主要目標是收集不同的causal和NLP的結合點,我們把這些問題細分為統計因果推斷和傳統的NLP任務。這些研究的不同分支有共同的目標,intuitions,並且開始去表現出方法之間的協同性。Section 3中,我們展示出最近的使用NLP建模,來幫助研究者作因果結論的進展。Section 4中,我們展示出,這些因果推斷中的idea是怎麼被用於讓NLP模型更加可信(trustworthy)和透明(transparent)。所有的這些領域都還是新生的,有很多的挑戰。
因果的方法論迫使研究者解釋他們的假設。為了改善科學標准,我們相信計算語言社區應該對這些假設更加清晰,並且使用因果推理分析這些數據。在這個方向推動我們的NLP方法論,能夠引導出對 語言 和 我們創建的模型 有一個更好的理解
㈡ 幾種因果(cause)或者相關性(interaction)推斷的量度
1. correlation:有線性的皮爾遜相關系數(Pearson Correlation Coefficient)和數據排序相關的斯皮爾曼等級相關(Spearman』s correlation coefficient)
2. 互信息(mutual information): 可衡量非線性的關系 ,或者 延遲的互信息(delayed mutual information)
3. 格蘭傑因果關系檢驗(granger causality)
諾貝爾經濟學獎獲得者,英國經濟學家克萊夫·格蘭傑(Sir Clive William John Granger),是著名的經濟時間序列分析大師,被認為是世界上最偉大的計量經濟學家之一。Granger從預測的角度給出了因果關系的一種描述性定義,這就是我們現在所熟知的Granger因果關系。
Granger指出:如果一個變數X無助於預測另一個變數Y,則說X不是Y 的原因;相反,若X是Y的原因,則必須滿足兩個條件: 第一,X應該有助於預測Y,即在Y關於Y的過去值的回歸中,添加X的過去值作為獨立變數應當顯著地增加回歸的解釋能力;第二,Y不應當有助於預測X,其原因是,如果X有助於預測Y,Y也有助於預測X,則很可能存在一個或幾個其他變數,它們既是引起X變化的原因, 也是引起Y變化的原因。現在人們一般把這種從預測的角度定義的因果關系稱為Granger因果關系。
參見 http://blog.csdn.net/mafujinji/article/details/6496224
4. 傳遞熵(transfer entropy)
相信隨著 大數據 的到來,會使得傳遞熵(transfer entropy)這種方法會受到更多人的關注,因為它是一種基於概率分布,香農熵,統計的方法得出時間序列間因果性的方法。這種方法首先提出是在PRL上由T.Schreiber 提出的,又用在生物系統中,所以這里大部分人可能不熟悉。由於transfer entropy 所需的時間序列長度較大,所以在普遍數據量較小的時代,只能用在神經信號和腦電圖中。現在很多地方都意識到數據的重要性,各種感測器也被大量應用,原本不存在的數據來源慢慢的也被發掘了。相信transfer entropy 的春天就要來了。
什麼是transfer entropy 它其實就是一個條件分布帶來的探測到時間序列間的不對稱性。說的學術一點:傳遞熵是在錯誤假設傳遞概率函數為p(in+1|in(k)),而不是p(in+1|in(k),jn(l))的情況下,預測系統狀態額外需要的信息。這個信息由Y到X和由X到Y是不對稱,這種不對稱就帶來了,驅動和響應的關系的建立。不過他和granger 因果性檢驗之間的等價性在一篇工作中已經證明。而且傳遞熵能對非線性時間序列應用,對這種granger的因果性也很敏感。
參見 http://blog.csdn.net/jjjphysics/article/details/24349289
5. 收斂交叉映射(convergent cross mapping)
Convergent cross mapping (CCM) is a statistical test for a cause-and-effect relationship between two time series variables that, like the Granger causality test, seeks to resolve the problem that correlation does not imply causation . [1] [2] While Granger causality is best suited for purely stochastic systems where the influences of the causal variables are separable (independent of each other), CCM is based on the theory of dynamical systems and can be applied to systems where causal variables have synergistic effects. The test was developed in 2012 by the lab of George Sugihara of the Scripps Institution of Oceanography , La Jolla , California, USA.
Granger Causality是經典方法,在計量經濟學的時間序列分析中有較多的應用。 除此之外,還有Convergent cross mapping (CCM)。Granger因果模型的前提假設是事件是完全隨機的,但現實情況有很多是非線性、動態且非隨機的,Granger模型對這一類狀況不適用。CCM則能適用於這一類場景,在多組時間序列中構建出因果網路。 感興趣的可以讀一下這篇發表在Science上的文章:
參見 https://en.wikipedia.org/wiki/Convergent_cross_mapping
https://www.hu.com/question/27516929
㈢ 如何利用計量經濟學的方法進行因果推斷(一)
本文是在我在這學期聽了北京大學國發院2019年春季學期沈艷老師開設的《高級計量經濟學2》後對因果推斷部分的總結,主要涉及DID、RD、傾向得分匹配、HCW及合成控製法等計量方法。
因為文章包含了很多我個人的理解,免不了有所疏漏或者有理解不到位之處,還請大家批評指正。大家如果有興趣對因果推斷的方法進一步探究,可以閱讀我在文章最下方列出的課程參考文獻以及我自己認為對理解因果推斷很有幫助的一些文章。
首先,什麼是因果推斷?我認為因果推斷是用已有的證據去證明兩件事、兩個變數之間的因果聯系,比如證明教育年限對於工資水平的影響,或者是氣候變化對於農作物產量的影響,這里的教育年限和氣候變化就是因,而工資水平和農作物產量則是果。
用於驗證因果關系最理想的辦法,自然是做實驗。繼續上文教育年限和工資水平的例子,我們如果想證明教育年限對於工資水平有影響,在理想狀態下應該找一群人,控制他們的性別、年齡、智商等等所以可能影響工資水平的因素不變化,而只讓教育年限發生變化,來觀察工資水平是否會發生變化以及發生多大的變化。但現實中,尤其是對於社會學科來說,通常的研究對象是人,很難像自然科學一樣在可以對各變數進行嚴格控制的環境下進行實驗,所以就又有了下面我們要講的方法。
第一種是隨機控制實驗(random control trial),也就是近些年比較火的RCT方法。用葯品測試作為例子,為了測試某種新葯到底有沒有效果,葯品公司招募了一批符合條件的被試者,將這些被試者隨機分入控制組或者實驗組。控制組僅發放安慰劑,而實驗組則會發放真正的葯品,但是被試者並不知道發放到自己手中的葯品究竟是安慰劑還是開發的新葯。在實驗結束以後,對比實驗組與控制組的相應身體指標,二者之間的平均差異就是新葯的效果。
第二種是自然實驗(natural experiment)或者准實驗(quasi-experiment)。這類實驗主要是指由於某些外部突發事件,使得當事人彷彿隨機地被分配到了實驗組和控制組,因而可以進行比較,探究是否存在因果關系。通過個體分組是否完全取決於這一突發事件,我們又可以進一步將其分為兩類實驗:第一類個體分組完全取決於突發事件,比如1992年,美國新澤西州通過法律將最低工資從每小時4.25美元提高到5.05美元,但在相鄰的賓夕法尼亞州最低工資依然保持不變,這兩個州的僱主彷彿被隨機地分配到實驗組(新澤西州)與控制組(賓夕法尼亞州)。這類自然實驗可以直接用OLS估計因果效應。第二類個體分組只是部分地由自然實驗所決定,如Angrist(1990) 考察越戰期間的參軍者,當時美國對全國年輕男子以生日抽簽的方式進行徵兵,盡管抽簽完全隨機,但是否參軍取決於體檢,且有些人得到豁免,另一些人未抽中卻自願參軍,此時應以自然實驗所帶來的隨機變動作為工具變數。
那在介紹完以上的實驗之後,我們正式進入因果推斷的框架。我們這里主要用到的是RCM的模型,即Rubin Causal Model (RCM; Rubin 1978)。首先我們引入潛在因變數的概念。
什麼叫做潛在因變數呢?例如一個人上了大學,我們想研究上大學這一事件對於他的收入帶來了多大的提升,這一提升叫做上大學這一事件的處理效應。為了計算這一處理效應,我們就要對這個人上了大學的收入和沒上大學的收入兩者相減。但在實際情況中,我們只能觀察到他上了大學的收入,而無法觀察到他沒上大學的話收入是多少,因為一個人無法像薛定諤的貓一樣同時兼具兩種狀態,要麼是生,要麼是死,一旦一種狀態被確定,另一種狀態下發生的事情就無法觀測到了。此時,這個無法觀測到的因變數就叫做潛在因變數。那我們引入以下的一些notation。
接下來我們就要定義所謂的處理效應。因為總體可以分為實驗組和控制組,相應在總體、實驗組和控制組三個層面上就有三種處理效應。用我們上面提到的總體處理效應是指總體隨機分配個體到實驗組與控制組所得到的處理效應,即 。而實驗組處理效應為 。控制組的處理效應為 。這三者之間的關系是 ,即總體處理效應是實驗組處理效應與控制組處理效應的權重加總。
在現實中由於潛在因變數的問題,我們往往無法估計以上三種處理效應。我們往往通過比較實驗組與處理組的平均差異來近似個體處理效應,即:
當 趨於無窮時,該值依概率收斂於 ,經過一番操作後可以化為
第一個花括弧內即為實驗組的處理效應,第二個花括弧內是由實驗組和控制組解釋變數差異帶來的混淆效應,即實驗組和控制組個體本身的異質性,第三個花括弧內是實驗組和控制組個體不可觀測因素帶來的偏差。
為了使估計的總體處理效應在期望上等於實驗組的處理效應,我們需要引入以下兩個假定:
第一個假定表明在控制了解釋變數之後,實驗組與控制組個體的選擇與潛在因變數獨立。第二個假定叫做重合假定,表明實驗組與控制組應當在一個范圍內都有觀測值。這兩個假定合起來稱為「the strongly ignorable treatment assignment」假定。
如果以上兩個假定成立,那麼我們就可以選用回歸、傾向得分匹配的方法。反之,則根據需要選用工具變數、DID、RD、HCW、合成控製法等。
除了假定以外,實驗組分配機制也是決定我們能否使用因果推斷以及使用哪種因果推斷方法的重要因素。一般而言,我們都需要考慮實驗組分配機制是否存在內部有效性和外部有效性的問題。內部有效性問題主要包含:1)未能完全隨機分組;2)未能完全遵從實驗設計;3)中途退出實驗;4)觀察效應或霍桑效應,即觀察者會給實驗者的行為造成擾動;5)樣本量過小。內部有效性問題主要存在於實驗設計本身,而外部有效性問題影響實驗結果是否能夠推廣,具有參考價值和普遍的代表性,主要包括:1)樣本代表性不足;2)小型實驗的條件與大規模推廣時的現實條件不同;3)一般均衡效應,以市場供需為例,市場在達到均衡與未達到均衡時供需機制顯然是不同的;4)自我選擇效應,以就業培訓項目為例,選擇進入就業培訓項目的人往往在近幾年收入較低,因此研究就業培訓項目對收入的影響就會存在內生性問題。
因為文章比較長,所以我們這部分就先介紹RCM基本框架,接下來依次為大家介紹這一框架下不同的因果推斷方法。
相關網頁:
Rubin Causal Model (RCM) 和隨機化試驗 (作者寫的一系列關於因果推斷的文章可讀性很不錯,大家有興趣可以一覽)
㈣ 請教大家,推理歸納與探求因果關系五法是這
推理歸納是根據某類事物中部分對象具有某一現象屬性,並且該現象屬性與對象之間具有某種因果關系。從而推出該類事物的所有對象都具有某一屬性的推理方式。而探求對象與某一現象是否有因果關系的方法,有五種:求同法、求異法、求同求異並用法、剩餘法、共變法。
㈤ 因果推斷實用計量方法
因果推斷實用計量方法如下:
可以直接控制Y對X的回歸中的干擾變數C。控制回歸的統計要求是,給定干擾變數C,潛在結果Y的分布應該有條件地獨立。
假設我們想要了解一個現有產品特性的影響,例如在線聊天使用對產品銷量的影響。首先我們要搞清楚了解這個影響的目的:如果在線聊天的影響大到足以抵消。
因果分析逆境造就人才逆境造就人才。 司馬遷受到宮刑後,受到了身心的巨大痛苦,感到世情人情的冷淡,拚命地寫著書,用充滿血淚的文字。
因果關系是神聖的,具有極高的價值。據說,曾經有人問過古希臘哲學家德謨克里特,因果關繫到底有什麼價值,這位哲人的回答是,對他來說,一個因果關系的價值要勝過一個波斯的王位——盡管這個回答是出自一位哲人之口,但它確實也在一定程度上道出了因果關系在人們心中的重要地位。
由於因果關系對人們來說是如此的重要,因此至少從兩千多年前開始,人們就已經開始了對因果問題的相關理論探究。
㈥ 簡述因果關聯的推斷標准
因果關聯的推斷標准有8個,其中關聯的時間順序是必須滿足的;關聯的強度,關聯的可重復性,劑量反應關系及實驗證據有非常重要的意義;其他標准可作為判斷病因時的參考。
1,關聯的時序性,指因與果出現的時間順序,有因才有果,作為原因一定發生在結果之前,這在病因判斷中是唯一要求必備的條件。(暴露因素與疾病發生的時間順序,在前瞻性隊列研究中容易判斷,但在病例對照研究或橫斷面研究中則常常難以斷定)。
2,關聯的強度,指疾病與暴露因素之間關聯程度的大小,常用OR或RR值來描述。在除外偏倚和隨機誤差的條件下,關聯的強度可作為判別因果關系和建立病因假說的依據,關聯強度越大存在因果關聯的可能性也越大。
3,關聯的可重復性,指某因素與某疾病的關聯在不同研究背景下、不同研究者用不同的研究方法約可獲得一致性的結論。重復出現的次數越多,因果推斷越有說服力。
4,關聯的特異性,指某因素只能引起某種特定的疾病,也就是說某種疾病的發生必須有某種因素的暴露才會出現。從傳染病的病因研究角度來看,常可確立某病原微生物與某疾病之間的特異性因果關聯。而從慢性非傳染病角度來講,大多情況下不易確立某因素與某疾病間的特異性。
5,劑量-反應關系,指某因素暴露的劑量、時間與某種疾病的發生之間存在的一種階梯曲線,即暴露劑量越大、時間越長則疾病發生的概率也越大。
6,生物學合理性,指能從生物學發病機制上建立因果關聯的合理性,即所觀察到的因果關聯可以用已知的生物學知識加以合理解釋。
7,關聯的一致性,指某因素與疾病之間的關聯與該病已知的自然史和生物學原理相一致。
8,實驗證據,指用實驗方法證實去除可疑病因可引起某疾病發生頻率的下降或消滅,則表明該因果關聯存在終止效應,其作為因果關聯的判定標准論證強度很高。實驗證據可來自人群現場試驗,也可來自臨床試驗或基礎醫學實驗。
因果關系的判斷是復雜的,在因果關系的判斷中,並不一定要求8條標准全部滿足。但滿足的條件越多,則其因果關聯成立的可能性越大,誤判的可能性就越小。
(6)因果推斷方法有哪些擴展閱讀
一般來說,因果還可以指一系列因素(因)和一個現象(果)之間的關系。對某個結果產生影響的任何事件都是該結果的一個因素。直接因素是直接影響結果的因素,也即無需任何介入因素(介入因素有時又稱中介因素)。從這個角度來講,因果之間的關系也可以稱為因果關聯。
1,因果關系的客觀性。因果關系作為客觀現象之間引起與被引起的關系,它是客觀存在的,並不以人們主觀為轉移。
2,因果關系的特定性。事物是普遍聯系的,為了了解單個的現象,我們就必須把它們從普遍的聯系中抽出來,孤立地考察它們,一個為原因,另一個為結果。刑法因果關系的特定性表現在它只能是人的危害行為與危害結果之間的因果聯系。
3,因果關系的時間序列性。原因必定在先,結果只能在後,二者的時間順序不能顛倒。在刑事案件中,只能從危害結果發生以前的危害行為中去查找原因。