① 回歸直線方程的計算方法
要確定回歸直線方程①,只要確定a與回歸系數b。回歸直線的求法通常是最小二乘法:離差作為表示xi對應的回歸直線縱坐標y與觀察值yi的差,其幾何意義可用點與其在回歸直線豎直方向上的投影間的距離來描述。數學表達:Yi-y^=Yi-a-bXi.總離差不能用n個離差之和來表示,通常是用離差的平方和即(Yi-a-bXi)^2計算。即作為總離差,並使之達到最小,這樣回歸直線就是所有直線中除去最小值的那一條。這種使「離差平方和最小」的方法,叫做最小二乘法。用最小二乘法求回歸直線方程中的a,b有圖一和圖二所示的公式進行參考。其中,
(1)簡單線性回歸分析的參數計算方法擴展閱讀
回歸直線方程指在一組具有相關關系的變數的數據(x與Y)間,一條最好地反映x與y之間的關系直線。
離差作為表示Xi對應的回歸直線縱坐標y與觀察值Yi的差,其幾何意義可用點與其在回歸直線豎直方向上的投影間的距離來描述。數學表達:Yi-y^=Yi-a-bXi.
總離差不能用n個離差之和來表示,通常是用離差的平方和,即(Yi-a-bXi)^2計算。
② 線性回歸方程b的公式求和符號怎麼計算
一,計算各變數的平均值(算術平均值)
x_=(x1+x2+...+xi+...+xn)/n
y_=(y1+y2+...+yn)/n
二,計算兩個∑
∑xiyi=x1y1+x2y2+...+xnyn
∑xi^2=x1^2++x2^2+...+xn^2
三,計算分子與分母
分子=(∑xiyi)-n*x_*y_
分母=(∑xi^2)-n*x_^2
四,計算b
b=分子÷分母
(2)簡單線性回歸分析的參數計算方法擴展閱讀:
線性回歸是線性模擬標量響應之間關系的方法(或因變數)和一個或多個解釋變數(或自變數)。一個解釋變數的情況稱為簡單線性回歸...對於多個解釋性變數,該過程稱為多元線性回歸。這個術語不同於多元線性回歸,其中預測了多個相關的因變數,而不是單個標量變數。
在線性回歸中,使用線性預測函數未知模型參數是估計值從數據...這樣的模型被稱為線性模型。最常見的情況是,條件均值對於給定的解釋變數(或預測器)的值,則假定為仿射函數在這些值中;較不常見的是,有條件的中位或者其他的分位數被利用了。
就像所有形式的回歸分析,線性回歸集中在條件概率分布的值,而不是基於聯合概率分布的所有變數,這是多元分析。
線性回歸是第一種嚴格研究的回歸分析方法,在實際應用中得到了廣泛的應用。這是因為線性依賴於其未知參數的模型比與其參數具有非線性關系的模型更容易擬合,而且所得到的估計器的統計特性更容易確定。
③ 線性回歸方程中的a,b怎麼計算
b=(∑XiYi-nXoYo)/(∑Xi2-nXo2)。
a=Yo-bXo,說明:i(表示其通項1,2…,n),o(表示其平均值)為下腳標,2(表示其平方)為上腳標。
④ 線性回歸法
在統計學中,線性回歸(Linear Regression)是利用稱為線性回歸方程的最小平方函數對一個或多個自變數和因變數之間關系進行建模的一種回歸分析。這種函數是一個或多個稱為回歸系數的模型參數的線性組合。只有一個自變數的情況稱為簡單回歸,大於一個自變數情況的叫做多元回歸。(這反過來又應當由多個相關的因變數預測的多元線性回歸區別,而不是一個單一的標量變數。)
回歸分析中有多個自變數:這里有一個原則問題,這些自變數的重要性,究竟誰是最重要,誰是比較重要,誰是不重要。所以,spss線性回歸有一個和逐步判別分析的等價的設置。
原理:是F檢驗。spss中的操作是「分析」~「回歸」~「線性」主對話框方法框中需先選定「逐步」方法~「選項」子對話框
如果是選擇「用F檢驗的概率值」,越小代表這個變數越容易進入方程。原因是這個變數的F檢驗的概率小,說明它顯著,也就是這個變數對回歸方程的貢獻越大,進一步說就是該變數被引入回歸方程的資格越大。究其根本,就是零假設分水嶺,例如要是把進入設為0.05,大於它說明接受零假設,這個變數對回歸方程沒有什麼重要性,但是一旦小於0.05,說明,這個變數很重要應該引起注意。這個0.05就是進入回歸方程的通行證。
下一步:「移除」選項:如果一個自變數F檢驗的P值也就是概率值大於移除中所設置的值,這個變數就要被移除回歸方程。spss回歸分析也就是把自變數作為一組待選的商品,高於這個價就不要,低於一個比這個價小一些的就買來。所以「移除」中的值要大於「進入」中的值,默認「進入」值為0.05,「移除」值為0.10
如果,使用「採用F值」作為判據,整個情況就顛倒了,「進入」值大於「移除」值,並且是自變數的進入值需要大於設定值才能進入回歸方程。這里的原因就是F檢驗原理的計算公式。所以才有這樣的差別。
結果:如同判別分析的逐步方法,表格中給出所有自變數進入回歸方程情況。這個表格的標志是,第一列寫著擬合步驟編號,第二列寫著每步進入回歸方程的編號,第三列寫著從回歸方程中剔除的自變數。第四列寫著自變數引入或者剔除的判據,下面跟著一堆文字。
⑤ 回歸方程怎麼求參數
以此題為例講解:以下是某地搜集到得新房屋的銷售價格y和房屋的面積x的數據:
房屋面積115,110,80,135,105
銷售價格:24.8 21.6 18.4 29.2 22
①求回歸方程,並在散點圖中加上回歸直線; 回歸方程 ^y = 1.8166 + 0.1962x
計算過程:
從散點圖(題目有給吧)看出x和y呈線性相關,題中給出的一組數據就是相關變數x、y的總體中的一個樣本,我們根據這組數據算出回歸方程的兩個參數,便可以得到樣本回歸直線,即與散點圖上各點最相配合的直線。
下面是運用最小二乘法估計一元線性方程^y = a + bx的參數a和b:
(a為樣本回歸直線y的截距,它是樣本回歸直線通過縱軸的點的y坐標;b為樣本回歸直線的斜率,它表示當x增加一個單位時y的平均增加數量,b又稱回歸系數)
首先列表求出解題需要的數據
n 1 2 3 4 5 ∑(求和)
房屋面積 x 115 110 80 135 105 545
銷售價格 y 24.8 21.6 18.4 29.2 22 116
x^2(x的平方) 13225 12100 6400 18225 11025 60975
y^2(y的平方) 615.04 466.56 338.56 852.64 484 2756.8
xy 2852 2376 1472 3942 2310 12952
套公式計算參數a和b:
Lxy = ∑xy - 1/n*∑x∑y = 308
Lxx = ∑x^2 - 1/n*(∑x)^2 = 1570
Lyy = ∑y^2 - 1/n*(∑y)^2 = 65.6
x~(x的平均數) = ∑x/n = 109
y~ = ∑y/n = 23.2
b = Lxy/Lxx = 0.196178344
a = y~ - bx~ = 1.81656051
回歸方程 ^y = a + bx
代入參數得:^y = 1.8166 + 0.1962x
直線就不畫了
該題是最基本的一元線性回歸分析題,套公式即可解答。至於公式是怎麼推導出來的,請參見應用統計學教科書。。回歸分析章節。。
⑥ 在excel表格中,如何使用簡單線性回歸進行計算
1.在excel表格中輸入(或計算出)兩組數據X,Y。 2.將兩組數據X,Y繪圖(圖表類型選用XY散點圖)。 3.滑鼠右鍵點擊曲線,選擇添加趨勢線。 4.在擇添加趨勢線中,類型中選用線性,選項中選項顯示公式和顯示R平方值兩項(√)後就會自動進行線性回歸計算了。
⑦ 線性回歸 怎麼算
線性回歸是利用數理統計中的回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關系的一種統計分析方法之一,運用十分廣泛.分析按照自變數和因變數之間的關系類型,可分為線性回歸分析和非線性回歸分析.如果在回歸分析中,只包括一個自變數和一個因變數,且二者的關系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析.如果回歸分析中包括兩個或兩個以上的自變數,且因變數和自變數之間是線性關系,則稱為多元線性回歸分析.
數據組說明線性回歸
我們以一簡單數據組來說明什麼是線性回歸.假設有一組數據型態為 y=y(x),其中 x={0,1,2,3,4,5},y={0,20,60,68,77,110} 如果我們要以一個最簡單的方程式來近似這組數據,則非一階的線性方程式莫屬.先將這組數據繪圖如下 圖中的斜線是我們隨意假設一階線性方程式 y=20x,用以代表這些數據的一個方程式.以下將上述繪圖的 MATLAB 指令列出,並計算這個線性方程式的 y 值與原數據 y 值間誤差平方的總合.>> x=[0 1 2 3 4 5]; >> y=[0 20 60 68 77 110]; >> y1=20*x; % 一階線性方程式的 y1 值 >> sum_sq = sum((y-y1).^2); % 誤差平方總合為 573 >> axis([-1,6,-20,120]) >> plot(x,y1,x,y,'o'),title('Linear estimate'),grid 如此任意的假設一個線性方程式並無根據,如果換成其它人來設定就可能採用不同的線性方程式;所以我們 須要有比較精確方式決定理想的線性方程式.我們可以要求誤差平方的總合為最小,做為決定理想的線性方 程式的准則,這樣的方法就稱為最小平方誤差(least squares error)或是線性回歸.MATLAB的polyfit函數提供了 從一階到高階多項式的回歸法,其語法為polyfit(x,y,n),其中x,y為輸入數據組n為多項式的階數,n=1就是一階 的線性回歸法.polyfit函數所建立的多項式可以寫成 從polyfit函數得到的輸出值就是上述的各項系數,以一階線性回歸為例n=1,所以只有 二個輸出值.如果指令為coef=polyfit(x,y,n),則coef(1)= ,coef(2)=,...,coef(n+1)= .注意上式對n 階的多 項式會有 n+1 項的系數.我們來看以下的線性回歸的示範:>> x=[0 1 2 3 4 5]; >> y=[0 20 60 68 77 110]; >> coef=polyfit(x,y,1); % coef 代表線性回歸的二個輸出值 >> a0=coef(1); a1=coef(2); >> ybest=a0*x+a1; % 由線性回歸產生的一階方程式 >> sum_sq=sum(y-ybest).^2); % 誤差平方總合為 356.82 >> axis([-1,6,-20,120]) >> plot(x,ybest,x,y,'o'),title('Linear regression estimate'),grid
[編輯本段]線性回歸擬合方程
最小二乘法
一般來說,線性回歸都可以通過最小二乘法求出其方程,可以計算出對於y=bx+a的直線,其經驗擬合方程如下:其相關系數(即通常說的擬合的好壞)可以用以下公式來計算:理解回歸分析的結果
雖然不同的統計軟體可能會用不同的格式給出回歸的結果,但是它們的基本內容是一致的.我們以STATA的輸出為例來說明如何理解回歸分析的結果.在這個例子中,我們測試讀者的性別(gender),年齡(age),知識程度(know)與文檔的次序(noofdoc)對他們所覺得的文檔質量(relevance)的影響.輸出:Source | SS df MS Number of obs = 242 -------------+------------------------------------------ F ( 4,237) = 2.76 Model | 14.0069855 4 3.50174637 Prob > F = 0.0283 Resial | 300.279172 237 1.26700072 R-squared = 0.0446 ------------- +------------------------------------------- Adj R-squared = 0.0284 Total | 314.286157 241 1.30409194 Root MSE = 1.1256 ------------------------------------------------------------------------------------------------ relevance | Coef.Std.Err.t P>|t| Beta ---------------+-------------------------------------------------------------------------------- gender | -.2111061 .1627241 -1.30 0.196 -.0825009 age | -.1020986 .0486324 -2.10 0.037 -.1341841 know | .0022537 .0535243 0.04 0.966 .0026877 noofdoc | -.3291053 .1382645 -2.38 0.018 -.1513428 _cons | 7.334757 1.072246 6.84 0.000 .-------------------------------------------------------------------------------------------
輸出
這個輸出包括一下及部分.左上角給出方差分析表,右上角是模型擬合綜合參數.下方的表給出了具體變數的回歸系數.方差分析表對大部分的行為研究者來講不是很重要,我們不做討論.在擬合綜合參數中,R-squared 表示因變數中多大的一部分信息可以被自變數解釋.在這里是4.46%,相當小.
回歸系數
一般地,我們要求這個值大於5%.對大部分的行為研究者來講,最重要的是回歸系數.我們看到,年齡增加1個單位,文檔的質量就下降 -.1020986個單位,表明年長的人對文檔質量的評價會更低.這個變數相應的t值是 -2.10,絕對值大於2,p值也
⑧ 線性回歸方程公式
線性回歸方程公式:b=(x1y1+x2y2+...xnyn-nXY)/(x1+x2+...xn-nX)。線性回歸方程是利用數理統計中的回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關系的一種統計分析方法之一,應用十分廣泛。
一、概念
線性回歸方程中變數的相關關系最為簡單的是線性相關關系,設隨機變數與變數之間存在線性相關關系,則由試驗數據得到的點,將散布在某一直線周圍。因此,可以認為關於的回歸函數的類型為線性函數。
分析按照自變數和因變數之間的關系類型,可分為線性回歸分析和非線性回歸分析。如果在回歸分析中,只包括一個自變數和一個因變數,且二者的關系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個或兩個以上的自變數,且因變數和自變數之間是線性關系,則稱為多元線性回歸分析。
其中,且為觀測值的樣本方差.線性方程稱為關於的線性回歸方程,稱為回歸系數,對應的直線稱為回歸直線.順便指出,將來還需用到,其中為觀測值的樣本方差。
先求x,y的平均值X,Y
再用公式代入求解:b=(x1y1+x2y2+...xnyn-nXY)/(x1+x2+...xn-nX)
後把x,y的平均數X,Y代入a=Y-bX
求出a並代入總的公式y=bx+a得到線性回歸方程
(X為xi的平均數,Y為yi的平均數)
三、應用
線性回歸方程是回歸分析中第一種經過嚴格研究並在實際應用中廣泛使用的類型。這是因為線性依賴於其未知參數的模型比非線性依賴於其位置參數的模型更容易擬合,而且產生的估計的統計特性也更容易確定。
線性回歸有很多實際用途。分為以下兩大類:
如果目標是預測或者映射,線性回歸可以用來對觀測數據集的和X的值擬合出一個預測模型。當完成這樣一個模型以後,對於一個新增的X值,在沒有給定與它相配對的y的情況下,可以用這個擬合過的模型預測出一個y值。
給定一個變數y和一些變數X1,...,Xp,這些變數有可能與y相關,線性回歸分析可以用來量化y與Xj之間相關性的強度,評估出與y不相關的Xj,並識別出哪些Xj的子集包含了關於y的冗餘信息。
在線性回歸中,數據使用線性預測函數來建模,並且未知的模型參數也是通過數據來估計。這些模型被叫做線性模型。最常用的線性回歸建模是給定X值的y的條件均值是X的仿射函數。
不太一般的情況,線性回歸模型可以是一個中位數或一些其他的給定X的條件下y的條件分布的分位數作為X的線性函數表示。像所有形式的回歸分析一樣,線性回歸也把焦點放在給定X值的y的條件概率分布,而不是X和y的聯合概率分布。
⑨ 線性回歸方程公式是什麼
線性回歸方程公式:b=(x1y1+x2y2+...xnyn-nXY)/(x1+x2+...xn-nX)。線性回歸方程是利用數理統計中的回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關系的一種統計分析方法之一。
線性回歸方程公式求法:
第一:用所給樣本求出兩個相關變數的(算術)平均值:
x_=(x1+x2+x3+...+xn)/n
y_=(y1+y2+y3+...+yn)/n
第二:分別計算分子和分母:(兩個公式任選其一)
分子=(x1y1+x2y2+x3y3+...+xnyn)-nx_Y_
分母=(x1^2+x2^2+x3^2+...+xn^2)-n*x_^2
第三:計算b:b=分子/分母
用最小二乘法估計參數b,設服從正態分布,分別求對a、b的偏導數並令它們等於零,得方程組解為
其中,且為觀測值的樣本方差.線性方程稱為關於的線性回歸方程,稱為回歸系數,對應的直線稱為回歸直線.順便指出,將來還需用到,其中為觀測值的樣本方差。
先求x,y的平均值X,Y
再用公式代入求解:b=(x1y1+x2y2+...xnyn-nXY)/(x1+x2+...xn-nX)
後把x,y的平均數X,Y代入a=Y-bX
求出a並代入總的公式y=bx+a得到線性回歸方程
(X為xi的平均數,Y為yi的平均數)
應用
線性回歸方程是回歸分析中第一種經過嚴格研究並在實際應用中廣泛使用的類型。這是因為線性依賴於其未知參數的模型比非線性依賴於其位置參數的模型更容易擬合,而且產生的估計的統計特性也更容易確定。
線性回歸有很多實際用途。分為以下兩大類:
如果目標是預測或者映射,線性回歸可以用來對觀測數據集的和X的值擬合出一個預測模型。當完成這樣一個模型以後,對於一個新增的X值,在沒有給定與它相配對的y的情況下,可以用這個擬合過的模型預測出一個y值。
給定一個變數y和一些變數X1,...,Xp,這些變數有可能與y相關,線性回歸分析可以用來量化y與Xj之間相關性的強度,評估出與y不相關的Xj,並識別出哪些Xj的子集包含了關於y的冗餘信息。
以上內容參考網路-線性回歸方程