最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

隨機擾動項和殘差區(qū)別?總體回歸函數(shù)和樣本回歸函數(shù)區(qū)別?以一元回歸為例。

2023-02-20 14:53 作者:blZel  | 我要投稿

一、問題開始前,我們首先要了解一下何為“回歸”。

? ? “回歸”一次最早由?F·高爾頓(Francis Galton)?提出,在一篇研究父母與子女身高關(guān)系的論文中,他發(fā)現(xiàn)雖然有這樣一個趨勢:個子高的父母子女也會高、個子矮的父母子女也會矮。但是從大數(shù)上來看,給定任一父母的身高,孩子真實身高不一定會滿足“父母高孩子高、父母矮孩子矮”的規(guī)律,而是趨向于人口總體的平均身高,這種現(xiàn)象叫做“高爾頓普遍回歸定律”,這也就是“回歸”一詞的原本含義。

? ? 現(xiàn)在“回歸”一詞已經(jīng)演變?yōu)橐环N新的概念,作為動詞表示“回歸分析”:研究被解釋變量對解釋變量的依賴關(guān)系,目的就是從已經(jīng)知道的解釋變量的值,去推斷被解釋變量的總體均值。所謂“推斷”也即“回歸”有很多種方法,常見的就是LS最小二乘法、MLE極大似然估計法等。

二、總體回歸函數(shù)PRF與隨機擾動項u_%7Bi%7D%20

? ? 從上面的概念我們已經(jīng)知道,“回歸”相當(dāng)于給你解釋變量(以下用x_%7Bi%7D代替),去預(yù)測被解釋變量(以Y_%7Bi%7D代替)的均值或者期望值。那么,我們可以這樣表示:

E(Y%7CX_%7Bi%7D)%3D%5Cbeta_%7B1%7D%2B%5Cbeta_%7B2%7DX_%7Bi%7D......①

? ? 這里的Y指的就是總體的均值或者期望值,如果X_%7Bi%7D表示已知的總體的各個解釋變量,那么我們就稱式“總體回歸函數(shù)”(Population Regression Function)注意,這里需要給大家解釋清楚:同一個X值,可能有很多個i體,比如身高為170cm的孩子有很多很多,身高為180cm的孩子也有很多很多,兩組不同的身高組,就會形成兩個組各自父母身高的均值。

總體回歸線

? ? 在解釋變量給定值的情況下被解釋變量(條件)均值或期望值的軌跡,就叫做總體回歸線!知道了總體回歸函數(shù)和總體回歸線,那么接下來就可以引入“隨機擾動項”的概念了。隨機擾動項(以下用u_%7Bi%7D來表示)指的是“除了X_%7Bi%7D以外影響Y_%7Bi%7D不可觀測可正可負(fù)隨機變量”,又叫做“離差”。繼續(xù)以上面父母與子女身高關(guān)系的例子為例,既然我們預(yù)測到了不同身高孩子的父母身高各自均值,那么給定一個孩子,其父母真實身高與預(yù)測的、本組本應(yīng)該有的父母的身高均值之間的差距,就用“隨機擾動項”來描述。加上隨機擾動項后,就得到了總體回歸函數(shù)的隨機形式

Y_%7Bi%7D%3DE(Y%7CX_%7Bi%7D)%2Bu_%7Bi%7D%3D%5Cbeta_%7B1%7D%2B%5Cbeta_%7B2%7DX_%7Bi%7D%2Bu_%7Bi%7D......②

? ? 這里的Y_%7Bi%7D指的是實際的觀測值即真實值,等于回歸后的均值或者期望值加上隨機擾動項u_%7Bi%7D%20?,F(xiàn)實中有很多原因?qū)е聜€體的真實值和均值不一樣,比如數(shù)據(jù)問題、模型設(shè)置問題、個體隨機特點等等,并且從節(jié)省原則來思考,我們也希望變量越少越好。所以“隨機擾動項”是計量經(jīng)濟(jì)學(xué)中最重要、也是最有特色的一點,是和數(shù)理經(jīng)濟(jì)學(xué)等學(xué)科最本質(zhì)的區(qū)別。所謂“驚喜和惡魔都在隨機擾動項里”,處理隨機擾動項,是計量經(jīng)濟(jì)學(xué)最頭疼、也最讓人樂此不疲的事情。

三、樣本回歸函數(shù)SRF與殘差e_%7Bi%7D

? ? 我們都知道,獲得總體所有的觀測值困難重重,所以現(xiàn)實中就寄希望于抽取樣本,通過樣本做回歸,用來估計總體的回歸函數(shù)。和總體回歸函數(shù)一樣,通過抽取的樣本觀測值X_%7Bi%7D來預(yù)測所抽取的該組樣本內(nèi)每一個X_%7Bi%7D對應(yīng)的Y_%7Bi%7D的期望值和均值,就得到了樣本回歸函數(shù)(Sample Regression Function),表示為:

%5Chat%7BY_%7Bi%7D%7D%3D%5Chat%7B%5Cbeta_%7B1%7D%7D%2B%5Chat%7B%5Cbeta_%7B2%7D%7DX_%7Bi%7D......③

? ? 這里的%5Chat%7BY_%7Bi%7D%7D指的是抽取的這一個樣本中每一組不同數(shù)值的X_%7Bi%7D對應(yīng)的Y_%7Bi%7D的均值,一定要注意,我們可能會抽取很多個樣本,每一個樣本都能得到一個不一樣的樣本回歸函數(shù)!這是理解的關(guān)鍵所在。

樣本回歸線

? ? 然后定義樣本回歸函數(shù)的隨機形式

Y_%7Bi%7D%3D%5Chat%7B%5Cbeta_%7B1%7D%7D%2B%5Chat%7B%5Cbeta_%7B2%7D%7DX_%7Bi%7D%2Be_%7Bi%7D%3D%5Chat%7BY_%7Bi%7D%7D%2Be_%7Bi%7D......④

? ? 這里的Y_%7Bi%7D指的是抽取的這一個樣本中每一組不同數(shù)值的X_%7Bi%7D對應(yīng)的Y_%7Bi%7D觀測值(真實值),也是等于回歸后的均值加上一個樣本中的類似總體的“隨機擾動項”u_%7Bi%7D”,只不過這里的"u_%7Bi%7D%20"寫作“e_%7Bi%7D”,我們叫做“殘差”。對于不同的樣本,會有不同的“殘差”!

四、區(qū)分和總結(jié)

? ? 前面說到,我們希望用樣本回歸函數(shù)來代替總體回歸函數(shù),但是可能會有很多次抽樣,從而得到不同的樣本,每一次抽樣都得到一個新的樣本回歸函數(shù),那么一哪一次為準(zhǔn)呢?能不能完全替代總體回歸函數(shù)(樣本回歸線和總體回歸線完全一致)呢?答案是“只有上帝才知道”,我們幾乎不可能完全替代總體回歸函數(shù),因為誰也不知道總體回歸線的具體真實樣子,所以每一次回歸都認(rèn)為是一次正確的替代。樣本容量越大,即抽樣數(shù)量和總體數(shù)量之間差距越小,我們的替代就越可能接近真實總體回歸函數(shù)的樣子。

? ? 參照式子和式子,如果進(jìn)行“替代”(即認(rèn)為中的Y_%7Bi%7D已經(jīng)包括了所有總體值,總體和樣本沒有容量差距),我們就會發(fā)現(xiàn):此時e_%7Bi%7D實際就是【樣本回歸函數(shù)的“隨機擾動項”+樣本和總體之間容量不一致導(dǎo)致的抽樣誤差】。


隨機擾動項和殘差區(qū)別?總體回歸函數(shù)和樣本回歸函數(shù)區(qū)別?以一元回歸為例。的評論 (共 條)

使用qq登录你需要登录后才可以评论。
恩平市| 临沂市| 都匀市| 蓝田县| 周宁县| 松潘县| 孟州市| 浦江县| 方城县| 蒙阴县| 兴文县| 全州县| 望都县| 潞西市| 三河市| 云梦县| 长治市| 土默特左旗| 毕节市| 前郭尔| 神木县| 新安县| 麻城市| 视频| 津南区| 同德县| 平定县| 堆龙德庆县| 康乐县| 灌云县| 苏州市| 大新县| 石棉县| 镇坪县| 梁河县| 宜丰县| 乐陵市| 望城县| 巴东县| 扎鲁特旗| 甘泉县|