最优估计 – kalman and lsm
kalman Filter 和 least square 目的均为最优化某一指标,指标是优化的关键:
常用的估计准则有:
-
无偏估计:估计值的期望等于被估计参数的真实值。
-
线性最小方差估计:将估计量限制为观测值的线性函数,已知观测量Z和和被估计量X一二阶矩(EX,Var{X},EZ,Var{Z},Cov{X,Z}),使估计误差的方差最小,即最小化tr{E[X~−EX~][X~−EX~]T} ,X~为估计误差(等价于最小化均方误差阵,若为无偏估计)可得其无偏估计值为X~LMV(Z)=EX+cov(X,Z)(var(Z))−1[Z−EZ]对于观测模型Z=HX+V,上述条件若已知
{EX=μx,Var(X)=Px,EV=0,Var(V)=R,E(XVT)=0} 即可得到。
-
最小二乘估计:对数据(X、Z)的统计特性一无所知,但仍需对X进行估计,目标是最小化残差1平方和。
满足最小方差必满足残差平方和最小,反之则不成立。
经典最小二乘
针对隐状态X,若其无法直接观测,但间接获取其观测值Z=[z1,z2,…,zn]T ,若其观测值为状态值的线性函数:
Zi=HiX+Vi,i=1,…,n
zi为第i次测量的观测值,Hi为第i次测量的观测模型(设计矩阵,实验的观测值),Vi为第i次测量的噪声(误差)。
则第i次测量的估计误差:
ei^=zi−HiX^
则n次测量的误差(残差)平方和为优化指标:
J(X^)=i=1∑n(zi−HiX^)2=(Z−HX^)T(Z−HX^)=tr[(Z−HX^)(Z−HX^)T]
令∂X^∂J=0 ,可得最小二乘估计值:
X^LS=(HTH)−1HTZ
将Z=HX+V此时状态的估计误差:
X~LS=X−X^LS=−(HTH)−1HTV
若测量噪声均值为0,则E(X~LS)=0,此时最小二乘估计为**无偏估计**,状态估计误差的(协)方差[^ 2] Var(X~LS)=E[(X~−EX~)(X~−EX~)T]与估计量的均方误差矩阵E[X−X^][X−X^]T相等。可见标准最小二乘不需要噪声V的任何统计信息。
由(5)式可得:
Var(X~LS)=E[X−X^][X−X^]T=(HTH)−1HTE(VVT)H(HTH)−1=(HTH)−1HTRH(HTH)−1
其中R=E(VVT)为测量误差(噪声)的(协)方差阵。
加权最小二乘(weighted least square)
在经典最小二乘中,假定每一次测量的权重相同,但是一般来说近期数据比远期数据影响更大,因此引入加权最小二乘,其指标形式:
JW(X^)=i=1∑n(zi−HiX^)2=(Z−HX^)TW(Z−HX^)
同样使其偏导数为0,可得
X^LSW=(HTWH)−1HTWZ
由附录2,若噪声不满足同方差,则普通最小二乘(4)并不是BLUE,此时噪声的协方差阵
E[VVT]=σ2R,R=I ,R=⎣⎡r1⋱rn⎦⎤,即原模型存在异方差性。
设R=DDT,D=⎣⎡r1⋱rn⎦⎤ ,用D−1同时左乘Z=HX+V两端得到新的模型:
D−1ZZ⋆=D−1HX+D−1V=H⋆X+V⋆
此时,原模型的加权最小二乘估计量为无偏的。
E[V⋆V⋆T]=E[D−1VVTD−1 T]=D−1E[VVT]D−1 T=σ2D−1RD−1 T=σ2I
此时得到的参数估计为:
X^LSW=(H⋆TH⋆)−1H⋆TZ⋆=(HTR−1H)−1HTR−1Z
可以证明(见附录),当W=R−1时,最小二乘估计时缺少初值条件下的线性无偏最小方差估计(BLUE,Best Linear Unbiased Estimation)——即能够使估计误差的方差阵最小,又称马尔可夫估计,其中
R=E[VVT]
为随机噪声的(协)方差阵(对称正定阵)。
递推最小二乘(Recursive Least Square,RLS)
上述方法进行一次估计需要所有历史数据,不利于在线估计,考虑前n次测量:
Zn=HnX+Vn
则加权的最小二乘估计为:
X^LSW(n)=(HnTRn−1Hn)−1HnTRn−1Zn
估计误差的(协)方差矩阵为:
Pn=E[X~LSW(n)X~LSWT(n)]=E[−(HTR−1H)−1]HTR−1VVTR−1H(HTR−1H)−1=(HTR−1H)−1HTR−1H(HTR−1H)−1=(HTR−1H)−1
结合上述两式,可得:
X^LSW(n)=PnHnTRn−1Zn
现得到一个新的测量值:
zn+1=Hn+1X+vn+1
添加到矩阵中:
X^LSW(n+1)=(Hn+1TRn+1−1Hn+1)−1Hn+1TRn+1−1Zn+1
将新的测量噪声加入到原本的测量噪声矩阵中:R阵应为对角阵:
Rk+1−1=[Rn−100rn+1−1]
将式子展开:
Pn+1−1=Hn+1TRn+1−1Hn+1=[HnT,hn+1T][Rn−100rn+1−1][Hnhn+1]=HnTRn−1Hn+hn+1Trn+1−1hn+1
即:
Pn+1−1=Pn−1+hn+1Trn+1−1hn+1
综上,可以推得:
Pn+1Kn+1X^LSW(n+1)=Pn−Pnhn+1T[hn+1Pnhn+1T+rn+1]−1hn+1Pn=Pn+1hn+1Trn+1−1=X^LSW(n)+Kn+1[zn+1−hn+1X^LSW(n)]
其中Kn+1可将(31)代入展开为:
Kn+1=Pnhn+1T[hn+1Pnhn+1T+rn+1]−1
因此Pn+1亦可表示为:
Pn+1=Pn−Kn+1hn+1Pn
卡尔曼滤波
若被估计量X不随时间变化,或随时间缓慢变化则为“静态估计”,而被估计量随时间变化为“动态估计”。
(待填)
参考:
https://blog.csdn.net/qinruiyan/article/details/50793114
《最优估计理论》刘胜,张红梅,科学出版社
最佳线性无偏估计(GM假设)
假设多元线性回归模型:Z=HX+V
ZHXV=(z1,…,zn)T=[hij]n×p=(xo,…,xp)=(v0,…,vn)
则GM假设:
E(V∣H)Var(V∣H)=0,∀H (零均值)=E(VVT∣H)=σ2In (同方差且不相关)
则此时对参数X的最佳线性无偏估计为:
X^=(HTH)−1HTZ
最小二乘估计与最小方差估计等价条件证明:

各种估计方法的比较:

[外链图片转存中…(img-PDFlGI9x-1576551483788)]
-
残差在数理统计中是指实际观察值和估计值之间的差。若设线性回归模型为Z=HX+V ,其中Z为n维输出向量,H是n×(p+1) 阶设计矩阵,X是p+1维向量,V为n维随机变量(扰动)。则回归系数的估计值X^=(HTH)−1HTZ ,拟合值Z^=HX^=H(HTH)−1HTZ,残差为ϵ^=zi−zi^=zi−HiX^ ,其由观测真值和H阵给出,不考虑噪声V。
[^ 2]: https://zh.wikipedia.org/wiki/%E5%8D%8F%E6%96%B9%E5%B7%AE%E7%9F%A9%E9%98%B5
↩︎
-
在线性回归模型中,如果随机噪声(误差)满足零均值、同方差且互不相关,则回归系数的最优线性无偏估计(BLUE,Best Linear unbiased estimator)就是普通最小二乘估计。 ↩︎