A. 什么是线性预测
线性预测是根据已有采样点按照线性函数计算未来某一离散信号的数学方法。
在数字信号处理中,线性预测经常称为线性预测编码(LPC),因此也可以看作是数字滤波器的一部分。在系统分析中,线性预测可以看作是数学建模或者最优化的一部分
最常见的表示是
其中 是预测的信号值, 是前面观测到的值, 是预测系数。这种预测产生的误差是
其中 是真正的信号值。
这个等式对于所有类型的一维线性预测都是有效的,它们的不同之处是参数 选择方式的不同。
对于多维信号,误差经常定义为
其中 是适当选择的矢量范数。
在参数 优化中最常见的选择是均方根准则,也称为自相关准则。在这种方法中减小了最小均方误差 E[e2(n)] 的期望值,这样就得到等式
对于 1 ≤ j ≤ p, 其中 R 是信号 xn 的自相关,定义为
其中 E 是 期望值。在多维情况下,这相当于最小化L2 范数。
上面的方程称为 normal 方程或者 Yule-Walker 方程,在矩阵形式下这个方程也可以写作
其中自相关矩阵 R 是元素为ri,j = R(i − j)的对称轮换矩阵(en:circulant matrix),矢量 r 是自相关矢量 rj = R(j),矢量 a 是参数矢量。
另外一个更为通用的实现是最小化
其中通常使用 约束参数 以避免 trivial 解。这个约束产生与上面同样的预测,但是 normal 方程是
其中索引 i 的范围是从 0 到 p,并且 R 是 (p + 1) × (p + 1) 矩阵。
参数优化是一个非常广泛的话题,人们已经提出了大量的其它实现方法。
但是,自相关方法仍然是最为常用的方法,例如在GSM标准中的语音编码就在使用这种方法。
矩阵方程Ra = r的求解计算上工作量很大,高斯消去法求矩阵的逆可能是最为古老的解法了,但是这种方法没有有效地利用 R 和 r 的对称性。一种更快的算法是 Norman Levinson 在1947年提出的Levinson 递归法(en:Levinson recursion),它递归地计算方程的解。后来 Delsarte et al. 提出了一种称为 split Levinson recursion 的改进方法,它仅需要一半的乘除计算量,它在随后的递归层面上使用了参数矢量的特殊对称特性。
B. 线性方程组有哪些解法
第一种 消元法 ,此法 最为简单,直接消掉只剩最后一个未知数,再回代求余下的未知数,但只适用于未知数个数等于方程的个数,且有解的情况.
第二种 克拉姆法则,如果行列式不等于零,则用常数向量替换系数行列式中的每一行再除以系数行列式,就是解;
第三种 逆矩阵法,同样要求系数矩阵可逆,直接建立AX=b与线性方程组的关系,X=A^-1.*b就是解
第四种 增光矩阵法,利用增广矩阵的性质(A,b)通过线性行变换,化为简约形式,确定自由变量,(各行中第一个非零元对应的未知数除外余下的就是自由变量),对自由变量进行赋值,求出其它未知数,然后写成基础解析的形式,最后写出通解.
这种方法需要先判别:增广矩阵的秩是否等于系数矩阵的秩,相等且小于未知数个数,则无穷多解;等于未知数个数,唯一解.秩不想等,无解.
第五种 计算机编程,随便用个软件,譬如Matlab,输入密令,
目前这5中教为适用,适合一切齐次或者非齐次线性方程组.
C. 用线性回归方程预测双十一
摘要 导包
D. 数值分析中解线性方程组的方法有哪些
一般有高斯消元法,另外有一些数值迭代法,
例如:雅可比迭代法、Gauss-Seidel迭代法、超松弛法
E. 目前为止,求解线性方程组有哪些方法它们各有什么优点和缺点
线性方程组是以下形式的方程组:
这里的 A 是 m×n 矩阵,x 是 n 元素列向量,b 是 m 元素列向量。
在这个张成的基中的向量的数目被表达为这个矩阵的秩。
在已知矩阵 A 和向量 的情况求得未知向量 是线性代数的基本问题之一。
根据解的存在情况,线性方程可以分为:
有唯一解的恰定方程组,
解不存在的超定方程组,
有无穷多解的欠定方程组。
F. 线性方程的求解应该注意掌握哪些定理和方法
设方程组为Ax=b
1. 用初等行变换将线性方程组的增广矩阵化为梯矩阵
此时可得: 系数矩阵的秩r(A)与增广矩阵的秩r(A,b)
由此可判断方程组解的存在情况:
若r(A)≠r(A,b)则方程组无解
若r(A)=r(A,b)=r, 则方程组有解
当r=n(未知量的个数)时, 方程组有唯一解
当r<n时,方程组有无穷多解
2. 当方程组有解时, 将增广矩阵继续化为行最简形
此时确定自由未知量与约束未知量
自由未知量全取0, 得方程组的一个特解
自由未知量取一组线性无关的值, 得Ax=0的基础解系
由此得方程组的通解,即全部解或一般解.
如: http://..com/question/343812286.html
这类例子太多了, 你可点击我的ID,去看看我解答的题目
3. 齐次线性方程组Ax=0
是非齐次线性方程组的特殊情况
记住它总是有零解
其基础解系所含向量的个数为 n-r(A).
4. 线性方程组解的性质
这是必须掌握的
比如:
非齐次线性方程组两个解的差是其导出组的解
齐次线性方程组解的线性组合仍是其解
有一些结论若知道就更好了
如: 非齐次线性方程组的解的线性组合仍是解的充分必要条件是组合系数等于1.
5. 带有参数的线性方程组
处理方法与上类似.
当方程的个数等于未知量的个数时, 可用Crammer法则先确定唯一解的情况.
然后对系数行列式等于0的情况分别讨论.
注意题目给出的已知条件中所隐含的信息
如: http://..com/question/344002360.html
6.对隐式线性方程组, 注意确定系数矩阵的秩r(A)
由此确定Ax=0的基础解系所含向量的个数 n-r(A).
然后根据已知条件及解的性质,
找出Ax=0的基础解系及Ax=b的特解
最终得出方程组的通解.
如: http://..com/question/344565085.html
http://..com/question/344563295.html
http://..com/question/344568117.html
刚解答的^_^.
正好自己也想总结一下, 所以写了一大堆, 可能还有遗漏
G. 线性方程组的解的三种情况是什么
第一种是无解。也就是说,方程之间出现有矛盾的情况。
第二种情况是解为零。这也是其次线性方程组唯一解的情况。
第三种是齐次线性方程组系数矩阵线性相关。这种情况下有无数个解。
线性方程组是各个方程关于未知量均为一次的方程组(例如2元1次方程组)。对线性方程组的研究,中国比欧洲至少早1500年,记载在公元初《九章算术》方程章中。
1、解线性方程组的方法大致可以分为两类:直接方法和迭代法。直接方法是指假设计算过程中不产生舍入误差,经过有限次运算可求得方程组的精确解的方法;迭代法是从解的某个近似值出发,通过构造一个无穷序列去逼近精确解的方法。
2、消去法:Gauss(高斯)消去法——是最基本的和最简单的直接方法,它由消元过程和回代过程构成,基本思想是:将方程组逐列逐行消去变量,转化为等价的上三角形方程组(消元过程);然后按照方程组的相反顺序求解上三角形方程组,得到原方程组的解(回代过程)。
优缺点:简单易行,但是要求主元均不为0,适用范围小,数值稳定性差。
列主元素消去法——基本思想是在每次消元前,在要消去未知数的系数中找到绝对值大的系数作为主元,通过方程对换将其换到主对角线上,然后进行消元。
优点:计算简单,工作量大为减少,数值稳定性良好,是求解中小型稠密线性方程组的最好方法之一。
全主元素消去法——基本思想是在全体待选系数a(ij)(k)中选取主元,并通过行与列的互换把它换到a(kk)(k)的位置,进行消元。
优缺点:这种方法的精度优于列主元素法,它对控制舍入误差十分有效,但是需要同时作行列变换,因而程序比较复杂,计算时间较长。
3、直接三角分解法:消元过程实际上是把系数矩阵A分解成单位下三角形矩阵与上三角形矩阵乘积的过程,其中L为单位下三角形矩阵,U为上三角形矩阵。这种分解过程称为杜利特尔(Doolittle分解),也称为LU分解。当系数矩阵进行三角分解后,求解方程组Ax = b的问题就等价于求解两个三角形方程组Ly=b和Ux=y。
矩阵的直接三角分解——设A为n阶方阵,若A的顺序主子式A(i)均不为0,则矩阵A存在唯一的LU分解;直接三角分解法——如果线性方程组Ax = b的系数矩阵已进行三角分解A=LU,则解方程组Ax=b等价于求解两个三角形方程组Ly=b和Ux=y。
列主元素的三角分解法——设矩阵A非奇异,则存在置换矩阵P,使得PA有唯一的LU分解(即PA=LU),且|l(ij)|≤1。
4、排列阵:单位矩阵经过若干次行变换所得到的矩阵。
5、克劳特(Crout)分解:将矩阵A分解成一个下三角形矩阵L与一个单位上三角形矩阵U的乘积。
6、特殊矩阵的三角分解法:在工程实际计算中,如三次样条插值或用差分法求解常微分方程边值问题,导出的线性方程组的系数矩阵A常常是稀疏的三对角形矩阵或A是对称正定阵,使得A的三角分解也具有更简洁的形式。
H. 多元线性回归分析预测法的公式
多元线性回归预测模型一般公式为: 多元线性回归模型中最简单的是只有两个自变量(n=2)的二元线性回归模型,其一般形式为:
下面以二元线性回归分析预测法为例,说明多元线性回归分析预测法的应用。
二元线性回归分析预测法,是根据两个自变量与一个因变量相关关系进行预测的方法。二元线性回归方程的公式为:式中::因变量;
x1,x2:两个不同自变量,即与因变量有紧密联系的影响因素。
a,b1,b2:是线性回归方程的参数。
a,b1,b2是通过解下列的方程组来得到。
二元线性回归预测法基本原理和步骤同一元线性回归预测法没有原则的区别,大体相同。