基于神经网络的对称矩阵特征向量和特征值计算方法外文翻译资料
2023-01-08 11:47:19
本科毕业设计(论文)
外文翻译
基于神经网络的对称矩阵特征向量和特征值计算方法
作者:Zhang Yi,Yan Fu,Hua Jin Tang
国籍:中国
出处:Computers and Mathematics with Applications 47 (2004) 1155-1164
中文译文:
摘要:如何高效计算矩阵特征向量和特征值是工程中的一个重要问题,特别是对矩阵最大或最小特征值对应的特征向量的计算。本文提出了一种基于神经网络的方法来计算任意实对称矩阵的最大或最小特征值所对应的特征向量。该网络模型是一类连续时间递归神经网络模型,通过用微分方程来描述。它具有异步并行处理能力,并能实现较高的计算性能。本文对与特征向量和特征值计算有关的网络动态行为提供了一个清晰的数学方法。计算机仿真结果表明了该网络模型的计算性能。2004爱思唯尔有限公司保留所有权利。
关键词-递归神经网络,特征值,特征向量,特征空间,对称矩阵。
1. 引言
计算矩阵特征向量是工程中一个重要而又意思的问题,特别是计算特征向量所对应的最大或最小特征值。这种计算有许多重要的应用,例如,应用在自适应信号处理中。工程师和科学家们往往需要快速计算矩阵特征向量的工具。最近,许多利用神经网络研究这一问题的研究工作已经被报道,例如[1-14]。这些工作大多专注于计算正定对称矩阵的最大或最小特征值对应的特征向量。本文将从更一般的情况来研究,提出了一种基于神经网络的实对称矩阵特征向量的计算方法。所提出的神经网络模型将由微分方程来描述,该微分方程改编于 [3 - 5,11]。人工递归神经网络模型是一种具有异步并行处理能力和较高计算性能的模型。
设是一个实对称矩阵,提出的神经网络模型的动力学描述如下:
, (1)
对于,其中
且表示网络的状态,是的单位矩阵。显然,这是一类递归神经网络。
网络(1)是一个非线性微分方程,它的动态特性对其应用起着至关重要的作用。从工程的角度来看,拥有良好理解力的动态特性的神经网络最具吸引力。本文对网络模型的动态特性进行了详细的研究。
本文的其余部分阐述如下,在第二节中,我们将研究神经网络模型平衡点的性质。在第3节中,将建立一个有趣的网络表示的解决方案。网络的收敛性将在第4节中讨论。在5部分进行了计算机仿真.最后,在第6部分得出了结论。
2. 平衡点分析
向量是(1)的平衡点当且仅当满足,即
. (2)
用E表示(1)的所有平衡点的集合。是矩阵的特征值,用表示特征值所对应的特征空间。
定理1 (1)的所有平衡点的集合等于的所有特征空间的并集,即
证明:任给,如果,显然,,如果,有矩阵的特征值使得,即,因此,
根据(2),,这说明。
另一方面,任给,它满足,如果,显然,如果,则有
这说明是的特征向量,所以有,因此。证毕。
上述定理表明,除了0向量之外,网络(1)的任何平衡态都是的特征向量。因此,如果能证明网络的收敛性,就能提供一种计算矩阵的特征向量的方法。
一旦得到一个特征向量,就很容易计算出它所对应的特征值。设是的特征向量,对应的特征值可由计算。这是因为
,
这提供了一种利用已知特征向量来计算特征值的方法。
3、解的计算方法
本节将给出网络(1)解的表达公式。很明显,该网络模型是一个非线性微分方程。一般来说,求解非线性微分方程的解是不容易的。然而,由于网络(1)中的矩阵是对称矩阵,这使得我们能够建立一个关注网络(1)解的算法。
由于是一个对称矩阵,因此存在一组由特征向量组成的标准正交基。设是的特征值且是特征值所对应的特征向量组成了一组的标准正交基。那么,任给,它就可以表示为,其中是常数。
定理2 任给,如果,初值为的解就可以表示为
所有.
证明:显然,当时,网络(1)就等于
对于任意,设是初值为的解,就有如下结果
在时。接着,它满足,当所有。
改写(3)如下
(4)
在时。
对于,设可以用一组基表示为
,
在时,其中是定义在上的函数列,由(4)可得到
(5)
在时且所有.
因为,存在使得,应用(5)得到
,
在所有时。不失一般性,如果,仍能满足,对所有的
由(5)可推出
对所有都成立。
然后,
对所有都成立。下面将找。
应用(5)可得到
,
在时,有
在时。将(6)代入上述方程的右边,就可得到
在。两边积分得到如下:
在时。因此
将(7)代入(6),得到
对所有且都成立,因此
在所有时成立,证明完毕。
上面的定理2指出了网络(1)的解可以用一组正交特征向量表示,这一性质将下一节介绍网络收敛带来了很大的便利。
4.收敛性分析
在本节中,将对神经(1)进行收敛分析。对于一个人造神经网络的连续模型,探究它的收敛性是非常重要的。我们最基本的要求是保证所设计的神经网络是收敛的。在最后一节,将建立一个有趣的网络(1)解的表示形式。应用该表示形式,将为研究它的收敛性质打下坚实的基础。
定理3 每一个(1)的起始非0的点的解将收敛于的一个特征向量。
证明:设是所有的特征值,不妨设, 假设是中的一组标准正交基,使得每个是所对应的一个特征向量。设是所有不同的特征值且有,任给,,用表示重数的代数和,显然,,方便起见,,显然可以得出且有.
设是中非零点且假设,定义
存在一个使得,根据定理2,(1)中起始点为必须满足
证毕。
定理4 任给非零向量,如果不正交于,(1)的初值为的解收敛于矩阵A最大特征值所对应的特征向量。
证明:设,不正交当且仅当存在一个使得,从定理3可得
证毕。
上面的定理给出了网络收敛于最大特征值对应特征向量的充分必要条件,这种情况依赖于特征空间。由于不清楚是否是之前的,选择最初值与先前的正交是不切实际的,这个问题可以通过给初值一些随机摄动来解决,由于的维数往往小于的维数。用此方法,我们可得到一个可靠性较高的初值与不正交。下一节的模拟将会更进一步的确认这一点。
定理4告诉我们如何去计算最大特征值所对应的特征向量,在很多应用中,我们对计算最小特征值所对应的特征向量也很感兴趣,下面的定理就提供了一种解决方法。
定理 5 将网络(1)中的矩阵替换为-,假设是上的非零向量,且与不正交,则初值为的解收敛于矩阵最小特征值所对应的特征向量。
证明:注意到是-的最大特征值这一事实,应用定理4,初值为的(1)的解将会收敛于-矩阵的最大特征值所对应的特征向量,则,也就是 ,这说明了通常是一个矩阵的最小特征值对应的特征向量,证毕。
定理5指出如何去计算矩阵的最小特征值所对应的特征向量,只需将网络(1)中的用-替换即可。
定理 6 如果与每个正交,其中是一个常数,那么(1)中初值为的解收敛于一个与每个正交的特征向量。
证明:设可由一组基表示,即,由于与每个正交,则。显然,
根据定理3的证明,初值为的解收敛于
其与每个正交,证毕。
5、计算机仿真结果
在本节,将用一些计算机模拟结果来阐述上述定理,模拟展示了所提出的网络可以计算任意对称矩阵的最大或者最小特征值所对应的特征向量。
对称矩阵以简单的方式随机产生,设是随机产生的实矩阵,定义
显然,A是对称矩阵。
在第一个例子中,一个的对称矩阵A生成如下
应用网络模型,估算出和所对应的特征向量,各自分别为
对矩阵A应用网络模型做出图1,我们估计出了特征向量的结果,最大特征值所对应的特征向量就是上面的,我们就很快的估算出最大特征值为1.2307,它的精度为0.0001,为方便读者参考,用MATLAB计算的真实最大和最小特征值如下:
Maximum eigenvalue
Minimum eigenvalue
用这种技术有另一优点就是可以计算出最小特征值对应的特征向量,由定理5,我们就可以得到图2,通过网络模型输入—A,得到了特征向量以及最小特征值的大小,计算出最小特征值为1.5688,这一值与真实值仅仅相差一个符号,所得到的特征向量就是所对应的目标特征值。
图 1 矩阵A的最大特征值对应的特征向量
图2 矩阵A最小特征值所对应的特征向量
在下一个例子中,随机产生了一个的对称矩阵B如下
应用网络模型,近似出和对应的特征向量,分别如下
同样地,通过此模型我们计算出了最大和最小特征值所对应的特征向量。图3和图4分别说明了在两种情况下网络特征向量估计的收敛性,通过MATLAB计算出了矩阵最大和最小真实特征值如下:
Maximum eigenvalue
Minimum eigenvalue
图3 估计矩阵B最大特征值对应的特征向量
图4 估计矩阵B最小特征值对应的特征向量
对于上述的两种模拟,精度是设置为0.001的,根据使用者的所需我们可以改变精度值。理论和实际说明在预先设定精度后网络的收敛性是比较完美的。
除了上面的模拟外,我们用许多高维度的矩阵模拟来试验网络的性能,所有的模拟结果都是成立的,这些模拟结果更进一步的确定了通过网络模型来计算任意实对称矩阵的特征向量和特征值。需要指出的是,我们这里计算机仿真只是说明了网络模型的能力,在未来通过硬件来实现网络,网络有望获得较高的计算性能。
6、总结
本文主要通过神经网络的方法来研究计算对称矩阵特征向量的问题,提出的一类人造神经网络用来计算实对称矩阵最大或最小特征值对应的特征向量,该网络模型具有异步并行处理能力,可以实现较高的计算性能。提供了一个严格并且数学思路清晰的网络动态行为,模拟结果证明了网络模型是比较有效,在本文中是假定矩阵是对称矩阵的基础上研究的,对于矩阵A不是对称矩阵的情况,我们还不知道网络模型能否有效的解决,我们还需要进一步的研究。
参考文献
- K.I. Diamantaras, K. Hornik and M.G. Strintzis, Optimal linear compression under unreliable representation and robust PCA neural models, IEEE Trans. Neural Networks 10 (5), 1186-1195, (1999).
- K. Hornik and C.M. Kuan, Convergence analysis of local feature extraction algorithms, Neural Networks 5, 229-240, (1992).
- F.Luo, R. Unbehauen and A. Cichocki, A minor component analysis algorithm, Neural Networks 10 (2), 291-297, (1997)
- F.Luo and R. Unbehauen, A minor subspace analysis algorithm, IEEE Trans. Neural Networks 8 (5), 1149-1153, (1997)
- F.Luo, R. Unbehauen and Y.D. Li, A principal component analysis algorithm with invariant norm, Neuro-computing 8, 213—221, (1995).
- G. Mathew and V.U. Reddy, Development and analysis of a neural network approach to Pisarenkos harmonic retrieval method, IEEE Trans. Signal Processing 42 (3), 663-667, (1994).
-
G. Mathew and V.U. Reddy, Orthogonal eigensubspace estimation
剩余内容已隐藏,支付完成后下载完整资料
英语原文共 10 页,剩余内容已隐藏,支付完成后下载完整资料
资料编号:[272242],资料为PDF文档或Word文档,PDF文档可免费转换为Word