神经网络系统辨识综述

  • 格式:docx
  • 大小:16.66 KB
  • 文档页数:4

下载文档原格式

  / 4
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

神经网络系统辨识综述

目前,国内外有许多利用神经网络来模拟设备性能、预测负荷的成功例子。1993 年,美国的Mistry和Nair成功开发了一个用来决定预期平均满意率(PMV)和温湿度参数的神经网络模型。1994 年,Curtiss利用神经网络模型成功地模拟了一台往复压缩式的冷水机组和其它暖通空调设备的性能。随后,Darred和Curtiss利用神经网络模型成功地预测了冷水机组的冷负荷和耗电量。在国内,也有利用神经网络对暖通空调优化控制、对空调器进行仿真研究的成功例子。神经网络之所以能够在国内外得到如此广泛的应用是因为:

a)神经网络具有模拟高度非线性系统的优点;

b)神经网络具有较强的学习能力、容错能力和联想能力;

c)神经网络具有较强的自适应能力。

例如可通过重新训练网络进行设备特性的动态校准功能,这也是它优于其它控制方法的主要特点。此外,神经网络模型还具有建模时间短、易于进行计算机模拟的优点。对于智能建筑,其热动力学参数模型本质上为分布参数系统,应用系统辨识也很难获得其精确的数学模型,控制效果可想而知,而人工神经网络允许在模型理论不完善的情况下,构成一种具有自学习、自适应的体系结构,在与外界信息的交互作用中,形成一种非线性映射或线性动力学系统,以正确反映输入和输出关系而不必预先知道这种关系的精确数学模型。

神经网络在线性系统辨识中的应用

自适应线性(Adaline-Mada Line)神经网络作为神经网络的初期模型与感知机模型相对应,是以连续线性模拟量为输入模式,在拓扑结构上与感知机网络十分相似的一种连续时间型线性神经网络。这种网络模型是美国学者Widrow和

Hoff于1960 年提出的,简称Adaline网络,它主要用于自适应系统等连续可调过程,还可以用于天气预报、语言识别、心电图诊断、图像分析等领域。由于该网络能逼近任意连续的线性函数,因此该网络可用于线性系统辨识,具体的方法是:将连续输入信号的采样值经不同延时后,作为网络的输入模式,被辨识系统数据量的采样值作为网络的希望输出模式。Adaline网络的各连接权实际上就是被测系统微分方程中各阶导数的系数。随着网络学习过程的进行,这些系数逐渐逼近系统的真实值,直至得到系统的数学模型。除此网络之外,还有其它神经网络可以通近任意的线性和非线性系统。其中以Hopfield网络(HNN)为代表的反馈型神经网络在联想记忆或分类、优化计算、人工智能等领域得到了广泛的研究与应用。由于HNN可以通过VLS等硬件物理实现,这有利于充分发挥神经网络固有的信息并行处理能力。这种潜在的应用前景引起了控制界的极大兴趣,为神经网络在系统辨识方面研究工作的开展提供了动力。可以说,线性系统辨识的理论和方法已经比较成熟和完善。

神经网络在非线性系统辨识中的应用

人工神经网络已在各个领域得到广泛应用,尤其是在智能系统中的非线性建模及控制器的设计、模式分类与模式识别、联想记忆和优化计算等方面得到人们的极大关注。从控制理论的观点来看,神经网络对非线性函数的逼近能力是最有意义的,因为非线性系统的变化多端是采用常规方法无法建模和控制的基本原因,而神经网络描述非线性函数的能力,也就是对非线性系统的建模能力,正适合于解决非线性系统建模与控制器综合中的这些问题。具有这一特性的多层前馈神经网络在实际应用中的比例要占所有人工神经网络应用的百分之八十以上。自前向神经网络BP算法提出以来,己在控制界和其它领域得到广泛应用。由于BP算法学

习速度慢,容易陷入局部极小值,网络隐含层的层数及隐含层的单元数的选取尚无理论上的指导,而是根据经验确定;同时网络的学习、记忆具有不稳定性。一个训练结束的BP网络,当给它提供新的记忆模式时,将使己有的连接权打乱,导致记忆模式的信息丢失。要避免这种现象,必须将原来的学习模式连同新加入的学习模式一起重新进行训练。针对上述各种缺陷,迄今已提出大量改进算法。如采用自适应调整学习速率加快BP算法的收敛速度,采用变动量因子改善学习效果。但研究表明,单纯改变学习速率或动量因子对改善学习效果均有一定的局限性,有时甚至不如基本BP算法。以上算法均是针对BP算法收敛速度慢而提出来的。对于BP算法存在的局部极小值问题,也有许多改进的算法,如模拟退火法、Alopex算法、遗传算法、粒子群算法等,这些算法都是随机化的批量算法,不易在线执行。其中递推最小二乘(RLS)技术应用于多层前馈网络的训练,能得到全局最优解,并易于在线执行,但算法在执行过程中,计算量和存储量都远超过基本BP算法,给具体应用带来了困难。

从上可以看出,每一种算法都有各自的优缺点。因此,对于前馈神经网络来说,在前面这些学习算法的基础上,还需要改进或研究一些新的容易实现的算法,在算法的复杂度增加不多的情况下,来不断提高辨识精度、加快网络的收敛性,更好地满足日益复杂的非线性系统辨识需要。最初,应用于系统辨识的神经网络都是静态的前馈网络,而对于实际的控制系统来说,被控对象一般都是一个动力学系统,所以,只能采用所谓的“外部抽头延迟线”反馈的方法,来建模和控制动力学系统。这就需要知道动力学系统的阶或延迟,显然这不能适用于所有的动力学系统。因此,对于动力学系统的建模和控制,需要研究动态的递归神经网络。这正是目前神经网络的研究方向之一。对于递归网络的研究,现在提出了许多网

络结构。虽然在网络内部引入反馈的方式各种各样,但都是力图以尽量简单的形式使整个网络能够描述非线性动力学信息,并应用于非线性动力学对象的辨识和控制设计,大多数的递归网络是通过在前馈网络内部引入反馈构成的,学习算法一般采用最速下降法。因此递归网络存在的问题有:

(1)不能保证权值收敛到误差函数的全局最小;

(2)稳定性问题。

基于梯度下降的连续学习算法,由于依赖梯度的瞬时估计,一般是很慢的。最近,有人将递归网络的监督训练看作是最优滤波问题,可以克服这个严重的局限,它的方法是以回溯到学习过程的第一次迭代的方式递归利用包含在训练数据中的信息,但是,它是以增加算法的复杂度为代价的。另外,在优化理论中新近发展的遗传算法(Genetic Algorithm,简称GA算法),它是一种全局随机寻优算法,通过模仿生物进化的过程来逐步获得最好的结果。而且它需要的信息量少,具有全局寻优、并行性、速度快和不需要目标函数可微或连续等优点,是一类比较有前景的神经网络学习算法,利用它的强全局寻优能力可以防止神经网络陷入局部极值。Kennedy和Eberhart于 1995 年提出了一类新型的随机全局优化算法一粒子群优化算法(Particle Swarm Optimization Algorithm,简称PSO法),它没有遗传算法的交叉变异操作,而是根据自己的速度来决定搜索,每一个粒子都有记忆,其算法比较简单,是一类有着潜在竞争力的神经网络学习算法。总之与前馈网络相比,递归网络的结构比较复杂,无论是对它的网络结构还是学习算法,都有很多问题有待进一步研究。