您好,欢迎来到宝玛科技网。
搜索
您的当前位置:首页人工神经网络发展综述

人工神经网络发展综述

来源:宝玛科技网


人工神经网络发展综述

1 绪 论

人工神经网络(Artificial Neural Network, ANN)是由大量处理单元互联组成的非线性、自适应信息处理系统。它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理。ANN 通过模仿人类大脑的结构和功能,并借鉴生物神经科学的研究成果,实现对信息的处理,是一种新兴的交叉学科,不但推动了智能化计算的应用和发展,同时也为信息科学和神经生物学的研究方法带来性的变化,现已成功应用于脑科学,认知科学,模式识别,智能控制,计算机科学等多个领域。

在实际应用中,人工神经网络的选取通常包括适当的神经网络模型,合理的网络结构及快速有效的网络参数训练算法。而针对某一特定网络模型, ANN的研究主要集中在结构的调整和训练算法的改进两个方面。所谓神经网络训练,也就是网络参数的学习和调整,是一个反复调节节点之间权值 和 阈 值的过程,其学习可以分成三类,即有监督学习,无监督学习和强化学习,本文基于有监督和无监督学习进行分类,分别分析了前馈神经网络的特点及研究现状、递归神经网络的特点及研究现状。

2 前馈神经网络

2.1 前馈神经网络的特点

前馈神经网络的主要种类包括:感知器,线性神经网络,BP 网络,径向基网络(RBF)等。其训练算法主要采用梯度下降法 ,包括 :误差反向传播算法,改进的BP算 法,

1

Levenberg -Marquardt 法(LM)等。前馈神经网络具有学习简单,收敛较快等优点,因此在实际应用中,一般选取三层或以上的网络结构,神经网络的任意逼近定理指出,训练合适的多层前馈神经网络能够以任意精度逼近任意连续函数 。当网络结构已知的情况下,训练前馈神经网络的本质就是确定最优权值和阈值的方法,前馈神经网络的训练方式一般采用网络理想输出和实际输出的误差作为权值调整信号,解空间一般是多峰函数,由于训练过程中很容易陷入局部极小,因此网络的训练目标就是求解一组最优的权值,使误差达到最小。

传统的误差反向传播算法由于为网络的训练提供了简单而有效的实现途径,目前已成为研究和应用最广泛的有监督学习算法。但 BP 算法存在许多问题,例如在多层网络中收敛较慢且容易陷入局部极小,而且不能对多个网络进行同时训练。改进的 BP 算法有多种形式,主要有通过附加动量和学习率的引入改进 BP网络的自适应能力等方法,附加动量方法虽然在一定程度上改善了易陷入局部极小的问题,仍然存在收敛速度较慢的问题。调整学习率方法通过将学习率在一定范围内自动调整,虽然能够提高网络收敛速率,但对权值的改变和影响并不大,仍然导致误差较大问题。LM法具有训练时间段,收敛速度快的优点,但由于 LM 法需要计算误差的 Jacobian 矩阵,这是一个复杂的高维运算问题,需要占用大量系统存储空间,同时, LM也存在易陷入局部极小的问题。

2.2 前馈神经网络的研究现状

在传统的神经网络训练过程中,预估校正法或者经验选择是最常被使用的网络结构选取方式。在训练和优化网络权值和阈值过程中,训练算法在上述分析中已知,存在着容易陷入局部最优并且难以跳出的缺点,因此误差函数要求必须是连续可求导的函数。因此,这些权值训练方法常和进化算法等全局搜索算法相结合。使用全局搜索算法的全局搜索能力帮助网络跳出局部极小。在编码时采用实数编码,克服二进制编码受到编码串长度和精

2

度的。例如, Sexton 等人用一种改进的遗传算法优化前馈神经网路权值,结果表明改进的算法使网路训练精度得到显著提高。Abbass 通过将传统 BP 算法和差分进化算法相结合,提出了一种的新的权值训练方法并用于乳腺癌的预测实验,取得较好结果。Iionen 等人使用差分进化算法对前馈网络的权值进行训练和优化,将优化结果与其他几种基于梯度下降的网络训练方法比较,结果表明该方法具有较好的精度。更多研究成果表明,将 DE、PSO应用于网络权值在线训练和优化具有明显优势,这些改进方法也成功应用在了医学和工程技术等领域。

此外,多种优化算法相结合也被证明是有效的。例如,提出了一种 DE 和 LM 相结合的神经网快速训练方法 。 Liu 等 人 提 出 一 种 粒子群算法 和共轭梯度算法相结合的混合算法,并将其应用于神经网络的权值优化。在优化过程中,首先确定网络结构,然后使用 PSO 的全局搜索能力获得最后权值组合,最后使用传统方法进行权值微调,取得较好结果。李祚泳采用相反方式将基本 PSO 和传统 BP 算法相结合使用,首先用 BP 算法对网络权值进行计算,然后使用 PSO 对网络结构固定的权值进行优化和改进。有学者提出一种具有控制参数自适应选择能力的差分进化算法,用于训练前馈网络,并将该方法用于奇偶分类实验中,将实验结果与几种其他方法进行比较得知,提出的方法具有更好的准确性。Epitropakis 等人在训练离散 Pi-Sigma 神经网络实验中,采用一种分布式离散差分进化算法和分布式离散 PSO算法相结合的方式。该离散网络仍然是一种多层前馈网络,在输出层,通过将神经元求积的方式获得输出,作者认为这 种整数权值的离散方式更适合用于硬件实现。在离散化权值方面, Bao 等人的工作表明,通过采用一种可重建的动态差分进化算法,可以有效用于训练固定结构的网络权值。前馈神经网络的权值训练方法在近几十年一直是人工智能领域的研究热点之一。越来越多的工作表明,将多种优化方法相结合,通过对传统训练方法的取长补短,可以将前馈网络有效应用于多个领域的应用中。

3

3 递 归 神 经 网 络

3.1 递归神经网络的特点

递归神经网络不同于前馈网络,是一种带有信息反馈功能,带有同力学时间特性的 ANN。递归神经网络模拟了人类大脑神经突触连接进行信号处理的方式,其中神经元之间的权值代表网络的记忆,能存储一部分数据信息,相当于模拟了人类大脑的内部短期记忆功能,常见的有 Hopfield 神经网络、玻尔兹曼机、细胞神经网络、双向联结记忆(BAM)神经网络和Cohen-Grossberg 神经网络等。通常情况下,递归神经网络可以在某一瞬态响应中实现对某一时间信号的存储,然后从存储的信息状态中重新构建上一瞬态的历史信息,实现对记忆的联想。可见递归网络的一个根本特征是具有短时记忆功能,因此很多递归网络的机构设计和训练算法研究都是

围绕其记忆特性展开。递归神经网络的动态特性表现在,其内部的信号是存在反馈的,也就是说,网络在某一时刻的输出值不仅与当前状态有关,还与之前时刻的状态有关。递归网络的这种特性使得它同时具备动力学特性和信息存储能力,因此递归型网络常被用来学习和模拟系统中的动态性能。此外,稳定性是递归神经网络的另一个特性,因为在递归网络中,网络状态是随时间变化的,要想保证网络运行在正常范围并不出现发散和振荡,必须首先对其稳定性进行分析和计算,设置合理的网络参数。

3.2 递归神经网络的研究现状

针对某一类问题,往往需要将递归网络进行适当调整和改进才能获得更好的应用,其改进方法通常有两种,即参数学习训练算法和网络结构优化算法。所谓参数训练算法,是指单纯对网络神经元节点的权值进行学习改进,而不改变网络结构(层数和节点数) 。结

4

构优化算法则相反,主要是通过某种学习规则(增长或删减机制)动态的调整网络结构,使其效果达到最优。在算法改进的研究中,常常借鉴前馈型网络的改进算法思想,将其应用于递归型网络中。

不同的递归神经网络学习算法都各自有其自身的特点,同时也适用于不同的应用对象 。 1986年,Hinton等人在Natural 上发表文章,提出一种由递归网络展开而成的一种多层前馈型网络,该网络的训练方法就是目前最主要的 BPTT(Back-Propagation through time)算法。然而,该算法在训练中存在收敛较慢问题,且对系统的内存需求过大,往往导致训练失败。Shen 等人在 Hinton 工作的基础上对该算法进行了改进,并将其应用于带有约束条件的建模问题,例如时间序列问题,实验结果表明他们的方法具有较高精度。Williams等人设计了一种具有递归运算方式的梯度计算方法,用于全局递归网络的设计。实际上, RTRL 算法与 BPTT 算法都是梯度下降法在递归网络中的变形形式,训练方式可以分为在线和离线两种。所谓在线学习方式,或称串行方式或顺序方式,是指每次只输入一个样本进行学习,对权值修改,然后再学习下一个样本。而离线方式,或称集中方式,是一种数据批处 理的运算,顾名思义,是每次将一批数据同时输入网络进行学习的方式。BPTT 就是一种离线训练方式,通过将全时间段求和然后调整权值,这种方式不适合应用于时效性较强的任务。在 Williams 之后的研究中,一种适合于递归神经网络在线进行梯度学习的算法 被 提 出 , 也 有 学 者 将 BPTT 进行改进,使之应用于在线训练方式。Hinton 于 2006 年,Science上发表文章,提出一种快速有效的递归神经网络训练算法,成功克服了传统 BP 算法的几个缺点,提出一种无监督的贪心 逐 层 网 络 训 练 方 法 , 命 名 为 深 度 信 念 网 ,之后很多学者对该网络学习算法进行研究和改进,成功应用于递归网络的学习训练,取得一定的成果。

在不同领域中,任务往往各不相同,因此针对不同的动态系统,不同类型的递归网络的也相继被提出并得到研究,使之成为人工智能界的研究热点之一。因其具有独特的优化

5

能力,联想记忆功能,递归神经网络已引起 AI 界极大的研究 和关注,并成功应用于多种模式识别问题,例如图像处理,声音辨识,信号处理等。

4 结 论

本文分析和研究了神经网络的两种主要类型,前馈型和递归型,并对其特点进行了分析。前馈网络的主要特点是计 算简单,运算方便,缺点是耗时较长,容易陷入局部极小;递归网络的特点是具有动力学特性和联想记忆特性,但使用时需要注意稳定性和收敛性,且对初始状态具有高度敏感特性。针对两类神经网络的特点,可通过多种优化相结合的方法解决收敛较慢且容易陷入局部极小问题,应用参数学习训练算法和网络结构优化算法对递归网络进行适当的调整,以应用于具体问题。

6

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- baomayou.com 版权所有 赣ICP备2024042794号-6

违法及侵权请联系:TEL:199 18 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务