神经网络与matlab仿真Word版

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

神经网络与matlab仿真

摘要

随着技术的发展,人工神经网络在各个方面应用越来越广泛,由于matlab仿真技术对神经网络的建模起着十分重要的作用,因此,本文通过讨论神经网络中基础的一类——线性神经网络的matlab仿真,对神经网络的matlab仿真做一个基本的了解和学习。

关键词:人工神经网路matlab仿真线性神经网络

1 神经网络的发展及应用

人工神经网络(Artificial Neural Network,简称ANN)是一种高度并行的信息处理系统,它具有高度的容错性,自组织能力和自学习能力;它以神经科学的研究成果为基础,反映了人脑功能的若干基本特性,对传统的计算机结构和人工智能方法是一个有力的挑战,其目的在于探索人脑加工、储存和搜索信息的机制,进而应用于人工智能系统。

1.1 神经网络的研究历史及发展现状

神经网络的研究已有较长的历史。1943年,心理学家McCulloch和数学家Pitts合作提出形式(兴奋与抑制型)神经元的数学模型(MP模型),开创了神经科学理论研究的时代。1944年,Hebb提出了神经元连接强度的修改规则,它们至今仍在各种神经网络模型中起着重要作用。50年代末60年代初,开始了作为人工智能的网络系统的研究。1958年,F.Rosenblatt首次引进了模拟人脑感知和学习能力的感知器概念,它由阈值性神经元组成。1962年,B.Widrow提出的自适应线性元件(adaline),具有自适应学习功能,在信息处理、模式识别等方面受到重视和应用。在这期间,神经网络大都是单层线性网络。此时,人们对如何解决非线性分割问题很快有了明确的认识,但此时,计算机科学已被人工智能研究热潮所笼罩。80年代后,传统的数字计算机在模拟视听觉的人工智能方面遇到了物理上不能逾越的基线,此时,物理学家Hopfield提出了HNN模型,引入了能量函数的概念,给出了网络稳定性的判据,同时开拓了神经网络用于联想记忆和优化计算的新途径。神经网络的热潮再次掀起。此后,Feldmann和Ballard 的连接网络模型指出了传统的人工智能“计算”与生物的“计算”的不同点,给出了并行分布的计算原则;Hinton和Sejnowski提出的Boltzman机模型则急用了统计物理学的概念和方法,首次采用了多层网络的学习算法,保证整个系统趋于全局稳定点;Rumelhart和McClelland等人发展了多层网络的BP算法;Kosko提出了双向联想记忆网络;Hecht-Nielsen提出了另一种反向传播网络,可用于图像压缩和统计分析;Holland提出了分类系统类似于以规则为基础的专家系统。这些努力为神经网络的后期发展奠定了牢固的基础。

目前,神经网络在研究方向上已经形成多个流派,包括多层网络BP算法,Hopfield网络模型,自适应共振理论(ART),自组织特征映射理论等。1987年,IEEE在San Diego召开大规模的神经网络国际学术会议,国际神经网络学会也随之诞生。

迄今为止的神经网络研究。大体可分为三个大的方向:

1)探求人脑神经系统的生物结构和机制;

2)用微电子学或光学器件形成特殊功能网络,主要应用于新一代计算机制造;

3)讲神经网络理论作为解决某些问题的一种手段和方法。

1.2 神经网络的应用

在理论工作取得重要进展的同时,硬件实现的研究工作也在积极开展,神经网络理论已经渗透到各个领域,并在智能控制、模式识别、计算机视觉、自适应滤波和信号处理、非线性优化、自动目标识别、连续语音识别、声纳信号的处理、知识处理、传感器技术与机器人、生物医学工程等方面取得了很大的进展。

人工神经网络系统是仿照人脑的工作原理而产生。它是大量的、同时也是很简单的处理单元(神经元)广泛互连形成的复杂的非线性系统。在人工神经网络中存在着许多简单的、具有非线性函数功能的几类单元,它们称为人工神经元。神经元以分层的形式来组织,而它们之间又存在着用突触维持的高度互连。人工神经网络的学习能力就在于突触的权值能够在学习过程中得到加强或是削弱,并以此将信息储存于神经网络中。人工神经网络经过训练,能够实现输入到输出的映射关系,同时具有一定的推广性,因此在不同的领域得到广泛的应用,如自动控制、移动通信、生物医学、模式识别、生产制造等等。

2 面向matlab工具箱的神经网络设计

人工神经网络可通过硬件或软件方式来实现。硬件方式即神经计算机。目前较常用的还是软件实现方式。已有许多公司和研究单位设计了通用的ANN程序以方便人们使用,matlab提供的神经网络工具箱就是其重要代表。

神经网络工具箱是在matlab环境下所开发出来的许多工具箱之一,它是以人工神经网络理论为基础,用matlab语言构造出典型神经网络的激活函数,如S 型、线性、竞争层、饱和线性等激活函数,使设计者对所选定网络输出的计算变成对激活函数的调用。另外,根据各种典型的修正网络权值的规定,加上网络的训练过程,用matlab编写出各种网络设计与训练所涉及的公式运算、矩阵操作和方程求解等大部分子程序,网络的设计者可以根据自己的需要进行调用,免除了自己编写复杂而庞大的算法程序的困扰,集中精力去思考需要解决的问题,提高工作效率和解题质量。

目前matlab几乎完整地概括了神经网络的基本成果,对于各种网络模型,神经网络工具箱集成了多种学习算法,为用户提供了极大的方便。

同时,matlab的其他工具箱也为我们在神经网络工具箱的基础上开发研究模糊与神经网络的结合、神经网络的样条算法等问题提供了辅助手段。

3 线性神经网络

线性神经网络是最简单的一种神经元网络,它可以由一个或多个线性神经元构成。50年代末期提出的自适应线性元件是线性神经网络最早的典型代表。其每个神经元的传递函数为线性函数,其输出可以取任意值。线性神经网络可以采用Widrow-Hoff学习规则,也称为LMS算法来调整网络的权值和阈值。

3.1 线性神经网络模型

线性神经元模型的神经元有一个线性传递函数purelin ,其输入输出之间是简单的比例关系,一次对单个线性神经元,由图1可得,a=purelin(ω×p+b).因此,线性神经网络允许输出可以取任意值,而不仅仅是0或1。

图1 线性神经元模型

图2 线性神经元传递函数

具有R 个输入的单层(S 个神经元)线性神经网络模型如下图3所示。

图3 单层多输入的线性神经网络模型

3.2 线性神经网络的学习算法

Widrow-Hoff 学习规则,又称为最小均方误差LMS (Least Mean Square Error )学习算法,由Widrow-Hoff 提出,属于有导师学习算法。

LMS 学习规则定义如下:

22

1111()(()())m m

k k mse e k d k y k m m ====-∑∑ (3-1)

其目标是通过调节权值,使mse 从误差空间的某点开始,沿着mse 的斜面向下滑行,最终使mse 达到最小值。

LMS 算法的实现有五个步骤:

第一步:初始化。给各个连接赋一个较小的随机值;

第二步:输入一个样本,计算连接权值的调整量:

相关文档
最新文档