基于神经网络的优化计算实验

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

实验六基于神经网络的优化计算实验

一、实验目的

掌握连续Hopfield神经网络的结构和运行机制,理解连续Hopfield神经网络用于优化计算的基本原理,掌握连续Hopfield神经网络用于优化计算的一般步骤。

二、实验原理

连续Hopfield神经网络的能量函数的极小化过程表示了该神经网络从初始状态到稳定状态的一个演化过程。如果将约束优化问题的目标函数与连续Hopfield神经网络的能量函数对应起来,并把约束优化问题的解映射到连续Hopfield神经网络的一个稳定状态,那么当连续Hopfield神经网络的能量函数经演化达到最小值时,此时的连续Hopfield神经网络的稳定状态就对应于约束优化问题的最优解。

实验报告

1、画出连续Hopfield神经网络求解TSP问题的流程图。

2、根据实验内容,给出相应结果及分析。

(1)、参考求解TSP问题的连续Hopfield神经网络源代码(设置参数A=15,B=15,D=0.015, u0=0.02,h=0.5,r= cityNumber*10),给出15个城市和20个城市的求解结果(包括最短路径和最佳路线),分析连续Hopfield神经网络求解不同规模TSP问题的算法性能。

1)int main(int argc,char *argv[]):修改路径计算的代码

2)最后要求输出:

TSP4

(2)、对于同一个TSP问题(例如15个城市的TSP问题),设置不同的网络参数(A=50,B=50,D=0.01,C=50,u0=0.02, h=0.5,r=cityNumber*100;

A=0.5, B=0.5, D=0.5, C=0.2,u0=0.02,h=0.5,r=cityNumber*100;

A=500,B=500,D=500,C=200,u0=0.02,h=0.5, r=cityNumber*100;

A=5, B=5, D=0.01, C=5,u0=0.02,h=0.5, r=cityNumber*100),分析不同参数对算法结果的影响。

1)int main(int argc,char *argv[]):增加全局约束的参数C,网络动态方程也需增加全局约束项。

2)bool is_a_road():在是否是一条可行路径中,需要增加满足全局约束的判断

3)最后要求输出:

情况一

情况二

情况三

情况四

3、总结连续Hopfield神经网络和遗传算法用于TSP问题求解时的优缺点。

遗传算法易出现:早熟,大量计算,涉及到大量个体的计算,当问题复杂时,计算时间长,稳定性差等问题。

Hopfield算法有良好的收敛性,有限个平衡点,非线性处理,但网络不稳定。用Hopfield解TSP问题效果并不理想。相对遗传算法性能有相当大差距。

五、实验总结

通过本次实验,我基本理解了连续Hopfield神经网络的结构和运行机制,学习了连续Hopfield基于神经网络进行智能优化的过程。

相关文档
最新文档