基于改进BP神经网络的产品方案评价方法外文翻译资料

 2022-12-02 19:43:35

英语原文共 8 页,剩余内容已隐藏,支付完成后下载完整资料


基于改进BP神经网络的产品方案评价方法

Weiwei Chen1, Xiaopeng Wei1,2,*, and Tingting Zhao1

1 Liaoning Key Lab of Intelligent information Processing, Dalian University, 116622 Dalian, China 2 Institute of Mechanical Engineering, Dalian University of Technology, 116024 Dalian, China *xpwei@dlu.edu.cn

摘要:改进的BP神经网络(BP)神经网络评价方法以产品的主要指标数据为输入向量,采用层次分析法(AHP)将样本综合得分作为输出。我们将采用动量阶乘算法、高斯-牛顿算法和列文伯格-马夸尔特法分别对网络进行测试。通过在海尔冰箱上的验证和应用,我们所得出的速度和平均绝对误差表明,列文伯格-马夸尔特法测试BP神经网络是可靠的。

关键词: BP算法;层次分析法;动量阶乘算法;列文伯格-马夸尔特法;高斯-牛顿算法。

1引言

随着经济全球化的发展,企业间的竞争日趋激烈。企业生存的关键在于产品能否满足顾客需求。一般来说,概念设计阶段通常有许多方案。为了提高设计效率,提高成功率,降低成本,缩短设计周期,应对产品方案进行评价,并提出最佳方案。

产品方案评价是一个多因素、复杂、非线性系统。为了真实地反映其结果,在评价过程中必须解决动态和非线性问题。目前,有许多评价方法[1],如层次分析法、模糊综合评价法和灰色关联分析法,这些方法具有合理性和可行性,但不能解决上述问题,评价效率低。

BP神经网络[ 2 ]提供了一种新的有效的方法评价产品计划的非线性方法的特点,较强的适应能力、学习、共同行动和逻辑推理。为此,我们提出了基于BP神经网络自学习功能的评价方法。评价指标权重的确定削弱了随机性和评价主体的主观性。

2 BP神经网络及改进算法

BP算法是最典型的多层前馈神经网络,是目前应用最为广泛的算法之一。BP神经网络基本上是一种梯度加权算法,使权值空间中的误差函数降到最小。

但梯度下降法有三个主要的固有问题:容易陷入局部极小,收敛速度慢,在应用中缺乏稳定的泛化能力。许多研究者在基本BP算法的基础上进行了深入的改进,如增加动量梯度下降算法[ 3 ],高斯–牛顿(G-N)算法[ 4 ]和列文伯格-马夸尔特(L-M)[ 4 ]算法。

让表示网络的显示功能,是连接部分的权重,我们必须调整以最小化的值。使用高斯-牛顿法,权重的修正可以表示的形式为:

其中和表示黑塞矩阵和梯度。假设通过输出层中的神经元的误差平方来计算显示函数。它可以被定义为:

其中表示第j个输出神经元的误差信号。此外,我们可以找到如下公式:

其中表示雅可比矩阵

对于高斯-牛顿法,通常认为: 。我们用L-M方法对G-N法进行了改进:

其中mu;为标量。通过调整参数mu;,L-M算法可以操纵它的两个极端之间:梯度下降(infin;→mu;)并且G-N算法(0→mu;)。根据列车的迭代结果,L-M算法调整参数mu;动态地改变收敛方向。计算雅可比矩阵在算法中起着关键作用。当在网络中的权重的数目很小时,L-M算法可以有效率地提高速度。

3改进BP神经网络评价

3.1神经网络结构

原则上,只有一个隐层的神经网络模型可以近似地逼近任意连续函数[5],因此我们采用了三层BP网络。BP神经网络在输入层的神经元根据评价指数的数量、一个神经元的输出层、样品的综合得分和由经验公式得出的隐层N神经元[ 6 ]:

其中和为输入和输出结的数目,是在范围为1~10。我们选择ɑ= 4。

输入层与隐层之间的传递函数为S形函数:

隐层和输出层之间的传递函数为线性函数。

3.2神经网络的输入与输出

3.2.1输入

整个输入变量必须在BP神经网络的测试之前标准化:一方面,不同指数的尺寸通常是不同的,我们无法比较不同尺寸的直接评价对象的属性之间的差异;另一方面,隐层节点的传递函数为双曲正切,大数据的绝对值将对功能[ 7 ]的传播效果产生较大的影响,从而影响神经网络的测试结果。

首先,我们必须缩放表示自然语言的属性,我们设置0.8为“好”,0.6为“正常”,0.4为“坏”。然后,对于所有的数据,我们把它们缩放到[ 0,1 ]。对于效益指数(越大越好):

成本指数(越小越好):

3.2.2输出

样本综合得分反映方案的质量,计算公式如下:

其中表示索引权重,是无量纲处理数据。我们采用层次分析法(AHP)得到,具体的细节在[ 8 ]。

3.3测试神经网络

对于非线性系统,选择初始权重是非常重要的。它会直接影响学习的衔接和测试的时间。如果初始权重过大,加权输出将陷入饱和的S形函数并且调整的权重将接近零,这将导致停止学习过程。我们希望每个神经元的加权输出整体接近零,每个神经元的权重可以在广泛的S形函数范围进行调整。通常情况下,初始权重将是(- 1,1)中随机的值[ 9 ]。

设置“net.trainParam.show=5,net.trainParam.epochs=2000,net.trainParam.goal=1e5”。测试BP神经网络分别加入动量梯度下降算法、G-N算法和L-M算法。测试样本输入到系统与MATLAB神经网络工具箱,trainbfg和trainglm研究方法被用来测试样本。

3.4测试和保存神经网络

如果可以接受相对误差保持层之间的权重和阈值,选择几个样本放入网络,比较测试输出和期望输出。

4实例

选择海尔冰箱方案评价为例。

4.1冰箱评价指标

以市场调研为评价指标,提取顾客需求的十个主要指标,见表1。成本指数X2、X5和X6,其余的为效益指标。我们得到索引权重 = (0.0754 0.1384 0.1384 0.2302 0.0384 0.0754 0.0709 0.0454 0.1469 0.0406),原始数据见表2。

表1 冰箱评价指标体系

目标层

指标层

指标单位

冰箱评价指标体系

有效容积(X1)

L

电力消费(X2)

KWh/24h

输入功率(X3)

W

保鲜能力(X4)

Kg/24h

重量(X5)

Kg

噪声(X6)

Db

环境保护能力(X7)

0-1

造型效果(X8)

0-1

寿命(X9)

尺寸(X10)

0-1

表2 方案原始数据

方案

1

2

3

4

hellip;

35

36

X1

70

72

70

72

hellip;

117

117

X2

0.5

0.5

0.52

0.52

hellip;

0.71

0.7

X3

80

85

90

95

hellip;

130

130

X4

0.8

0.83

0.90

0.93

hellip;

0.9

1.1

X5

25

25

27

27

hellip;

37

37

X6

32

31

32

34

hellip;

36

37

X7

0.62

0.89

0.64

0.78

hellip;

0.87

0.83

X8

正常

正常

hellip;

X9

8

8

10

11

hellip;

15

16

X10

正常

hellip;

4.2测试与比较

测试集是表2中的前28个方案,选择另外的8个数据作为测试样本。我们测试BP神经网络分别加入动量

图1 动量因子算法的性能

图2 G-N算法的性能

图3 L-M算法的性能

表3 三种算法的周期和平均相对误差

算法

周期

平均相对误差(%)

动量因子

9673

2.27

G-N

69

3.93

L-M

7

0.28

梯度下降算法、G-N算法和L-M算法和三种算法的性能如图1、图2和图3表示。

表3显示了周期和三种算法的平均相对误差,证

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[25527],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。