B-P(Back Propagation)神经网络算法
——即反向传播算法
0.
算法目的:根据实际的输入与输出数据,计算模型参数(权系数)。
1. 简单的B-P算法
假设有P个训练样本,即有P个输入输出对(Ip, Tp),p=1,…,P, 其中:
输入向量为: Ip(ip1,...,ipm)T
目标输出向量(实际输出)为: Tp(tp1,...,tpn) 网络算法输出向量(理论上)为: Op(op1,...,opn)
TT
记wij为从输入向量的第j (j=1,…,m) 个分量到输出向量的第i (i=1,…,n)个分量的权重。通常理论值与实际值有一误差,网络学习则是指不断地把Op与Tp比较,并根据极小原则修改参数wij,使误差平方和达最小,即:
min(tpiopi)2, (p=1,…,P) (2)
i1
n
Delta学习规则:
记wij表示递推一次的修改量,则有
wijwijwij (3) wij
η(t
p1
P
pi
opi)ipj
ηδ
p1
P
pipj
i (4)
δpi
tpiopi
η称为学习的速率。
注:由(1) 式,第i个神经元的输出可表示为
opif(wijipj), (5)
j1
m
其中,ipm= -1 , wim= (第i个神经元的阈值)。特别当f是线性函数时
opia(wijipj)b (6)
j1
m
定理:按上面描述的神经网络,设其中每个神经元都是线性的,取训练指标为
B-P(Back Propagation)神经网络算法
——即反向传播算法
0.
算法目的:根据实际的输入与输出数据,计算模型参数(权系数)。
1. 简单的B-P算法
假设有P个训练样本,即有P个输入输出对(Ip, Tp),p=1,…,P, 其中:
输入向量为: Ip(ip1,...,ipm)T
目标输出向量(实际输出)为: Tp(tp1,...,tpn) 网络算法输出向量(理论上)为: Op(op1,...,opn)
TT
记wij为从输入向量的第j (j=1,…,m) 个分量到输出向量的第i (i=1,…,n)个分量的权重。通常理论值与实际值有一误差,网络学习则是指不断地把Op与Tp比较,并根据极小原则修改参数wij,使误差平方和达最小,即:
min(tpiopi)2, (p=1,…,P) (2)
i1
n
Delta学习规则:
记wij表示递推一次的修改量,则有
wijwijwij (3) wij
η(t
p1
P
pi
opi)ipj
ηδ
p1
P
pipj
i (4)
δpi
tpiopi
η称为学习的速率。
注:由(1) 式,第i个神经元的输出可表示为
opif(wijipj), (5)
j1
m
其中,ipm= -1 , wim= (第i个神经元的阈值)。特别当f是线性函数时
opia(wijipj)b (6)
j1
m
定理:按上面描述的神经网络,设其中每个神经元都是线性的,取训练指标为