① bp神经网络算法迭代一次是所有样本都算一遍吗
是的,全部样本都要算一遍。按照顺序依次抽取样本,代入BP算法,调整权值。也有部分算法是按随机方式,每次样本进来的顺序都不同,但仍然是所有样本都要参与。
唯一可能有点区别的是,标准BP算法中,每输入一个样本,都要回传误差并调整权值,这种对每个样本轮训的方法称为“单样本训练”。由于单样本训练遵循的是只顾眼前的“本位主义”原则,只针对每个样本产生的误差进行调整,难免顾此失彼,使训练次数增加,导致收敛速度过慢。因此,有另外一种方法,就是在所有样本输入之后,计算网络的总误差,再根据总误差调整权值,这种累积误差的批处理方式称为“批训练”或“周期训练”。在样本数较多时,批训练比单样本训练的收敛速度更快。