① bp神經網路演算法迭代一次是所有樣本都算一遍嗎
是的,全部樣本都要算一遍。按照順序依次抽取樣本,代入BP演算法,調整權值。也有部分演算法是按隨機方式,每次樣本進來的順序都不同,但仍然是所有樣本都要參與。
唯一可能有點區別的是,標准BP演算法中,每輸入一個樣本,都要回傳誤差並調整權值,這種對每個樣本輪訓的方法稱為「單樣本訓練」。由於單樣本訓練遵循的是只顧眼前的「本位主義」原則,只針對每個樣本產生的誤差進行調整,難免顧此失彼,使訓練次數增加,導致收斂速度過慢。因此,有另外一種方法,就是在所有樣本輸入之後,計算網路的總誤差,再根據總誤差調整權值,這種累積誤差的批處理方式稱為「批訓練」或「周期訓練」。在樣本數較多時,批訓練比單樣本訓練的收斂速度更快。