損失関数(Loss functions)¶
LossFunction クラス¶
- class binarybrain.losses.LossFunction(core_loss=None)¶
ベースクラス:
Object
LossFunction class 損失関数の基底クラス
- calculate(y_buf, t_buf, mini_batch_size=None)¶
損失の計算
mini_batch_size はメモリなどの都合でミニバッチをさらに分割する場合などに用いる。通常はNoneでよい。
- パラメータ
y_buf (FrameBuffer) -- forward演算結果
t_buf (FrameBuffer) -- 教師データ
mini_batch_size (int) -- ミニバッチサイズ
- 戻り値
逆伝搬させる誤差を返す
- 戻り値の型
dy_buf (FrameBuffer)
- clear()¶
値のクリア
集計をクリアする。通常 epoch の単位でクリアして再集計を行う
- get()¶
値の取得
- 戻り値
現在までの損失値を返す
- 戻り値の型
loss(float)
LossMeanSquaredError クラス¶
- class binarybrain.losses.LossMeanSquaredError(reduction='mean', dtype=DType.FP32)¶
ベースクラス:
LossFunction
LossMeanSquaredError class
平均二乗誤差(MSE)を計算して誤差として戻す
LossCrossEntropy クラス¶
- class binarybrain.losses.LossCrossEntropy(dtype=DType.FP32)¶
ベースクラス:
LossFunction
LossCrossEntropy class
交差エントロピー誤差を戻す
LossBinaryCrossEntropy クラス¶
- class binarybrain.losses.LossBinaryCrossEntropy(dtype=DType.FP32)¶
ベースクラス:
LossFunction
LossBinaryCrossEntropy class
2値の交差エントロピー誤差を戻す
LossSoftmaxCrossEntropy クラス¶
- class binarybrain.losses.LossSoftmaxCrossEntropy(dtype=DType.FP32)¶
ベースクラス:
LossFunction
LossSoftmaxCrossEntropy class
Softmax(活性化) と CrossEntropy(損失関数) の複合 両者を統合すると計算が簡略化される。
利用に際しては最終段に Softmax が挿入されたのと等価になるので注意すること。
LossSigmoidCrossEntropy クラス¶
- class binarybrain.losses.LossSigmoidCrossEntropy(dtype=DType.FP32)¶
ベースクラス:
LossFunction
LossSigmoidCrossEntropy class
Sigmoid(活性化) と BinaryCrossEntropy(損失関数) の複合 両者を統合すると計算が簡略化される。
利用に際しては最終段に Sigmoid が挿入されたのと等価になるので注意すること。