損失関数(Loss functions)

LossFunction クラス

class binarybrain.losses.LossFunction(core_loss=None)

ベースクラス: Object

LossFunction class 損失関数の基底クラス

calculate(y_buf, t_buf, mini_batch_size=None)

損失の計算

mini_batch_size はメモリなどの都合でミニバッチをさらに分割する場合などに用いる。通常はNoneでよい。

パラメータ
  • y_buf (FrameBuffer) -- forward演算結果

  • t_buf (FrameBuffer) -- 教師データ

  • mini_batch_size (int) -- ミニバッチサイズ

戻り値

逆伝搬させる誤差を返す

戻り値の型

dy_buf (FrameBuffer)

clear()

値のクリア

集計をクリアする。通常 epoch の単位でクリアして再集計を行う

get()

値の取得

戻り値

現在までの損失値を返す

戻り値の型

loss(float)

LossMeanSquaredError クラス

class binarybrain.losses.LossMeanSquaredError(reduction='mean', dtype=DType.FP32)

ベースクラス: LossFunction

LossMeanSquaredError class

平均二乗誤差(MSE)を計算して誤差として戻す

LossCrossEntropy クラス

class binarybrain.losses.LossCrossEntropy(dtype=DType.FP32)

ベースクラス: LossFunction

LossCrossEntropy class

交差エントロピー誤差を戻す

LossBinaryCrossEntropy クラス

class binarybrain.losses.LossBinaryCrossEntropy(dtype=DType.FP32)

ベースクラス: LossFunction

LossBinaryCrossEntropy class

2値の交差エントロピー誤差を戻す

LossSoftmaxCrossEntropy クラス

class binarybrain.losses.LossSoftmaxCrossEntropy(dtype=DType.FP32)

ベースクラス: LossFunction

LossSoftmaxCrossEntropy class

Softmax(活性化) と CrossEntropy(損失関数) の複合 両者を統合すると計算が簡略化される。

利用に際しては最終段に Softmax が挿入されたのと等価になるので注意すること。

LossSigmoidCrossEntropy クラス

class binarybrain.losses.LossSigmoidCrossEntropy(dtype=DType.FP32)

ベースクラス: LossFunction

LossSigmoidCrossEntropy class

Sigmoid(活性化) と BinaryCrossEntropy(損失関数) の複合 両者を統合すると計算が簡略化される。

利用に際しては最終段に Sigmoid が挿入されたのと等価になるので注意すること。