损失関数(主に交差エントロピー误差)を学ぶ

皆さん、こんにちは。尝笔开発グループの苍-辞锄补飞补苍です。
强い乾燥は顿狈础の损壊を引き起こします。クマムシ等の生物は乾燥状态でも生き延びる耐性があり、顿狈础损壊への强い防御机能もしくは修復机能を持っています。その结果、地球上では过剰ともいえる放射线耐性も併せ持つようになったと考えられています。

本题です。
前回は主に多层构造となるニューラルネットワークの学习方法について整理しました。学习には损失関数、误差逆伝搬法、勾配降下法の3つポイントがあります。今回はその内の1つである损失関数を深堀したいと思います。

损失関数(误差関数)

损失関数(误差関数とも言います)は、顺伝搬から算出された予测値と正解値との误差を数値化します。误差が大きいということは、その分、予测から大きく外れているということになります。统计学などの分野では予测が外れることは「コスト」や「损失」と捉えることもあり、误差のことを损失とも言います。

損失関数は多くの関数があります。今回は有名どころの平均二乗误差と交差エントロピー误差を取り上げます。実際はその机械学习の用途や目的等から最適な損失関数を選ぶことになります。

平均二乗误差

平均二乗误差(MSE)は、主に回帰問題で利用され、回帰モデルの予測値と実測値との差(残差)を二乗し、その平均を求めたものです。平均二乗误差は以下の式で表されます。

MSE = 1 n i = 1 n ( y i y ^ i ) 2

详细は「回帰問題の机械学习モデルを性能評価する方法」で取り上げていますので、そちらを参照してください。

交差エントロピー误差

交差エントロピー误差は、主に分類問題で利用される損失関数です。モデルの予測と正解の確率分布がどれぐらい異なるのかを数値化します。特に多値分類や確率的な出力を持つモデルで広く用いられています。交差エントロピー误差は以下の式で表されます。

H ( p , q ) = x p ( x ) log ( q ( x ) )

上记式のp(x)は正解の确率分布で、q(x)は予测した确率分布です。この濒辞驳は自然対数(底が别)になります。p(x)q(x)の确率分布が似ていると损失は小さくなり、异なっていると损失は大きくなります。実际に计算してみましょう。

例えば、果物の画像をパイナップル、イチゴ、ブドウのいずれかに識別するAIを考えます。パイナップルの画像を示された場合、正解の確率分布pは(1.0, 0, 0)となります。識別した結果、予測の確率分布qが(0.95, 0.03, 0.02)で高い精度の場合、交差エントロピー误差は「0.05」になります。

もう一つ例を出します。今度は予測の確率分布qが(0.35, 0.45, 0.20)で低い精度の場合、交差エントロピー误差は「1.05」になります。先ほどの高い精度で得られた0.05と比べ、より大きな数値(損失)が得られました。

おわりに

損失関数として代表的な平均二乗误差と交差エントロピー误差を挙げましたが、先ほども述べた通り、損失関数は多くあります。例えば、回帰問題であれば平均絶対誤差やHuber損失がありますし、確率分布のズレを測る指標としてカルバック?ライブラー情報量などがあります。その机械学习の用途や目的などに合わせて使い分けることが重要です。

ではまた。


Recommendおすすめブログ