亲宝软件园·资讯

展开

Keras深度学习框架之损失函数

云山之巅 人气:0

一.损失函数的使用

  损失函数【也称目标函数或优化评分函数】是编译模型时所需的两个参数之一。

  model.compile(loss='mean_squared_error', optimizer='sgd')

  或

  from keras import losses

  model.compile(loss=losses.mean_squared_error, optimizer='sgd')

  可以传递一个现有的损失函数名或者一个TensorFlow/Theano符号函数。该符号函数为每个数据点返回一个标量,有一下两个参数:

  1.y_true

    真实标签,TensorFlow/Theano张量。

  2.y_pred

    预测值,TensorFlow/Theano张量,其shape与y_true相同。

  实际的优化目标是所有数据点的输出数组的平均值。

二.可用的损失函数

  1.mean_squared_error(y_true, y_pred)【MSE,均方误差】

    计算公式:

    

    源码:

    

  2.mean_absolute_error(y_true, y_pred)【MAE,平均绝对误差】

    提到MAE就不能不说显著性目标检测,所谓显著性目标,举个例子来说,当我们观察一张图片时,我们会首先关注那些颜色鲜明,夺人眼球的内容。就像我们看变形金刚时会首先看擎天柱一样,这是绝对的C位。所以我们把变形金刚中的擎天柱定义为显著性目标。

    在显著性目标检测中的评价指标计算中,常用的检测算法就有平均绝对误差,其计算公式如下:

    

    源码:

    

  3.mean_absolute_percentage_error【MAPE,平均绝对百分比误差】

    与平均绝对误差类似,平均绝对百分比误差预测结果与真实值之间的偏差比例。计算公式如下:

    

    源码:

    

    备注:

    1.clip

      逐元素,将超出指定范围的数强制变为边界数。

    2.epsilon

      固定参数,默认值为1*e-7。

  4.mean_squared_logarithmic_error【MSLE,均方对数误差】

    在计算均方误差之前先对数据取对数,再计算。

    计算公式:

    

 

     源码:

    

 

  5.squared_hinage【不常用】

    计算公式:

    

 

    源码:

    

 

  6.hinage【不常用】

    计算公式:

    

 

    源码:

    

 

  7.categorical_hinge【不常用】

    源码:

    

 

  8.logcosh【不常用】

    预测误差的双曲余弦的对数。计算结果与均方误差大致相同,但不会受到偶尔疯狂的错误预测的强烈影响。

    源码:

    

  9.categorical_crossentropy【不常用】

    当使用categorical_crossentropy损失时,目标值应该是分类格式【即假如是10类,那么每个样本的目标值应该是一个10维的向量,这个向量除了表示类别的那个索引为1,其它均为0】。为了将整数目标值转换为分类目标值,可以使用keras实用函数to_categorical。

    from keras.utils.np_utils import to_categorical

    categorical_labels = to_categorical(int_labels, num_classes=None)

    源码:

    

 

   10.sparse_categorical_crossentropy【不常用】

    源码:

    

 

   11.binary_crossentropy【不常用】

    源码:

    

 

  12.kullback_leibler_divergence【不常用】

    源码:

    

 

  13.poisson【不常用】

    计算公式:

    

 

     源码:

    

 

  14.cosine_proximity【不常用】

    计算公式:

    

 

    源码:

    

加载全部内容

相关教程
猜你喜欢
用户评论