何凯明团队提出的Focal Loss针对样本不平衡问题,通过降低易分样本的损失,将焦点放在难分样本上Focal Loss的参数调整对分割效果至关重要,特别是取值为公式时,损失函数会优先关注正难样本然而,Focal Loss在分割任务上的适用性通常限于二分类情况Dice Loss和IOU Loss作为metric learning方法,可用;二分类交叉熵损失公式为fx是模型预测类别为y的概率多分类交叉熵损失函数的公式稍微复杂,涉及对每个类别的概率计算sigmoid损失函数使用交叉熵损失而不是平方损失,因为交叉熵在误差较大时梯度较大,有助于快速收敛,而误差小时梯度较小,可得到较好的最优解Focal损失是加权的二分类交叉熵损失;Log Loss常用于二分类问题,衡量预测概率与实际标签之间的差异Cross Entropy Loss是Log Loss的推广,适用于多分类问题,常与SoftMax激活函数一起使用正则项L1正则项通过剪裁参数来控制模型复杂性,倾向于产生稀疏解L2正则项通过权重衰减来控制模型复杂性,提供平滑的权重分布分类损失函数。