博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
训练loss不下降原因集合
阅读量:6693 次
发布时间:2019-06-25

本文共 848 字,大约阅读时间需要 2 分钟。

原文:https://blog.csdn.net/jacke121/article/details/79874555

 

train loss 不断下降,test loss不断下降,说明网络仍在学习;

train loss 不断下降,test loss趋于不变,说明网络过拟合;

train loss 趋于不变,test loss不断下降,说明数据集100%有问题;

train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或改变批量数目;  (batch=50, lr=0.001改成100和0.0001)

train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。

 

DEBUG---https://blog.csdn.net/u010848594/article/details/80576119

神经网络具有两大能力:一、学习能力,指在训练集上精度。二、泛化能力,指在测试集上精度。

对于一个大型神经网络在一个大数据集上跑,LOSS持续不降,第一步先减小数据量,比方说只在单张图片上跑,使用小epochsize,观察每次LOSS下降情况,此时如果LOSS还是不下降说明网络没有学习能力,应该调整模型,一般是先把网络规模缩小,因为任何一个网络都会有学习能力,然而此时你的网络没有学习能力,则一定是你的模型有地方出错,而神经网络又是个黑盒,你只能摘除一部分网络,以排除“坏的”部分。此时网络的规模小了,又在一个相对较小的数据集上跑,必然会有个很好的学习能力。此时可以不断增加网络部件,来提高学习能力。接下来是在保证网络具有学习能力的基础上进行的,是使得网络具有泛化能力,可以通过扩大网络规模,与此同时增大数据量,可以使得网络具有很好的泛化能力。

 

---------------------

转载于:https://www.cnblogs.com/datou-swag/p/10888459.html

你可能感兴趣的文章
android 加密手机完毕后待机两分钟出现有频率的杂音
查看>>
机器学习——相似度算法汇总
查看>>
Nodejs扩展,实现消息弹窗
查看>>
2017年度华为感动之星巅峰之旅活动完美收官
查看>>
junit测试之第三方组件mock
查看>>
用Vue实现省市区三级联动
查看>>
socket.io不为人知的功能
查看>>
为什么不要在枚举和 Equatable 中使用 default case?
查看>>
php实现排序(选择,冒泡,快速)
查看>>
那些年我遇到过的兼容性问题
查看>>
猪与命
查看>>
黑鲨游戏手机再推新品,游戏手机市场将会迎来怎样变数?
查看>>
Kubernetes容器云的互联网企业实践
查看>>
Apache Flink 漫谈系列(12) - Time Interval(Time-windowed) JOIN
查看>>
源码|详解分布式事务之 Seata-Client 原理及流程
查看>>
Java高级编程-React 项目的架构和规范
查看>>
Echarts中国地图三级钻取
查看>>
Android如何实现超级棒的沉浸式体验
查看>>
UWP开发入门(十七)——判断设备类型及响应VirtualKey
查看>>
PHP-Casbin v0.2 发布,轻量级开源访问控制框架
查看>>