深度神经网络中防止过拟合的利器-Dropout
Dropout in Deep Network
在机器学习任务中一提到过拟合,L1
和L2
正则项绝对是两大利器,但是在深度神经网络中,Hiton
老爷子在2014年提出了一种称为Dropout
的方法来避免过拟合,方式对比L1
和L2
更为灵活也是非常高效。
深度神经网络中,在不限制计算的条件下,最佳的正则化方式就是将所有可能组合成的模型进行平均输出,就类似stack
的模型融合一样,但是这种方式存在两大问题:
- 在计算时需要将训练文件进行相应的分离,因为神经网络的训练本身就是需要极多的数据,这么一分离可能会导致数据不够的情况
- 深度神经网络中的计算量本身就很大,计算多个之后其耗时将会更多
而Dropout
却可以完美的解决上述两个缺陷,他的思想很简单: