TensorFlow解决overfitting

首先理解dropout

对于神经网络单元,按照一定比例的概率将其暂时从网络中丢弃。目的就是为了防止过拟合。

每次做完dropout,相当于从原始的网络中找到一个更瘦的网络。在每次训练的时候,让一半的特征检测器停止工作,提高网络的泛化能力。

在向前传导的时候,让某个神经元的激活值以一定的概率p让其停止工作

看了那么多,我好像只能看懂这些,等到以后看懂更多的时候再来补充吧!